Google I/O 2019: 成為惠及每一個人的Google

2019-05-09 09:52:48來源:威易網(wǎng)作者:Google CEO Sundar Pichai

北京時間5月8日凌晨,歡迎數(shù)千人來參加我們的年度開發(fā)者大會——Google I/O。這是我一年中最喜歡的活動之一,因為它讓我們有機會展示如何通過新的技術(shù)突破和產(chǎn)品實現(xiàn) Google 的使命。

北京時間5月8日凌晨,歡迎數(shù)千人來參加我們的年度開發(fā)者大會——Google I/O。這是我一年中最喜歡的活動之一,因為它讓我們有機會展示如何通過新的技術(shù)突破和產(chǎn)品實現(xiàn) Google 的使命。

在過去的21年里,使人人皆可訪問信息并從中受益的使命沒有改變,但我們的方法已經(jīng)隨著時間的推移而發(fā)展。Google 不再是一家只是幫助人們找到答案的公司。如今,Google 的產(chǎn)品也能幫助人們完成任務(wù),無論是用 Smart Compose 在 Gmail 中找到正確的詞句,還是用地圖找到最快的回家路線。

簡而言之,我們的愿景是成為惠及每一個人的 Google,無論你是誰,住在哪里,想要實現(xiàn)什么。 當(dāng)談到惠及時,我們是指通過提供工具增加你的學(xué)識、成就、健康和快樂。我很高興與大家分享今天發(fā)布的一些產(chǎn)品和功能,這些產(chǎn)品和功能使我們離這個目標(biāo)更近。

為你的問題提供更好的答案

每天,人們向 Google 提出數(shù)十億個問題。但是我們還可以做更多的工作來幫助你找到所需要的信息。今天,我們宣布將把廣受歡迎的的 Full Coverage 功能從 Google News 引入到 Google 搜索。通過機器學(xué)習(xí),我們將識別出一個故事的不同要點——從事件的時間線到涉及的關(guān)鍵人物——并展示包括文章、推文甚至播客在內(nèi)的廣泛內(nèi)容。

有時,了解新信息最好的方式就是去看。Google 搜索和 Google Lens 的新功能,使用相機、計算機視覺和增強現(xiàn)實技術(shù)來為視覺方面的問題提供可視化的答案,F(xiàn)在,我們直接把增強現(xiàn)實技術(shù)引入 Google 搜索中。如果你在網(wǎng)上尋找新鞋,你可以從不同的角度近距離地看到鞋子,甚至可以看看它們與你最近穿著的搭配效果。你也可以使用 Google Lens 來獲取現(xiàn)實中所見事物的更多信息。假設(shè)你在一家餐廳里,把相機對準(zhǔn)菜單,Google Lens 會突出顯示哪些菜是受歡迎的,并向你展示相關(guān)圖片和之前顧客的評論。GoogleGo 是一款面向首次使用智能手機用戶的搜索應(yīng)用,在這款應(yīng)用中,Google Lens 會大聲念出你看到的單詞,幫助世界各地數(shù)百萬難以閱讀諸如街道標(biāo)識或 ATM 指示等日常事物的成人。

讓你的生活更輕松

在去年的 I/O 上,我們介紹了 Duplex 技術(shù),它可以通過 Google Assistant 幫助你打電話預(yù)訂餐廳,F(xiàn)在,我們將這一技術(shù)擴展到語音之外,以幫助你在網(wǎng)絡(luò)上完成工作。作為開始,我們先專注于兩項具體的任務(wù):預(yù)訂租車和電影票。通過“網(wǎng)絡(luò)上的Duplex (Duplex on the Web)”,Google Assistant 會自動地輸入信息,跟進(jìn)預(yù)訂流程,然后替你完成購買。深度學(xué)習(xí)的巨大進(jìn)步,使得它能夠在移動設(shè)備上實現(xiàn)更準(zhǔn)確的語音和自然語言理解,讓 Google Assistant 更快地為你工作。

我們?nèi)匀幌嘈臕I、軟件和硬件的結(jié)合將帶來最大的突破。今天我們宣布了兩款 Made by Google 的產(chǎn)品:新的 Pixel 3a(和3a XL),以及 Google Nest Hub Max。通過 Pixel 3a,我們以更實惠的硬件為人們提供他們喜愛的同樣的功能。Google Nest Hub Max 則將 Google Assistant 和其他更多幫助帶到你的家中。

為每一個人進(jìn)行研發(fā)

成為更有幫助的 Google 非常重要,但對我們而言,同樣重要的是為每個人而做。從最開始,無論你是斯坦福大學(xué)的教授還是印度尼西亞農(nóng)村的學(xué)生,Google 搜索都以同樣的方式工作。我們也繼續(xù)以這種方式負(fù)責(zé)任、安全地進(jìn)行技術(shù)的開發(fā),從而惠及所有人。

這在人工智能的發(fā)展中尤為重要。通過被稱為TCAV——“概念激活向量檢測 (testing with concept activation vectors)” 的新研究方法,我們正致力于解決機器學(xué)習(xí)中存在的偏見并使模型更具可解釋性。例如,TCAV可以發(fā)現(xiàn)一個用于檢測“醫(yī)生”圖像的模型是否錯誤地認(rèn)為男性是醫(yī)生的一項重要特征,因為在訓(xùn)練數(shù)據(jù)中有更多的男性醫(yī)生圖像。我們已經(jīng)將TCAV開源,因此每個人都可以使他們的AI系統(tǒng)更公平和更具可解釋性。我們很快也將推出更多的工具和開源數(shù)據(jù)集。

為每個人負(fù)責(zé)任地進(jìn)行研發(fā)的另一種方式,是確保我們產(chǎn)品的安全性和私密性。我們在進(jìn)行一系列隱私功能的改進(jìn),便于人們對他們的數(shù)據(jù)有更明確的選擇。Google Account 提供隱私設(shè)置的單一視圖,現(xiàn)在在更多產(chǎn)品中可以通過一次點擊輕松訪問。Google 地圖即將加入隱身模式,這意味著該次搜索和導(dǎo)航活動不會與 Google 帳戶關(guān)聯(lián),新的自動刪除控件還可以選擇保存數(shù)據(jù)的時限。在 Android Q 上我們也進(jìn)行了幾項安全改進(jìn),我們還在手機中加入了安全密鑰保護(hù)功能以便于進(jìn)行兩步驗證。

展望未來,我們正在挑戰(zhàn)產(chǎn)品需要更多數(shù)據(jù)以變得更有幫助的觀念。一項稱為聯(lián)盟學(xué)習(xí)(federated learning)的新技術(shù)使得原始數(shù)據(jù)無需離開你的設(shè)備就可以訓(xùn)練AI模型并使產(chǎn)品更智能。通過聯(lián)盟學(xué)習(xí),Gboard 可以在成千上萬的人開始使用像 “zoodles” 或 “Targaryen” 這樣的新單詞之后學(xué)會它們,而我們并不知道你在輸入什么。在未來,人工智能的進(jìn)步將提供更多的方法,在使用更少數(shù)據(jù)的情況下也能讓產(chǎn)品更有幫助。

為每個人進(jìn)行研發(fā)也意味著確保人人都可以訪問和享受我們的產(chǎn)品,包括殘障人士。今天,我們推出了幾款帶有新工具和無障礙功能的產(chǎn)品,包括 Live Caption,它可以為視頻、播客或在家中發(fā)生的對話自動生成字幕。將來,Live Relay 和 Euphonia 這樣的功能和項目也將幫助那些言語溝通有困難的人,無論他們是因為言語障礙還是聽力喪失。

為殘障人士開發(fā)產(chǎn)品常常還會導(dǎo)向能幫助為所有用戶改進(jìn)產(chǎn)品的進(jìn)步。我們所說的成為惠及每一個人的 Google 就是這個意思。我們還想為其他通過技術(shù)改善人們生活的組織提供幫助。今天,我們認(rèn)識了 Google AI Impact Challenge 的獲獎?wù)邆,這20個機構(gòu)正在使用人工智能技術(shù)解決世界上最重要的問題——從創(chuàng)建更好的空氣質(zhì)量監(jiān)控系統(tǒng)到加快應(yīng)急響應(yīng)。

如果沒有我們了不起的全球開發(fā)者社區(qū),我們成為惠及每一個人的 Google 的愿景就無法實現(xiàn)。攜手努力,我們能夠提供工具,幫助人們增加學(xué)識、成就、健康和快樂。有很多事情正在發(fā)生,所以請繼續(xù)關(guān)注與I/O相關(guān)的新聞。

關(guān)鍵詞:Google