而谷歌對DeepMind的一系列支持則是因?yàn)椋雀柘胍ㄟ^解決人工智能的問題,解決其他所有問題,DeepMind是谷歌發(fā)展人工智能最為得力的左膀右臂之一。實(shí)際上DeepMind除了自身的獨(dú)立研究,同時(shí)也參與到谷歌內(nèi)部很多產(chǎn)品開發(fā)中,Hassabis說,DeepMind與Google Brain(2011年Google X實(shí)驗(yàn)室里誕生的AI項(xiàng)目)每周都會互動。DeepMind側(cè)重于增強(qiáng)學(xué)習(xí),Google Brain則更側(cè)重深度學(xué)習(xí)。
說收購DeepMind是一樁超值的生意,就不得不再提一提DeepMind其他的出色表現(xiàn),這的確是一家技術(shù)上非常領(lǐng)先的人工智能公司:
今年7月,Hassabis稱,DeepMind的AI系統(tǒng)正幫谷歌節(jié)約龐大的電費(fèi)。該系統(tǒng)通過控制數(shù)據(jù)中心的部分設(shè)備——操縱服務(wù)器和制冷系統(tǒng)等相關(guān)設(shè)備來降低耗電量。谷歌也表示,該技術(shù)的確將電力使用效率(PUE)提升了15%。谷歌2014年耗電量是4,402,836兆瓦時(shí),有很大一部分電量是由數(shù)據(jù)中心消耗的。根據(jù)美國能源信息管理局的數(shù)據(jù),企業(yè)支付電價(jià)的范圍約為每兆瓦時(shí)25~40美元,無論按哪個標(biāo)準(zhǔn)計(jì)算,如果數(shù)據(jù)中心的耗電量降低10%,就有可能在幾年內(nèi)為谷歌節(jié)約數(shù)億美元電費(fèi)(這樣算來,谷歌收購DeepMind花的6億美元很快就能“省”回來)。Hassabis說:“AI系統(tǒng)控制著數(shù)據(jù)中心的120個變量,包括風(fēng)扇、制冷系統(tǒng)和窗戶等。”DeepMind未來可能會要求谷歌在數(shù)據(jù)中心增加傳感器,以便通過更加豐富的信息進(jìn)一步節(jié)省用電量。
醫(yī)療領(lǐng)域,近期,DeepMind已與英國眼科醫(yī)院Moorfields Eye Hospital 簽署了協(xié)議,將使用人工智能對倫敦醫(yī)院中的160萬名病人的病例進(jìn)行學(xué)習(xí)。其目標(biāo)是教會計(jì)算機(jī)程序辨認(rèn)2種比較普遍的眼部疾病——糖尿病視網(wǎng)膜病變和老年性黃斑變性。眼科醫(yī)生通過分析醫(yī)學(xué)圖以及向病人詢問病情相結(jié)合的方式診斷這兩種疾病,出錯率依然高達(dá)10%-20%。人工智能可以通過機(jī)器掃描數(shù)百萬的文件和記錄,對其進(jìn)行學(xué)習(xí),然后做出更快速、更精確的診斷。這是DeepMind與英國國家醫(yī)療體系的第二次合作,上一個項(xiàng)目是在倫敦皇家自由醫(yī)院使用智能手機(jī)App監(jiān)控病人的腎功能。
語音生成領(lǐng)域,今年9月,外媒報(bào)道DeepMind在該領(lǐng)域取得巨大飛躍,他們研發(fā)的WaveNet系統(tǒng)將機(jī)器生成的語音與人聲品質(zhì)的差距縮小了一半。這一進(jìn)步將使機(jī)器像人一樣“自然”發(fā)聲的那天提前到來。
此外,DeepMind團(tuán)隊(duì)在今年10月在線出版的 Nature 雜志上發(fā)表論文,提出了一種結(jié)合神經(jīng)網(wǎng)絡(luò)和數(shù)字計(jì)算機(jī)最強(qiáng)優(yōu)勢的混合計(jì)算系統(tǒng),稱為“可微分神經(jīng)計(jì)算機(jī)”(DNC),將神經(jīng)網(wǎng)絡(luò)與一個可讀寫的外部存儲器結(jié)合起來,克服了神經(jīng)網(wǎng)絡(luò)無法長時(shí)間保存數(shù)據(jù)的缺點(diǎn)。德國不來梅雅各布大學(xué)教授Herbert Jaeger認(rèn)為,DNC拓展的記憶可能將深度學(xué)習(xí)應(yīng)用拓展到大數(shù)據(jù)領(lǐng)域。
谷歌強(qiáng)大的創(chuàng)造力,給AI不斷注入生命力
實(shí)際上,除了DeepMind大踏步前進(jìn),富有創(chuàng)造力的谷歌總部對于AI的開發(fā),也呈現(xiàn)遍地開花的場面。還是先看看谷歌目前的成果(筆者僅粗略梳理了一些主要方面,若要細(xì)數(shù)的話恐怕要好好單寫一篇長文):
開源深度學(xué)習(xí)系統(tǒng):2011年谷歌成立AI部門,2015年11月谷歌開源第二代深度學(xué)習(xí)系統(tǒng) Tensorflow。該系統(tǒng)基于谷歌2011年開發(fā)的深度學(xué)習(xí)基礎(chǔ)架構(gòu)DistBelief構(gòu)建,與DistBelief相比,TensorFlow的運(yùn)轉(zhuǎn)速度更快、更智能、更靈活,可用于語音識別、照片識別等多個領(lǐng)域。此外,TensorFlow 編寫的運(yùn)算幾乎不用更改就能在多種異質(zhì)系統(tǒng)上運(yùn)行。開放源代碼后,所有工程師都可以幫助谷歌修改和完善這項(xiàng)技術(shù)。今天,Tensorflow開源一周年,谷歌博客發(fā)布了一年來取得的成果——超過480人直接為該系統(tǒng)做出貢獻(xiàn),目前該系統(tǒng)已成為GitHub上最受歡迎的機(jī)器學(xué)習(xí)項(xiàng)目。Tensorflow性能得到提高,被帶到了IOS和樹莓派,并與大數(shù)據(jù)架構(gòu)集成起來,可接入Go,Rust,Haskell。該系統(tǒng)還使得谷歌翻譯有了重大進(jìn)步,等等。
向產(chǎn)品和服務(wù)中注入AI:目前,包括谷歌搜索、Google Now、GmailY以及開源的Android 手機(jī)系統(tǒng)中都注入了大量機(jī)器學(xué)習(xí)功能。例如用深度學(xué)習(xí)改善搜索引擎、識別 Android 手機(jī)指令、鑒別Google+社交網(wǎng)絡(luò)圖像,用卷積神經(jīng)網(wǎng)絡(luò)開發(fā) Android 手機(jī)語音識別系統(tǒng)等。
自主研發(fā)AI芯片:為提升AI軟件的性能,谷歌也在研發(fā)并使用新的微處理器芯片TPU,谷歌表示,與當(dāng)前機(jī)器學(xué)習(xí)常用處理器相比,TPU具有領(lǐng)先7年的優(yōu)勢,計(jì)算速度快出10倍。谷歌也表示,很可能會為特定人工智能任務(wù)開發(fā)更多專用處理器。