Goodfellow 此前為 Google Brain 高級(jí)研究員,現(xiàn)在為 OpenAI 的科學(xué)家。他在學(xué)術(shù)界也同樣非?;钴S,不僅發(fā)布了 38 分鐘視頻,(手把手)教授如何完善生成對(duì)抗網(wǎng)絡(luò),還在最后與網(wǎng)友互動(dòng),詳細(xì)解答了求知者的各種疑惑。
Jeff Dean:如何實(shí)現(xiàn)大規(guī)模深度學(xué)習(xí)?
如果說谷歌是人工智能領(lǐng)域的弄潮兒,Jeff Dean 自然就是沙灘上最為璀璨的珍珠。Jeff Dean 在領(lǐng)導(dǎo)谷歌大腦(2011 年成立,雷鋒網(wǎng)注)的這段時(shí)間內(nèi),研究小組已經(jīng)創(chuàng)造了超過 1000 個(gè)深度學(xué)習(xí)項(xiàng)目,并將其應(yīng)用在谷歌現(xiàn)有的產(chǎn)品當(dāng)中:如 YouTube,谷歌翻譯和谷歌相冊(cè)等。研究人員通過深度學(xué)習(xí)將大量數(shù)據(jù)輸入到神經(jīng)網(wǎng)絡(luò)當(dāng)中,學(xué)習(xí)比人類識(shí)別速度更快的模式。
在今年 3 月 AlphaGo 與李世石人機(jī)大戰(zhàn)時(shí),Jeff Dean 就做了《大規(guī)模深度學(xué)習(xí)最新進(jìn)展》的主題演講,而在今年 9 月的 Scaled Maching Learning 會(huì)議也做了內(nèi)容類似的《使用 TensorFlow 的大規(guī)模深度學(xué)習(xí)》。
Jeff Dean 認(rèn)為,神經(jīng)網(wǎng)絡(luò)能從數(shù)據(jù)中學(xué)習(xí)真正復(fù)雜的函數(shù)。從一端輸入內(nèi)容轉(zhuǎn)換成另一端的輸出內(nèi)容。他也提及機(jī)器學(xué)習(xí)領(lǐng)域的發(fā)展速度非常之快,因?yàn)橐黄撐陌l(fā)布之后,全球?qū)θ斯ぶ悄苡醒芯康臋C(jī)構(gòu)都會(huì)下載它,并對(duì)內(nèi)容進(jìn)行解析和論證,加上電子論文的通達(dá)性,比起計(jì)算機(jī)學(xué)其它領(lǐng)域的研究進(jìn)展會(huì)快得多。
對(duì)于谷歌,Jeff Dean 表示深度學(xué)習(xí)在語(yǔ)音識(shí)別、Image 挑戰(zhàn)賽、谷歌翻譯、照片搜索、街景影像,甚至是搜索排名上都取得了巨大突破。關(guān)于他的更多訪談資料,可以參考《谷歌戰(zhàn)神談增強(qiáng)學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)》。
李飛飛:ImageNet又有哪些主要進(jìn)展?
今年 AI 界并不平靜,而李飛飛加盟谷歌,著手成立新的機(jī)器學(xué)習(xí)實(shí)驗(yàn)室,則成了里頭「萬(wàn)綠叢中一點(diǎn)紅」的存在,而雷鋒網(wǎng)一直對(duì)這位華人女性科學(xué)家保持高度關(guān)注。
李飛飛在今年參加了 ICPR 2016,并應(yīng)邀發(fā)表了名為《計(jì)算機(jī)視覺智能的探索》的演講。她在演講中提到,自然經(jīng)歷了五億多年的變革才構(gòu)造了人類強(qiáng)大的視覺系統(tǒng),而人工智能的視覺探索之旅也只進(jìn)行了短短五十年。李飛飛介紹了她的實(shí)驗(yàn)室中正在開發(fā)的,基于大數(shù)據(jù)及深度學(xué)習(xí)的計(jì)算機(jī)圖像視頻研究體系。
作為全球計(jì)算機(jī)視覺領(lǐng)域的知名專家,李飛飛的主要貢獻(xiàn)在于參與建立了兩個(gè)被 AI 研究者廣泛使用來(lái)教機(jī)器分類物體的數(shù)據(jù)庫(kù):Caltech 101 和 ImageNet,而后者,目前已經(jīng)成為了全球最大的圖像識(shí)別數(shù)據(jù)庫(kù)。
當(dāng)然,這個(gè)演講的主要內(nèi)容還是在介紹 ImageNet 的主要進(jìn)展,而如果你對(duì)她最為出名的 TED 演講還不夠熟悉,歡迎一睹雷鋒網(wǎng)此前撰寫的李飛飛個(gè)人介紹。
吳恩達(dá):如何用深度學(xué)習(xí)構(gòu)建 AI 系統(tǒng)?
百度人工智能實(shí)驗(yàn)室的吳恩達(dá)(AndrewNg)也算得上是非常活躍的人工智能學(xué)者,他同樣在今年的 NIPS 2016 上進(jìn)行了演講,名為《如何用深度學(xué)習(xí)建構(gòu)人工智能系統(tǒng)》(Nuts and Bolts of Building Applications using Deep Learning)。
吳恩達(dá)在演講中指出深度學(xué)習(xí)非?;鸬脑蛟谟?,神經(jīng)網(wǎng)絡(luò)能夠擴(kuò)大無(wú)限大的規(guī)模,并能夠依靠這一點(diǎn)引領(lǐng)深度學(xué)習(xí)。在百度的人工智能實(shí)驗(yàn)室中,他嚴(yán)格將團(tuán)隊(duì)分為了算法與架構(gòu)兩大體系,認(rèn)為沒有人是兩者皆擅長(zhǎng)的,因此這一點(diǎn)可以為其它深度學(xué)習(xí)創(chuàng)業(yè)公司的團(tuán)隊(duì)提供參考。
而在接下來(lái)的展望中,吳恩達(dá)認(rèn)為下一個(gè)深度學(xué)習(xí)的大潮在于端對(duì)端的學(xué)習(xí)。需要足夠多的數(shù)據(jù)量,才能實(shí)現(xiàn)更加純粹的端到端學(xué)習(xí),也就是直接通過深度學(xué)習(xí)將語(yǔ)音對(duì)標(biāo)到最終想要的文本,并通過深度學(xué)習(xí)自身的體征提取來(lái)獲得結(jié)果。關(guān)于吳恩達(dá)的 NIPS 2016 最新演講,還請(qǐng)回顧一下雷鋒網(wǎng)的相關(guān)文章。
Michael Jordan:思維層與數(shù)據(jù)科學(xué)革命
此 Michael Jordan 非彼喬丹,他是加州大學(xué)伯克利分校(University of California, Berkeley)電子工程系、計(jì)算機(jī)科學(xué)系以及統(tǒng)計(jì)系的杰出教授。在他麾下學(xué)習(xí)過的不少學(xué)生都已經(jīng)成為了鼎鼎有名的機(jī)器學(xué)習(xí)大牛,比如 Yoshua Bengio 和 Andrew Ng 都是他的得意門生。
他于今年五月在伯克利分校做了一個(gè)關(guān)于計(jì)算思維、推理思維及數(shù)據(jù)科學(xué)的演講。在會(huì)上他提到,數(shù)據(jù)科學(xué)需要計(jì)算思維與推理思維的完全融合,并指出了大數(shù)據(jù)環(huán)境下驗(yàn)證模式、解釋模式與計(jì)算過程中可能出現(xiàn)的問題。