新年到來,也不要忘記和雷鋒網(wǎng)一起溫故而知新啊。
在剛剛落下尾聲的 2016 年,許許多多的人工智能大神們站在臺上分享他們的所見所感,雷鋒網(wǎng)整理了十位人工智能領(lǐng)域的大牛們所做的最新演講,一起與雷鋒網(wǎng)來回顧這些充滿智慧閃光的科研成果吧。
Yann LeCun:從小白科普到 AI 技術(shù)探討,一個也沒落下
Yann LeCun 堪比學(xué)術(shù)界的網(wǎng)紅,今年頻頻露面于公眾面前發(fā)表演講,還錄制了不少教學(xué)視頻,圈粉無數(shù)。如果 Yann LeCun 想坐 2016 最活躍學(xué)界大神的寶座,雷鋒網(wǎng)覺得沒有人敢和他搶。
LeCun 在卡內(nèi)基梅隆大學(xué)機器人研究所進行了一場關(guān)于 AI 技術(shù)核心問題與發(fā)展前景的演講。雷鋒網(wǎng)了解,他在演講中提到了三點干貨:
1. 無監(jiān)督學(xué)習(xí)代表了 AI 技術(shù)的未來。
2. 當(dāng)前 AI 應(yīng)用的熱點集中在卷積神經(jīng)網(wǎng)絡(luò)。
3. 用模擬器提高無監(jiān)督學(xué)習(xí)的效率是大勢所趨。
但不久后,在 NIPS 大會的演講上,LeCun 又將預(yù)測學(xué)習(xí)代替無監(jiān)督學(xué)習(xí)一詞,認為預(yù)測學(xué)習(xí)不僅能在無監(jiān)督情況下學(xué)習(xí),還能學(xué)習(xí)世界的預(yù)測模型。而就在最近,他又把預(yù)測學(xué)習(xí)的落腳點放在了 GANs,稱它為「20 年來機器學(xué)習(xí)領(lǐng)域最酷的想法」。
雷鋒網(wǎng)對他的演講做了不少覆蓋,比如演講 PPT 實錄;演講視頻整理;教授人人都能懂的深度學(xué)習(xí)基本原理;甚至還有 Quora 問答集錦,親授如何(像他一樣)從小白到大牛,自覺深度學(xué)習(xí)技術(shù)。
啥也不說了,關(guān)注 AI 科技評論快上車吧!
Yoshua Bengio:從機器學(xué)習(xí)到人工智能,聚焦機制是核心
作為與 Yann LeCun、 Geoffrey Hinton 齊名的「深度學(xué)習(xí)三巨頭」,Yoshua Bengio 同樣是學(xué)界不可忽視的一名執(zhí)牛耳者,他自 1993 年在蒙特利爾大學(xué)任教。谷歌于今年 11 月宣布建立蒙特利爾算法學(xué)習(xí)人工智能實驗室(MILA),共計投資 340 萬美元,資助蒙特利爾大學(xué)和麥吉爾大學(xué)旗下七名重量級教授及超過 150 名研究者的日常實驗。而自然,Yoshua Bengio 也在其列。他領(lǐng)導(dǎo)下的深度學(xué)習(xí)實驗室可謂是人工智能的研究前沿陣地,也是世界上最大的研究中心之一。http://www.leiphone.com/news/201611/u6HcoL3VhOxAbdjx.html
在今年 5 月的 Twitter Cortex 上,Bengio 應(yīng)邀做了題為「自然語言詞義下的深度學(xué)習(xí)」的演講。在演講中,Bengio 提及了從機器學(xué)習(xí)到人工智能的三個關(guān)鍵要素,主要包括:
1. 非常非常多的數(shù)據(jù);
2. 極靈活的模型
3. 強大的先驗知識,能打破維度魔咒。
此外,他還引申到了深度學(xué)習(xí)中的聚焦機制(Attention),首先它需要考慮一個輸入(或中間的)序列或圖像;但考慮到高層次指稱,通過設(shè)置權(quán)重或每個輸入位置概率,(如 MLP 所產(chǎn)生的),能夠應(yīng)用于每個位置。而這最主要的一個應(yīng)用就在于機器翻譯。在 2014 年,神經(jīng)機器翻譯獲得了初步突破,并在端到端機器翻譯取得了顯著成果。雷鋒網(wǎng)此前也做過報道,谷歌大腦團隊執(zhí)掌下的 Google Translate 目前已經(jīng)完全應(yīng)用了機器學(xué)習(xí)進行翻譯學(xué)習(xí)。
Bengio 認為,聚焦機制能夠讓深度學(xué)習(xí)取得巨大進步,并讓學(xué)習(xí)者模型更好地做選擇。
Ian Goodfellow:我發(fā)明的生成式對抗網(wǎng)絡(luò)怎么樣?
既然說到了 Bengio,雷鋒網(wǎng)怎么能不提他的得意門生、「GANs」之父 Ian Goodfellow 呢?他同樣在 NIPS 2016 上發(fā)表演講,分享了他對生成式對抗網(wǎng)絡(luò)的研究成果。
生成對抗網(wǎng)絡(luò)是一種生成模型(Generative Model),其背后最基本的思想就是從訓(xùn)練庫里獲取很多的訓(xùn)練樣本(Training Examples),從而學(xué)習(xí)這些訓(xùn)練案例生成的概率分布。
而 GANs 所做的「對抗」,就是讓生成器網(wǎng)絡(luò)與判別器網(wǎng)絡(luò)玩一個游戲,生成器網(wǎng)絡(luò)不斷通過輸入的隨機噪聲轉(zhuǎn)化為假數(shù)據(jù);而判別器網(wǎng)絡(luò)就需要判斷數(shù)據(jù)的真?zhèn)巍?/p>
「與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)訓(xùn)練不一樣的且有趣的地方,就是我們訓(xùn)練生成器的方法不同。生成器一心想要「騙過」判別器。使用博弈理論分析技術(shù),我們可以證明這里面存在一種均衡?!?/p>
不過訓(xùn)練 GANs 的一個難點,就在于會出現(xiàn)「模型崩潰」(Mode Collapse):生成的所有樣本都在一個點上(樣本相同),而主要的解決方式是開發(fā)能找到均衡狀態(tài)的新算法,而非令誤差最小化的成本函數(shù)。