人類總是容易被一些美好的概念所打動(dòng),比如人工智能(AI)。回溯過(guò)去的五十年里,人工智能總是被一次次宣揚(yáng)地仿佛就要成為現(xiàn)實(shí)。最近,一批關(guān)于人工智能的憧憬隨著新一年趨勢(shì)的展望,似乎又要卷土重來(lái)。但紐約大學(xué)神經(jīng)科學(xué)家加里·馬庫(kù)斯(Gary Marcus)在《紐約客》網(wǎng)站發(fā)表文章,稱人工智能(AI)還有很長(zhǎng)的要走,過(guò)度炒作會(huì)危害它的發(fā)展。因?yàn)橥钢ёx者的期許,最后會(huì)讓他們無(wú)法再信任并理 解這個(gè)技術(shù)的未來(lái)。
作為證據(jù),他介紹了目前領(lǐng)先的“深度學(xué)習(xí)”系統(tǒng)Deeply Moving,并談到了AI面臨的最大挑戰(zhàn)。畢竟復(fù)制人類的大腦,真不是一件容易的事情。
以下為全文摘要:
從《紐約時(shí)報(bào)》近日發(fā)表的一些文章來(lái)看,真正的人工智能似乎指日可待。對(duì)于科幻劇集《太空堡壘卡拉狄加》的粉絲來(lái)說(shuō),這聽(tīng)上去倒是令人興奮。但心理學(xué)家、認(rèn)知科學(xué)家和科普作家史迪芬·平克(Steven Pinker)看過(guò)這些文章后,給我發(fā)來(lái)一封電郵,說(shuō):“我們又回到1985年了!”1985年,正是主流媒體上一次對(duì)神經(jīng)網(wǎng)絡(luò)大肆炒作的時(shí)候。
炒作有什么危害?
“過(guò)去五十年里,炒作已經(jīng)把AI害死了四次??偸怯腥诵捡R上就會(huì)取得什么成就(通常是為了打動(dòng)潛在投資者或資助機(jī)構(gòu)),然后卻無(wú)法拿出成果。于是反噬接踵而至。”Facebook新建的人工智能實(shí)驗(yàn)室的主管、紐約大學(xué)研究者伊恩?勒坤(Yann LeCun)在Google+的一篇帖子中說(shuō)。它相當(dāng)于是發(fā)給媒體的一封公開(kāi)信。
現(xiàn)在的AI肯定比幾十年前強(qiáng)大了很多。谷歌、蘋果、IBM 、Facebook和微軟都在這方面進(jìn)行了較大的商業(yè)投資。創(chuàng)新產(chǎn)品也已經(jīng)出現(xiàn),比如可能很快就會(huì)推向市面的無(wú)人駕駛汽車。神經(jīng)形態(tài)工程學(xué)(注:Neuromorphic Engineering,建立類似大腦處理信息的器件,往往是模擬的方式)和深度學(xué)習(xí)(注:Deep Learning,是機(jī)器學(xué)習(xí)中一個(gè)非常接近AI的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò))的發(fā)展固然令人興奮,但它們能否真的產(chǎn)生人類級(jí)別的AI,目前尚不清楚——尤其是在涉及到“理解自然語(yǔ)言”等一些充滿挑戰(zhàn)性的問(wèn)題時(shí)。
“深度學(xué)習(xí)”系統(tǒng)Deeply Moving
研究者已經(jīng)開(kāi)始用深度學(xué)習(xí)來(lái)理解自然語(yǔ)言,但迄今為止,成果都相當(dāng)有限。已經(jīng)公開(kāi)的系統(tǒng)中,最好的可能就是斯坦福大學(xué)的Deeply Moving了,它用深度學(xué)習(xí)來(lái)理解人們的影評(píng)。有趣的部分是,你可以親自嘗試,把一則影評(píng)的內(nèi)容剪切和粘貼進(jìn)去,馬上就能看到這個(gè)程序?qū)λ姆治鼋Y(jié)果,你甚至還可以教導(dǎo)它進(jìn)行改善。但這個(gè)深度學(xué)習(xí)系統(tǒng)的效果令人失望。
比如說(shuō),它不能講述一篇影評(píng)的大意,也提煉不出來(lái)評(píng)論者喜歡電影的哪些方面。這種事情連六年級(jí)小學(xué)生都能辦到。
這個(gè)系統(tǒng)大概唯一能做的事情,就是進(jìn)行所謂的情感分析,即判斷一篇影評(píng)到底是“好評(píng)”或“差評(píng)”。比如你輸入“這部電影比《貓》強(qiáng)”的評(píng)價(jià),該系統(tǒng)可以正確地判斷出這是好評(píng)。但即便只能做這樣的判斷,它也未必總是判斷正確。
我從爛番茄網(wǎng)站上找了一則影評(píng)來(lái)測(cè)試它,內(nèi)容是“《美國(guó)騙局》是一部松散、超長(zhǎng)、超喧囂的故事,演員也選得不怎么樣,但當(dāng)你走出影院的時(shí)候還是會(huì)感到非常興奮。”很明顯,評(píng)論者是采用了先抑后揚(yáng)的修辭手法,或者是認(rèn)為這部電影的整體效果大于各種元素的簡(jiǎn)單疊加,但Deeply Moving深度學(xué)習(xí)系統(tǒng)分辨不出來(lái),它跟我說(shuō),這則影評(píng)是非常差的差評(píng)。
我的一個(gè)朋友也用“這不是一本可以被忽略的書”和“關(guān)心這個(gè)問(wèn)題人都不該忽視這本書”做了測(cè)試,結(jié)果第一個(gè)被判為差評(píng),第二個(gè)判為中評(píng)。如果說(shuō)Deeply Moving是深度學(xué)習(xí)系統(tǒng)中的佼佼者,那么真正的AI(可以閱讀報(bào)紙,就像人類那樣)前面還有很長(zhǎng)的路要走!
言過(guò)其實(shí)地宣傳新技術(shù),可以在短期內(nèi)激發(fā)大家的熱情,但常常也會(huì)帶來(lái)長(zhǎng)期的失望。正如勒坤在Google+帖子上說(shuō)的:如果初創(chuàng)公司聲稱對(duì)一些隨機(jī)任務(wù)有“90%的準(zhǔn)確度”,請(qǐng)不要相信;如果一家公司說(shuō)“我們正在依照人腦計(jì)算原則,開(kāi)發(fā)機(jī)器學(xué)習(xí)軟件”,那你就更要多一個(gè)心眼了。
AI面臨的最大挑戰(zhàn)
我認(rèn)為,AI面臨的最大挑戰(zhàn)跟常識(shí)性推理(common-sense reasoning)有關(guān)。像深度學(xué)習(xí)和神經(jīng)形態(tài)工程學(xué)這樣的時(shí)髦新技術(shù),讓AI程序員側(cè)重到一個(gè)特定類型的問(wèn)題上,這個(gè)問(wèn)題關(guān)乎于給熟悉的東西分類,但是跟如何應(yīng)付我們以前沒(méi)有見(jiàn)過(guò)的東西,就沒(méi)有什么關(guān)系了。
雖然機(jī)器在給它們可以識(shí)別的東西分類方面,以及在某些任務(wù)(比如語(yǔ)音識(shí)別)獲得了顯著改善,但在其他方面(比如理解有一個(gè)揚(yáng)聲器意味著什么),進(jìn)展卻比較緩慢。
神經(jīng)形態(tài)工程可能會(huì)出現(xiàn)令人興奮的進(jìn)展,但也許需要比較長(zhǎng)的時(shí)間。近日,包括亨利?馬克拉姆(Henry Markram)在內(nèi)的一些神經(jīng)科學(xué)家,對(duì)目前實(shí)施的神經(jīng)形態(tài)系統(tǒng)表示了懷疑,因?yàn)樗鼈儗?duì)大腦的表現(xiàn)過(guò)于簡(jiǎn)單化和抽象了。
我同意馬克拉姆的看法。很多AI程序員,似乎都側(cè)重在尋找一個(gè)單一的強(qiáng)大機(jī)制(深度學(xué)習(xí)、神經(jīng)形態(tài)工程學(xué)、量子計(jì)算,或其他東西),以便從統(tǒng)計(jì)數(shù)據(jù)中導(dǎo)出一切。這種做法過(guò)于簡(jiǎn)單化了。
總之,我覺(jué)得大家有必要記住一個(gè)基本事實(shí),即人類大腦是已知宇宙中最復(fù)雜的器官,我們幾乎仍然不知道它是如何運(yùn)作的。誰(shuí)說(shuō)復(fù)制人類大腦的威力會(huì)很容易?