去年10月,特斯拉CEO伊隆·馬斯克(Elon Musk)曾表示,人工智能是“對人類生存最大的威脅”,而開發(fā)能思考的機器就像是“召喚惡魔”。去年12月,著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)指出,“全面的人工智能將意味著人類這一種族的滅亡”。今年,微軟創(chuàng)始人比爾·蓋茨(Bill Gates)也表示,他“對超級智能感到擔憂”,而這樣的超級智能只需幾十年就會誕生。
不過,即使認為人類將由于“殺人機器人”而面臨威脅,這樣的問題也不太可能來自人工智能,而更有可能是由于“人工愚蠢”。人工智能和人工愚蠢之間的差異反映了我們看待計算機的方式。
關(guān)于人工智能,大部分人擔心的一點在于,計算機會認為人類是錯誤的產(chǎn)物并殺死人類。對人類來說,這無疑非常糟糕,但對計算機來說可能是明智的決定。
但業(yè)內(nèi)專家表示,真正令人擔憂的是,計算機程序會在無緣由的情況下,迅速而過度地完成某項單一工作。例如,一個生產(chǎn)回形針的機器可能會失控,導(dǎo)致在一夜之間生產(chǎn)出大量無用的回形針。
換句話說,這里發(fā)生了非常愚蠢的錯誤,而錯誤影響范圍很大。在關(guān)于人工智能導(dǎo)致世界末日的報道中,你可能會看到“終結(jié)者”機器人的說法,但實際上這仍停留在想象之中。
麻省理工學(xué)院物理學(xué)教授、未來生命研究所主席馬克斯·泰格馬克(Max Tegmark)表示:“你真正應(yīng)該擔心的是,一臺計算機在某個非常狹隘的領(lǐng)域變得非常強大。”
今年6月底,德國一名工人遭到工廠生產(chǎn)線機器人的意外傷害而身亡。當時,泰格馬克表示:“這表明,機器非常愚蠢,將人體當做了一塊金屬材料。”
未來生命研究所近期獲得了馬斯克的1000萬美元資助,以探索如何避免自動化程序帶來危害。不過包括馬斯克、霍金和蓋茨在內(nèi),許多人似乎都沒有注意到真正的潛在威脅。
目前來看,沒有任何證據(jù)表明,機器人工智能能產(chǎn)生意識,并出現(xiàn)殺死自己創(chuàng)造者的想法。
非盈利組織艾倫人工智能研究所負責人奧林·艾奇奧尼(Oren Etzioni)表示:“這種對世界末日的設(shè)想搞混了科學(xué)的邊界,實際上是討論關(guān)于思想和意識等哲學(xué)問題。如果有更多人學(xué)會軟件開發(fā),他們就會發(fā)現(xiàn)計算機其實只是很平常的工具。”
那么是什么原因?qū)е铝诉@樣的混淆不清?一大原因在于計算機科學(xué)家的工作。艾奇奧尼表示:“‘人工智能’一詞誕生于50年代,當時人們認為能思考的機器即將出現(xiàn)。我們目前沿用了這一說法。”
“人工智能”一詞目前已被廣泛應(yīng)用。谷歌的人工智能項目主要由收購而來的DeepMind負責。這一領(lǐng)域的一家先行者名為Thinking Machines。而研究人員也在關(guān)注“深度學(xué)習”,這暗示了我們正在創(chuàng)造智能。
深度學(xué)習依靠了有層次性的邏輯能力,即神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)中的節(jié)點常常被比作人腦的神經(jīng)元,但實際上兩者之間的差別就像面包和太空船那么巨大。
包括DeepMind在內(nèi),機器學(xué)習領(lǐng)域的大部分研究都主要關(guān)注模式識別、行為建議,以及預(yù)測。這類似于人腦的能力。
人工智能是科技行業(yè)最引人關(guān)注的一個領(lǐng)域。亞馬遜、Facebook和谷歌正在展開一場競賽,而Uber和通用電氣則將機器學(xué)習視為了未來。
但從本質(zhì)上來看,機器學(xué)習就是自動化,而這也是長期以來機器的功能。人類在學(xué)習中可以變得更聰明,而機器的“學(xué)習”與人類不同。
DeepMind已開發(fā)出一款程序,能掌握簡單的視頻游戲,然而這一程序無法將一款游戲的經(jīng)驗應(yīng)用至另一款。這一神經(jīng)網(wǎng)絡(luò)系統(tǒng)對圖片的識別方式與人腦仍有很大差異,并且很容易被擊敗。
從這類愚蠢的機器行為發(fā)展至更廣泛的與人類類似的行為被稱作“遷移學(xué)習”。這一領(lǐng)域目前還停留在研究階段。