文 | 唐旭
如何把一個想法植入富豪的大腦?要么來一套“盜夢空間”,要么寫一本書。
Nick Bostrom(尼克·波斯特洛姆),牛津大學人類未來研究院院長、教授、哲學家,暢銷書《超級智能》的作者——比爾·蓋茨和馬斯克都將他的書列為必讀推薦,馬斯克甚至出資100萬英鎊支持他的機構繼續(xù)自己的研究。
Bostrom被認為是在很大程度上影響了馬斯克對于AI態(tài)度的人。
2014年8月,剛剛讀完《超級智能》的馬斯克難掩內心澎拜,并在推特上第一次呼吁人們警惕人工智能的威脅,從此一發(fā)而不可收。
我們必須對AI保持警惕。它們可能比核武器更加危險
在書中,Bostrom將超越人類的通用機器智能視作人類“滅亡性的威脅”(existential risk),上周末在羅德島的美國全國州長協(xié)會(NGA)夏季會議上,馬斯克談及人工智能時,使用的是相同的表述;除此之外,去年六月,馬斯克在Code大會上曾經(jīng)聲稱我們活在電腦模擬出來的虛擬世界中,其來源其實也是Bostrom在2003年提出的觀點。
然而,在對AI的態(tài)度上,馬斯克顯然已經(jīng)比他的“導師”更為激進,以至于最近Bostrom都坐不住了。
“幾年前我寫了一本探討AI長期影響的書,給一些人留下了點印象。我想借這個機會說一句,我對此其實并沒有那么悲觀。”Bostrom在今年USI的演講上說。
“我花了好多頁去論述,一旦超級智能實現(xiàn)之后,哪些糟糕的事情將可能會發(fā)生——但那是因為對于寫一本書來言,將細節(jié)、紋理描繪出來更為重要,這樣才能讓人們看清其中的隱患在哪并更好地避開它們。”
“但花了這么多篇幅描繪悲觀的一面,并不意味著我認為這種悲觀的情況是更有可能發(fā)生的。”
Bostrom說出上述這番話的時間是今年的6月19日,比馬斯克最近一次發(fā)出警告的時間早了近一個月。
他當然沒聽進去。事實上這也僅僅是個開始。
這不是馬斯克第一次公開呼吁人們注意、警惕乃至管控AI。不管他把AI比作核武器還是惡魔,前幾次,反對者們其實也就是一笑了之,畢竟這么想的也不只他一個;但這回全美國的州長面前再次重復了一遍自己的觀點之后,馬斯克被懟慘了。
“想象一下,你有機會告訴全美國最有權勢的50位政客,自己認為需要政府立即行動的、最急迫的問題是什么。過去的這個周末馬斯克就有這樣的機會。結果他選擇提醒這些州長對人工智能保持警惕,以免其消滅人類。”
馬斯克發(fā)出警告兩天之后,《MIT科技評論》在舊金山的總編輯Tom Simonite發(fā)表了一篇題為《不去解決真正的AI問題,馬斯克已經(jīng)被殺手機器人嚇尿了》的文章,批評馬斯克總在異想天開,不切實際。
一位華盛頓大學機器學習方面的教授Pedro Domingos在文中稱:“我們中的許多人都在試圖教會他以及其他一些像他這樣的人,在AI的危險性上什么是真實的,什么是虛幻的,但顯然沒人能打動他。”
Yann LeCun后來也轉推了這篇文章。
沒完。轉天,《發(fā)現(xiàn)》雜志干脆直接了聯(lián)系了幾位計算機科學和未來學領域的大牛,正面對馬斯克的觀點進行回應。
量子位將其中一些回應節(jié)選如下:
Oren Etzioni(華盛頓大學計算機科學教授、艾倫人工智能研究所CEO):“伊隆·馬斯克對于將AI視作人類根本存在性威脅的執(zhí)拗讓他心煩意亂,而他真正應該關心的問題是AI對于工作和武器系統(tǒng)這些東西的影響。公眾真正需要的是能夠說明AI積極和消極兩種影響的、有價值的信息。我們需要分清科學和科幻。在科幻中,AI經(jīng)常被刻畫成陰謀奪取世界的壞人,但在現(xiàn)實中,AI只是一種工具。”