英國理論物理學家斯蒂芬·霍金不久前接受英國廣播公司采訪時發(fā)出警告,人工智能(AI)的發(fā)展可能使人類滅絕。“當人類開發(fā)出能自主運作的人工智能,它們會以越來越快的速度重新設計自己。人類被緩慢的生物進化所限制,無法與之競爭,將會被超越取代。”
世界著名的霍金科學家深陷在輪椅中,不得不依賴最先進的現(xiàn)代通訊技術,用聲音合成器說話。他說人工智能技術會迅速進化,超過人類,就像《終結者》電影中那樣。“我們已經(jīng)有了人工智能的初級形式,經(jīng)證明它們非常有用。但我認為,人工智能的全面發(fā)展可能導致人類滅絕。”
這讓霍金再次登上英國各大媒體頭條,激起人們對人工智能黑暗的、反面烏托邦式的假想。從上世紀60年代末的科幻電影《2001:太空漫游》,一個名叫哈爾9000(HAL 9000)的智能機器人發(fā)生錯亂,在前往木星的太空船上對人類發(fā)起攻擊;《我,機器人》中,一個多才多藝的人形機器似乎有了心靈;直到《終結者》系列,未來世界由機器人統(tǒng)治人類,反抗機器人統(tǒng)治的人類領袖被未來機器人追殺。
仁者見仁——面對風險要慎重
人工智能全面發(fā)展后會不會威脅人類?對此,其他專家的觀點也分為兩派:一些人同意霍金,認為那種威脅即使還很遙遠,也應當慎重對待;而另一些人認為,他的警告似乎過于杞人憂天。
“我很高興來自‘硬科學’的科學家能發(fā)出聲音。多年來我就一直在說這事兒。”瑞士洛桑大學人類學家丹妮拉·瑟奎說,人工智能的增長正在造出各方面表現(xiàn)都優(yōu)于人類的機器,這一趨勢最終將把維護人類生命的責任交付給機器。“這聽起來好像科學幻想,但當你看到正在發(fā)生的事,這一切只是程度問題。”瑟奎說,“我們正沿著他說的這條路,一步一步地走過去。”
而牛津大學影響未來技術項目主管尼克·波斯托姆說,人工智能優(yōu)越性的威脅并不急迫。他指出,從人工智能的趨勢和近期應用來看,仍在人類掌握之中,如軍用無人機、無人駕駛汽車、工廠機器工、互聯(lián)網(wǎng)自動監(jiān)視等。但是他說:“我認為機器智能將最終超過生物智能,而且這一過渡將伴隨著巨大的生存風險。”
疑者存疑——沒有證據(jù)支持
另一派專家指出,要造出“真正的”人工智能——寬泛的定義是一種能像人一樣復制自己的機器,或能創(chuàng)造性地思考——至少還要幾十年的發(fā)展,要小心一些人危言聳聽。
牛津大學研究員斯圖爾特·阿姆斯特朗說,人工智能這一領域在上世紀50年代興起。“除非我們忽略了每日新聞中的重大事件,否則有關的報道不會逃過人們的眼睛。”阿姆斯特朗在他的書《比我們更聰明:機器智能的風險》中說。
法國皮埃爾與瑪麗·居里大學人工智能專家與道德哲學家簡-加布里·加納希亞說,霍金的警告有些“過頭”。“人工智能中的許多事物觸發(fā)了人們的情緒和擔憂,因為它改變了我們的生活方式?;艚鹫f自主性技術將會發(fā)展到能獨立于人類,但他沒有證據(jù)支持,沒有數(shù)據(jù)來支持這一觀點。”
“這多少有些啟示性。”法國南部蒙彼利埃大學人工智能語言專家馬修·拉弗凱德說,“在許多事情上,機器已經(jīng)能比我們做得更好。”他說,比如國際象棋軟件,“但這并不意味著它們的智力比我們更高。”
智者見智——機器總歸是機器
英國布魯奈爾大學高級講師阿蘭·塔克看到了人工智能面對的障礙。他說,近幾年來,數(shù)據(jù)處理速度大大提高,也刺激更加靈活的軟件開發(fā),讓機器能從錯誤中學習。平衡加上反應能力,帶來了巨大的進步。美國波士頓動力公司是這方面研究的先鋒。在五角大樓高技術研究武器的資助下,他們設計了一類叫做“大狗”和“野貓”的四腳機器。