
網易科技訊 5月12日消息:國外媒體報道,經過幾十年發(fā)展,人工智能已經從科幻小說里的一個概念,變成了當今科技發(fā)展的主流。蘋果的語音控制系統(tǒng)Siri、亞馬遜的智能助手Alexa、IBM的沃森超級電腦、谷歌大腦等等,能夠理解這個世界并且給出高效反饋的智能機器似乎就在眼前。
強大的互聯(lián)網接入和計算機運算法則讓機器在理解人類語音、視頻信息的方面取得了飛躍性的進步,也逐漸向真正的人工智能邁進。AI(Artificial Intelligence),可實現(xiàn)自動響應的人工智能產品距離我們還遠嗎?如何讓他們保持不斷自我更新升級但是依然保持人類可控范圍內?
這個問題給人們帶來普遍的擔心和焦慮。“我認為人工智能的發(fā)展最終會導致人類族群的滅絕,”物理學家斯蒂芬·霍金接受BBC的采訪給出了這樣的觀點。特斯拉的創(chuàng)始人埃隆·馬斯克把AI稱為“人類最大的潛在威脅”。微軟前總裁比爾·蓋茨也表示過類似的擔憂。
有多少擔憂是必要的?問題有多緊迫?我們聚集了多位工業(yè)、科研、政策決策領域的專家,一起評估人工智能的發(fā)展風險。參加此次話題討論的包括Skype創(chuàng)始人之一、人類未來發(fā)展?jié)撛陲L險研究院的智庫成員——Jaan Tallinn,IBM的沃森超級電腦研究院負責電腦認知研究的專家——Guruduth S. Banavar,帕多瓦大學計算機系教授、哈佛大學拉德克利夫高級研究所研究院和聚集最多AI研究者的國際人工智能研究協(xié)會主席——Francesca Ross。
以下是經過編輯整理的專家談話內容。
危險究竟是什么?
記者:人工智能會對人類造成哪些威脅?
Banavar:受科幻小說、電影的影響,人工智能帶來的威脅主要是人類與機器之間的矛盾沖突,這個觀點其實是錯誤的。人工智能在某些領域能夠比人類更出色地解決問題,比如大數(shù)據篩選。然而,某些人類擅長的領域里,機器的表現(xiàn)非常糟糕。比如常識推理、提出精彩的問題以及“跳出來”想問題。人類和機器的結合體,既我們研究的計算機認知能力的基礎,是對解決各個領域的復雜問題的革命性的設想。
以人工智能為基礎的系統(tǒng)已經在很多方面為我們的生活提供了便利:股票自動交易系統(tǒng)、自動飛行控制系統(tǒng)、工業(yè)流水作業(yè)機器人、錯誤檢測和搜索引擎... 在過去的5-10年間,計算機運算法則和先進的計算機架構讓我們開發(fā)出了很多新應用。
然而需要認識到,計算機運算法則已經被運用到極致。要實現(xiàn)更大的進步,則需要引入更多復雜的符號系統(tǒng)——這是個很高的要求。今天我們的神經科學和認知科學研究,對于人類智能的研究也只是掌握到皮毛。
我個人的觀點是,能夠達到人類水平,實現(xiàn)一般感知、推測的人工智能機器只是個娛樂話題。
TALLINN:今天的人工智能不可能對人類構成威脅。如果我們要討論人工智能的長遠影響,(也就是人工智能能夠比人類更好地完成策略、科學、人工智能研究的時候。)我們就要涉及到控制超級智能的問題。
記者:什么是超級智能控制問題?
TALLINN:現(xiàn)在最先進的機器人也存在一個能夠讓人類實現(xiàn)完全控制的“關機鍵”。然而,“關機鍵”發(fā)揮作用的前提是它在機器人的工作領域之外。舉個例子,一個會下棋的電腦工作領域僅限于與人對弈,它并不會覺察到它的人類對手可以拔掉它的電源終止游戲。
然而,超級智能機器,經過有意或者無意的程序設定,能夠全面的了解周圍世界并且對于有人可以動他們的“關機鍵”的后果作出預測,人類就很難再控制它。
記者:這個問題有多嚴重?
TALLINN: 目前這還只是理論上的推測。但是需要謹慎的認識到,超級智能機器可能會僅僅受控于物理學定律和人們給早期智能機器人設定的程序。
早期的程序是基于我們十分有限的物理學知識設計的。想象一下,如果面對一個智能機器人,我們給出的指令是“為人類創(chuàng)建更偉大的未來”時,我們最好能夠十分確定它會做出怎樣的反應。
ROSSI:在很多具體的領域,人工智能的表現(xiàn)已經超越人類,其中就包括一些涉及精確判斷的領域。目前,人工智能并未威脅到人類,但是人類已經受到機器判斷的影響,如線上自動交易系統(tǒng),健康檢查系統(tǒng)以及很快就將普及的無人駕駛汽車和無人操控武器。