5.人工智能可能強迫所有人在大腦中植入芯片,將人類變成“電子人”,以便于被其直接控制;
6.人工智能可能奴役人類,包括強迫人類接受冷凍或關入集中營;
7.利用完美洞察人類生理機能的能力,人工智能也可能折磨和虐待人類,令痛苦最大化;
8.人工智能可能對人類使用殺精劑,這可以說是對人類來說最糟糕的結果,可能導致人類滅亡;
9.人工智能可能對地球造成不可逆轉(zhuǎn)的破壞。地球是太陽系的重要組成部分,而太陽系又是整個宇宙的組成部分,為此可能造成連鎖反應;
10.鑒于超級智能的危險我們無法完全預測到,因此還可能有其他更危險的假設發(fā)生。
亞姆博爾斯基表示,盡管這些假設聽起來可能十分遙遠,但人工智能的威脅必須被嚴肅對待。他說:“在對待人工智能的標準思維框架下,我們總是提議建立新的安全機制。然而,在網(wǎng)絡安全研究人員在尋找安全漏洞的同時,也需要關注人工智能帶來的威脅。創(chuàng)造人工智能失控假想清單可以更容易預防其發(fā)生。”亞姆博爾斯基與皮斯托諾認為,現(xiàn)在只是出現(xiàn)值得警惕的跡象,比如研發(fā)人工智能技術缺少監(jiān)管。
對人工智能威脅論的反駁意見
在人工智能威脅論熱度日益高漲的情況下,人工智能領域科學家對人工智能威脅論也提出了反駁意見。Facebook人工智能實驗室主任,NYU計算機科學教授Yann LeCun 2014年4月在接受IEEE 《Spectrum》采訪時發(fā)表了對人工智能威脅論的看法,他認為人工智能研究者在之前很長的一段時間都低估了制造智能機器的難度。人工智能的每一個新浪潮,都會帶來這么一段從盲目樂觀到不理智最后到沮喪的階段。
Yann LeCun 提出了與威脅論支持者不同的人工智能未來發(fā)展路徑,他提到大部分人覺得人工智能的進展是個指數(shù)曲線,其實它是個S型曲線,S型曲線剛開始的時候跟指數(shù)曲線很像,而且奇點理論比指數(shù)曲線還夸張,它假設的是漸進曲線。線性、多項式、指數(shù)和漸進以及S曲線的動態(tài)演變,都跟阻尼和摩擦因子有關系。而未來學家卻假設這些因子是不存在的。未來學家生來就愿意做出盲目的預測,尤其是他們特別渴望這個預測成真的時候,可能是為了實現(xiàn)個人抱負。
微軟劍橋研究院主管克里斯·畢索普(Chris Bishop)認為,馬斯克的極端觀點可能阻礙人工智能技術的進步。他稱擔心智能機器人會導致人類無法繼續(xù)享受機器人帶來的好處。畢索普還稱,任何“人工智能成為人類生存威脅”的假設近期內(nèi)都不會發(fā)生,這可能是數(shù)十年之后需要討論的問題?,F(xiàn)在我們依然控制著這些技術,我們依然有很多路徑可供選擇。
中國科學院院士譚鐵牛在 2015中國人工智能大會上表示“水能載舟,亦能覆舟,甚至有的時候是魔鬼,走的好把握的好了魔鬼就不會出現(xiàn)。所以這個我認為非常重要。所以盡管在我看到的未來人工智能還難以超越人類,但是它對人類社會影響反響很大。這是大的科技革命。”
中科院自動化研究所復雜系統(tǒng)管理與控制國家重點實驗室主任王飛躍教授在“人工智能九文九答”一問中提到“我尊重任何人發(fā)表任何觀點的權利,但對“人工智能威脅論”、“奇點理論”之類的論調(diào),我的態(tài)度是堅決反對。
百度首席科學家,斯坦福大學人工智能專家吳恩達表示:“擔心人工智能過于強大就好像擔心人類會在火星過度殖民導致火星人口爆炸一樣。我很希望數(shù)百年后我們能在火星生活,但目前甚至都還沒有人類登上過火星,我們?yōu)楹我獡脑诨鹦沁^度殖民的問題呢?”
地平線科技創(chuàng)始人,人工智能專家余凱相信:“即使到2029年,人工智能的進展也不會對人類產(chǎn)生威脅。因為那時的機器還沒有好奇心,沒有情感,沒有自我意識。它們是智能的機器人,但不是智慧的機器人。智能是偏工具性的,而智慧會創(chuàng)造。”
破除爭議的難點在哪?
總體看,目前包括圖靈測試在內(nèi)的各種方案中還存在無法定量分析人工智能發(fā)展水平的問題,只能定性的判斷一個人工智能系統(tǒng)是否和人一樣擁有同等水平的智力。但這個系統(tǒng)和人類智慧進行對比,高低程度如何,發(fā)展速度與人類智慧發(fā)展速度比率如何,目前研究沒有涉及到可具體執(zhí)行的思路和方案。