但是這些方法要么太過簡(jiǎn)單,這就好比試圖給復(fù)雜的人類喜惡確定一個(gè)簡(jiǎn)單膚淺的定義,要么就是把復(fù)雜的人類價(jià)值觀生硬地壓縮成一個(gè)簡(jiǎn)單的字詞或想法。比如,對(duì)“尊敬”這個(gè)詞,要確定內(nèi)涵一致又普遍接受的定義是極度困難的。
“并不是說這些簡(jiǎn)單的技巧是沒用的。這些對(duì)策里面有很多給研究指明了道路,對(duì)解決這個(gè)終極難題有所幫助。但是這些只是想法,具體的操作還需要我們做更多的開發(fā)研究工作。”阿姆斯特朗說。
5. “人工超智能很聰明,不會(huì)犯錯(cuò)。”
AI研究者兼Surfing Samurai機(jī)器人開發(fā)者Richard Loosemore認(rèn)為大多數(shù)假設(shè)的AI毀滅世界的情景都不符合邏輯。人們總假想在這種情景下,AI可能會(huì)說:“我知道毀滅人類文明只是我的設(shè)計(jì)故障,但我不得不這么做。”Loosemore指出如果AI像這樣打算毀滅人類時(shí),那它一生會(huì)很多這樣的邏輯矛盾,也會(huì)因此摧毀自己的知識(shí)庫,導(dǎo)致自己變得愚蠢,而不足以對(duì)我們?cè)斐蓚ΑK€斷言,那些認(rèn)為“AI只會(huì)按照指定程序做事”的人,與當(dāng)初用這樣的話評(píng)價(jià)電腦不具備靈活性的人一樣,犯了同樣的錯(cuò)誤。
就職于牛津大學(xué)人類未來研究所(Future of Humanity Institute)的皮特?麥金泰爾(Peter McIntyre)和斯圖爾特?阿姆斯特朗(Stuart Armstrong)都對(duì)此有不同看法。他們認(rèn)為人工智能將很大程度上受到編程的限制。他們相信AI也會(huì)犯錯(cuò)誤,或者他們還沒有聰明到了解人類想從他們那里得到什么。
“從定義上講,超級(jí)人工智能(ASI)是一個(gè)擁有智力的載體,它在各個(gè)相關(guān)領(lǐng)域都要比最優(yōu)秀的人類大腦更聰明。”麥金泰爾如是告訴Gizmodo。 “它將十分清楚我們用他們來做什么。”麥金泰爾和阿姆斯特朗相信AI只會(huì)做程序編寫的任務(wù),如果它能變得足夠聰明的話,它將能理解依照程序完成任務(wù)與領(lǐng)略規(guī)則精髓的不同,也將能理解人類的意圖。
麥金泰爾把人類未來的困境比作老鼠的困境。老鼠想要在人類居所尋求食物和棲息地,人類不愿居室內(nèi)有老鼠,兩者沖突。麥金泰爾說,“正如我們明白老鼠的目的,超級(jí)智能系統(tǒng)也能知道人類想要的,但仍對(duì)此漠不關(guān)心。”
6. “我們將被超級(jí)人工智能毀滅。”
沒有任何證據(jù)表明我們會(huì)被AI毀滅或無法控制它們。正如AI研究者Eliezer Yudkowsky所說:“AI既不會(huì)恨,也不會(huì)愛,但人類由原子構(gòu)成的,除了智能以外,人類還有感情。”
牛津大學(xué)的哲學(xué)學(xué)者Nick Bostrom在他的書《超級(jí)智能:路徑、危險(xiǎn)與策略》中提到,真正的超級(jí)人工智能一旦完成,將比以往人類的任何發(fā)明都危險(xiǎn)。一些著名的學(xué)者如Elon Musk, Bill Gates, and Stephen Hawking(后者曾警告AI也許是人類史上最糟糕的錯(cuò)誤)也提出了警告。
但沒有什么事是可以確定的,沒人知道AI將采取什么行動(dòng)以及如何威脅到人類。正如Musk指出的,人工智能可以用來控制、調(diào)節(jié)和監(jiān)視其它人工智能。也許可以它灌輸人類的價(jià)值觀,使之毫無保留地對(duì)人類保持友好。
7. “我們不應(yīng)該害怕AI。”
一月份,臉書創(chuàng)辦者馬克扎克伯格說我們不應(yīng)該害怕AI,AI會(huì)為世界帶來難以估量的好處。扎克伯格只說對(duì)了一半。我們隨時(shí)準(zhǔn)備從AI身上收獲巨大的利益——從自動(dòng)駕駛汽車到新藥物的研制,但是沒有人能保證AI的所有影響都是良性的。
高度智能化的系統(tǒng)也許了解某一特定任務(wù)的一切,例如解決令人厭煩的財(cái)務(wù)問題,或者黑進(jìn)對(duì)手的系統(tǒng)。但是在這些特殊領(lǐng)域之外,高度智能系統(tǒng)會(huì)變得極其無知無覺。谷歌的DeepMind系統(tǒng)精通圍棋,但除圍棋以后,它在其他方面沒有探索的理性和能力。
8. “AI和機(jī)器人造成的風(fēng)險(xiǎn)是相同的。”
這是一個(gè)特別常見的錯(cuò)誤認(rèn)識(shí),不加鑒別發(fā)布消息的媒體和好萊塢電影比如《終結(jié)者》系列使這一錯(cuò)誤更加深入人心。
如果一個(gè)超級(jí)人工智能比如天網(wǎng)想要?dú)缛祟?,它不?huì)使用端著機(jī)槍的機(jī)器人。其實(shí)還有更高效的辦法,如散播瘟疫,引發(fā)納米級(jí)灰霧(grey goo,具備自我復(fù)制能力的微小機(jī)器人)災(zāi)難,甚至僅僅破壞大氣層。人工智能有潛在的危險(xiǎn),不是因?yàn)樗咽镜臋C(jī)器人的未來,而是它在世界上的自我定位。