
Isaac Asimov的“機器人控制三定律”只能是科幻元素,要解決人工智能控制問題,我們不能只靠理論或幻想。
但是,這些解決方案要么太簡單,(比如嘗試將人類喜好的整個的復雜性用精巧的語言來定義),要么包羅人類所有的復雜到簡單的單詞、詞組或思想。舉個例子來說,試圖給出一個連貫的、可操作的定義“尊重”一次,是非常困難的。
“這并不是說,這種簡單的技巧是無用的,許多此類建議揭示了好的研究途徑,而且有助于解決最終的問題,”阿姆斯特朗說。 “但是,在沒有大量工作來發(fā)展和探索這些技巧之前,我們不能完全信賴它們。”
誤解六:"我們將被超人工智能毀滅。"

現(xiàn)實:現(xiàn)在還沒有證據(jù)保證人工智能會毀滅我們,或者我們將來一定沒有辦法來控制它。正如人工智能理論家Eliezer Yudkowsky所說:“人工智能不恨你,也不愛你,但你是由可以用做別的東西的原子組成的”。
他的書《超級智能》中寫道:路徑,危險,策略,牛津大學哲學家Nick Bostrom寫道,真正的超級智能人工一旦實現(xiàn),可能會造成比以往人類任何發(fā)明更大的風險。著名思想家Elon Musk,比爾·蓋茨和斯蒂芬·霍金(霍金警告說,人工智能可能是我們“歷史上最嚴重的錯誤”)也同樣警告這一點。
Mclntyre說,對于超級人工智能可以實現(xiàn)的大多數(shù)目標,有很好的理由讓人類退出這些過程。
“一個人工智能或許能夠非常準確地預測,我們不希望犧牲消費者、環(huán)境和非人類動物的利益為代價,來給某個公司帶來最大化的利潤,”McIntyre說。 “因此,它會有強烈的動機以確保自己不被中斷或干擾,包括被關(guān)閉,或其目標被改變,因為這樣這些目標將無法實現(xiàn)。”
除非ASI的目標精確地反映我們自己的目標,McIntyre表示,它將有很好的理由不讓我們停止它的操作。并且由于它的智力水平大大超過了我們自己的,我們并不能做些什么(來阻止它)。
但萬事無絕對,也沒有人可以肯定人工智能會采取何種形式,以及它如何可能危及人類。Musk指出,人工智能實際上可以用于控制、調(diào)節(jié)和監(jiān)控其他人工智能。或者,它可能被灌輸人類價值,以及強制要求友好對待人類。
誤解七:“超人工智能會很友好。”

現(xiàn)實:哲學家Immanuel Kant相信智能與道德密切相關(guān)。神經(jīng)學家David Chalmers也在他自己的論文“The Singularity: A Philosophical Analysis(奇點:從哲學角度分析)”中采用了Kant這一著名的觀點,并將其用在了解釋超人工智能的崛起之中。
如果這是正確的,那我們可以預測“智能爆炸”將會同時引發(fā)一場“道德爆炸”。我們還可以預測由此產(chǎn)生的超人工智能系統(tǒng)將會在超智能的同時也是超道德的,因此我們大概可以推測這是良性的。
但是認為先進的人工智能會是開明并且天生就好的觀點是站不住腳的。正如Armstrong所指出的,有許多戰(zhàn)犯都是很聰明的。智力與道德之間的聯(lián)系好像并不存在于人類身上,因此他對這一聯(lián)系存在于其他智能形式的假設提出了質(zhì)疑。
他說:“行為不道德的聰明人可能會給他愚蠢的同胞們帶來更大規(guī)模的傷害。智力恰好賦予了他們更聰明地做壞事的能力,而并不會使他們變好。”
正如McIntyre所解釋的,一個代理達成目標的能力并不取決于這個目標一開始是否聰明。他說:“如果我們的人工智能具有獨一無二的在變聰明的同時會變得更加道德的能力,那我們是非常幸運的。但是,單純依靠運氣面對某些可能會決定我們未來的東西,并不是很好的策略。”
誤解八:“來自人工智能的危險和機器人是一回事。”
