埃博拉病毒聽起來像噩夢。禽流感和SARS也讓我脊背發(fā)涼。但是我告訴你什么讓我最害怕:人工智能。
如果有足夠的資源,人類能阻止前三項疾病的傳播。但最后一項是由人類所創(chuàng)造,它很快將變得無法阻擋。
在我們探討可能出現(xiàn)什么問題之前,讓我先解釋一下什么是人工智能。實際上不用我解釋。我讓別人來解釋一下。你拿起iPhone,問問Siri天氣和股票情況?;蛘邔λf“我喝醉了”,她的回答就是人工智能的結(jié)果。
現(xiàn)在,這些人工智能機(jī)器非??蓯?、無辜,但是隨著它們在社會上被賦予更多權(quán)力,用不了多久它們就會失控。
一開始只是些小毛病,但是它們意義重大。比如,一臺出現(xiàn)故障的電腦瞬間讓股市崩潰,導(dǎo)致數(shù)十億美元的損失。或者一輛無人駕駛汽車因軟件升級錯誤在高速公路上突然靜止不動。
但是這些騷亂能快速升級,變得非??膳?,甚至變成大災(zāi)難。想像一下,一個最初用來對抗癌癥的醫(yī)用機(jī)器人可能得出這樣的結(jié)論:消滅癌癥的最佳方法是消滅那些從基因角度講易于患病的人。
《超級智能》(Superintelligence)一書的作者尼克·博斯特羅姆(Nick Bostrom)描述了幾種會導(dǎo)致人類滅絕的可怕情況。一種是能自我復(fù)制的納米機(jī)器人。在理想情態(tài)下,這些機(jī)器人能在人體內(nèi)戰(zhàn)勝疾病,或者消除地球上的放射性物質(zhì)。但博斯特羅姆說,“如果有邪惡企圖的人掌握了這種技術(shù),那可能導(dǎo)致地球上智能生命的滅絕。”
人工智能支持者們辯稱,這些事情永遠(yuǎn)都不會發(fā)生,程序員們會設(shè)置一些防護(hù)措施。但是讓我們現(xiàn)實一點(diǎn):程序員們花了近半個世紀(jì)才能讓你在每次想查看郵件時電腦不崩潰。是什么讓他們認(rèn)為自己能夠駕馭這些準(zhǔn)智能機(jī)器人大軍?
不是只有我一個人有這樣的擔(dān)心。硅谷的常駐未來主義者埃隆·馬斯克(Elon Musk)最近說,人工智能“可能比核武器還危險”。斯蒂芬·霍金(Stephen Hawking)是地球上最聰明的人之一。他寫道,成功的人工智能“會是人類歷史上最重大的事件。不幸的是,它也可能會是最后一個大事件”。還有很多計算機(jī)專家和科幻小說作家擔(dān)心未來的世界充滿故障機(jī)器人。
人工智能有兩個主要問題讓馬斯克和霍金等人擔(dān)憂。離我們較近的一個問題是,我們正在創(chuàng)造一些能像人類一樣做決定的機(jī)器人,但這些機(jī)器沒有道德觀念,而且很可能永遠(yuǎn)也不會有。
第二個問題離我們較遠(yuǎn)。那就是,一旦我們創(chuàng)造出和人一樣智能的系統(tǒng),這些智能機(jī)器將能夠建造更智能的機(jī)器,后者通常被稱為超級智能。專家們說,到那時,事情真的會迅速失控,因為機(jī)器的增長和膨脹速度將是迅猛的。我們不可能在自己尚未建立的系統(tǒng)中設(shè)置防護(hù)措施。
“我們?nèi)祟愓瓶匚磥聿皇且驗槲覀兪堑厍蛏献顝?qiáng)壯或最快的生物,而是因為我們是最智能的,”《我們的終極發(fā)明:人工智能和人類時代的終結(jié)》(Our Final Invention: Artificial Intelligence and the End of the Human Era)的作者詹姆斯·巴拉(James Barrat)說,“所以當(dāng)這個星球上有比我們更智能的東西時,它將統(tǒng)治地球。”
更難理解的是,我們并不確切知道超級智能機(jī)器的外形或行為方式。“潛水艇會游泳嗎?會,但它的游泳方式跟魚不同,”巴拉說,“飛機(jī)會飛嗎?會,但它的飛行方式跟鳥不同。人工智能不會跟我們一模一樣,但它將是我們的終極智能版本。”
也許最可怕的是這些技術(shù)將會如何被軍隊利用。不難想像那些正在進(jìn)行軍備競賽的國家會制造能殺人的機(jī)器。
邦妮·多徹蒂(Bonnie Docherty)是哈佛大學(xué)的法律講師,也是人權(quán)觀察組織的高級研究員。她說,人工智能自主武器的軍備競賽正在進(jìn)行,這讓人想起了核武器競賽的初期;在這些機(jī)器人上戰(zhàn)場殺人之前,我們必須先訂好條約。
“如果現(xiàn)在不制止這種技術(shù),它將會導(dǎo)致軍備競賽,”多徹蒂說。她寫過幾個報告,講述殺手機(jī)器人的危險。“如果一個國家在開發(fā)它,那另一個國家也會開發(fā)。這些致命的機(jī)器缺乏道德觀念,不應(yīng)該被賦予殺人權(quán)力。”