智能武器的危險(xiǎn)之處在于,軟件工程師可以很輕松地給它重新編程,使其成為濫殺無(wú)辜的機(jī)器。
最近一段時(shí)間,很多知名人士都對(duì)人工智能武器表示了抵制,但他們給出的原因卻比較偏頗,認(rèn)為機(jī)器人有朝一日將會(huì)控制人類。這種說(shuō)法其實(shí)并不合理,至少在短期內(nèi)不合理。但是,人工智能武器所蘊(yùn)含的危險(xiǎn),也確實(shí)不是那種常規(guī)的、由人類操控的武器可以比擬的。因此要求禁止人工智能武器的呼吁,也理應(yīng)獲得大家的聲援。
迫在眉睫的危險(xiǎn)
從谷歌無(wú)人駕駛汽車的身上,我們可以一瞥人工智能的未來(lái)。現(xiàn)在你試想一下:一個(gè)兇惡的黑社會(huì)團(tuán)伙偷走了一輛這樣的車,在其頂端加裝了一門(mén)火炮,然后給車輛重新編程,把炮口對(duì)準(zhǔn)公眾。如此一來(lái),它就成為了一件人工智能武器。
各國(guó)政府的眼睛是雪亮的,當(dāng)然不會(huì)看不到這種武器的潛力。美國(guó)海軍今年宣布計(jì)劃開(kāi)發(fā)無(wú)人機(jī)武器,而韓國(guó)的Super aEgis II自動(dòng)炮塔,俄羅斯的Platform-M 戰(zhàn)斗機(jī)器也雙雙亮相。
但人工智能武器不會(huì)是政府的獨(dú)家秘制?,F(xiàn)在人人都可以買(mǎi)得到搭載GoPro 相機(jī)的四軸無(wú)人飛行器?,F(xiàn)在想象一下,有人開(kāi)發(fā)了一個(gè)簡(jiǎn)單的軟件,可以讓它自動(dòng)飛行。而那個(gè)邪惡的黑社會(huì)組織,就是可以把無(wú)人駕駛汽車改裝成武器的犯罪團(tuán)伙,當(dāng)然也可以把槍支搭載在無(wú)人機(jī)上面,給它重新編程,然后讓它飛到擁擠的公共場(chǎng)所去殺人。
這就是人工智能武器近在眼前的危險(xiǎn),:它們很容易被人利用,改裝成濫殺無(wú)辜的機(jī)器,其危害性遠(yuǎn)遠(yuǎn)超過(guò)了同樣的、但需要有人操作的武器。
機(jī)器本身并不可怕
斯蒂芬霍金、宇宙學(xué)家馬克斯特格馬克以及伊隆馬斯克和其他很多人都簽署了“未來(lái)生活”(Future of Life)請(qǐng)?jiān)笗?shū),要求禁止制造使用人工智能武器。今年1月,馬斯克捐款 1000萬(wàn)美元給發(fā)起該請(qǐng)?jiān)傅臋C(jī)構(gòu)。4月份,聯(lián)合國(guó)召開(kāi)了“殺手機(jī)器人”會(huì)議,不過(guò)沒(méi)有產(chǎn)生任何具有持久性的政策決定。“未來(lái)生活”請(qǐng)?jiān)感胖赋?,人工智能武器的危險(xiǎn)非常具體,不出幾年就有可能導(dǎo)致災(zāi)難,需要馬上采取行動(dòng)來(lái)加以避免??上У氖牵](méi)有明確指出,有哪些人工智能武器已經(jīng)出現(xiàn)在了地平線上。
很多人擔(dān)心會(huì)出現(xiàn)“終結(jié)者”那樣的世界末日?qǐng)鼍埃簷C(jī)器人具有了像人類一樣的能力,能夠完全依靠自己與世界交互,而且這些機(jī)器人試圖征服世界。
物理學(xué)家、皇家天文學(xué)家馬丁里斯爵士就警告說(shuō),災(zāi)難性的場(chǎng)景,比如“愚蠢的機(jī)器人不按指令行事,或一個(gè)網(wǎng)絡(luò)自己有了主見(jiàn)。”他在劍橋的同事、哲學(xué)家休普萊斯也表達(dá)了類似的擔(dān)憂,覺(jué)得當(dāng)智能“不受生物學(xué)限制”時(shí),人類可能無(wú)法生存。在兩人的推動(dòng)下,劍橋大學(xué)組建了生存風(fēng)險(xiǎn)中心(Centre for the Study of Existential Risk),以圖避免人類的生存遭受如此巨大的威脅。
這些問(wèn)題當(dāng)然很值得研究。但是,它們遠(yuǎn)不如人工智能武器問(wèn)題那么迫在眉睫。
我們很快就能開(kāi)發(fā)出類似于人類的人工智能了嗎?幾乎所有的標(biāo)準(zhǔn)答案都是:不是很快。很多媒體都說(shuō),雷丁大學(xué)的聊天機(jī)器人尤金古斯特曼(Eugene Goostman)是真正的人工智能,因?yàn)樗娴淖屢恍┤艘詾樗且粋€(gè)13歲的男孩。但是,聊天機(jī)器人和真正的“像人類一樣的智能”還差多遠(yuǎn)呢?計(jì)算機(jī)科學(xué)家斯科特阿倫森(Scott Aaronson)的第一個(gè)問(wèn)題就把尤金難住了:“是鞋盒大呢,還是珠穆朗瑪峰大?”
盡管這樣,還是有很多人都在“未來(lái)生活”請(qǐng)?jiān)感派虾灹嗣?,明確表示要抵制人工智能武器。原因在于:與擁有自我意識(shí)的計(jì)算機(jī)網(wǎng)絡(luò)不同,在無(wú)人駕駛汽車上架機(jī)槍現(xiàn)在就可能出現(xiàn)。
人工智能武器的問(wèn)題,不在于它們將會(huì)控制世界,而在于它們非常容易被重新編程,因此任何人都能夠以低得驚人的預(yù)算,制作出一臺(tái)濫殺無(wú)辜的高效機(jī)器??膳碌牟皇菣C(jī)器本身,而是黑客可以用比較適中的價(jià)格,用它們來(lái)做什么樣的事情。