容易被改造和利用
不妨想象一下:一個正在崛起的的暴君,決心辣手摧毀反對派,他擁有一個數(shù)據(jù)庫,知道每個人對他的忠誠度高低,以及地址和照片。在以前,暴君需要一支軍隊來完成這個任務(wù),而還需要賄賂士兵,或者給他們洗腦,才能讓他們槍殺無辜者。
而以后,暴君只需要花上幾千美元,購買一些搭載自動槍械的無人機,就可以如愿以償了。依照摩爾定律(自從晶體管的發(fā)明以來,1美元成本的計算能力是呈指數(shù)級增長的),人工智能無人機的價格某一天會降到和一支AK-47差不多。給四個軟件工程師洗洗腦,其中就有三個有能力給無人機重新編程,讓它們前去附近異見者的住處和工作場所,當場射殺他們。無人機犯錯誤的可能性更小一些,而且也不需要賄賂或者洗腦,最重要的,它們的工作效率比人類士兵高得多。在國際社會還沒有來得及做出任何反應(yīng)之前,野心勃勃的暴君就已經(jīng)血洗了反對派陣營。
自動化大幅提高了效率,因此對于任何想要犯下這種暴行的瘋子來說,人工智能武器的門檻也降低了。當年的獨裁者需要動用一整支軍隊才能做到的事情,現(xiàn)在只要有點錢的人就能辦到了。
有興趣研發(fā)這種武器的制造商和政府可能會聲稱,他們可以提供出色的保障措施,以確保這些機器不能被重新編程,不會遭到黑客攻擊。對于這種說法,我們最好是保持懷疑態(tài)度。電子投票機、自動取款機、藍光光盤播放機,甚至飛馳在高速公路上的汽車,盡管都曾標榜自己有很高的安全性,最近卻都已被黑客攻破。歷史事實已經(jīng)證明,在計算設(shè)備和試圖改變其利用方式的黑客之間,贏家往往是黑客。人工智能武器不可能會是例外。
禁用人工智能武器
1925年簽訂的國際條約禁止在戰(zhàn)爭中使用化學(xué)武器和生物武器。而中空彈(Hollow Point Bullet)早在1899年就被禁用,因為這些武器會導(dǎo)致極大的、不必要的痛苦。它們特別容易導(dǎo)致平民傷亡。比如公眾可能會吸入毒氣,醫(yī)生在嘗試取出中空彈時可能會受傷。這些武器很容易給無辜者造成痛苦和死亡,所以它們遭到了禁用。
是否有某種類型的人工智能機器同樣也應(yīng)該被禁用呢?答案是肯定的。如果一種人工智能機器可以很便宜、很容易地改造成高效的無差別大殺器,那么我們就應(yīng)該制定禁止它的國際公約。這樣的機器與放射性金屬在本質(zhì)上沒有什么不同。它們都可以和平利用,造福人類。但是我們必須小心翼翼地對它們加以管控,因為它們很容易被改造成毀滅性武器。不同的是,對人工智能機器進行改造,將其用于破壞性目的,遠比把核電站的反應(yīng)堆改成核武容易得多。
我們應(yīng)該禁止人工智能武器,這不是因為它們?nèi)季哂胁坏赖碌膶傩?,而是因為人們可以利用在網(wǎng)上找到的資料,把人工智能武器改裝成“猙獰的嗜血怪物”。只需一段簡單的代碼,就可以把很多人工智能武器轉(zhuǎn)變成不亞于化學(xué)武器、生物武器和空心彈的殺人機器。(Kathy)
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!