馬斯克、蓋茨和霍金關于人工智能威脅的言論引起了廣泛的關注。他們的觀點很重要,但是,恐怕大多數(shù)讀者都誤解了他們。如果我們像1942年阿西莫夫“機器人三大定律“一樣,寄希望于給機器人編程,禁止它們傷害人類,首先我們就要讓機器人能夠理解什么是“人類”,以及什么是“傷害”。機器人并不需要做什么惡毒的行為就可以傷害到人類,一個最簡單的例子就是:它們只要把人類正常含義的指令以一種機械而極端的方式執(zhí)行,就足以帶來一場災難。人工智能真正的威脅不在于機械故障或者對于反人類道德的舉動,而是在于它們智力強大,卻對人類漠不關心。如果我們像以前那樣,依據(jù)它們與人類的相似性來定義人工智能,并假定它們?nèi)膶W⒂谌祟愂聞眨覀兙透用媾R著這方面的風險。
不管想象中的“強人工智能”是否真正會出現(xiàn),如果我們總是堅持一種我們已經(jīng)知道其錯誤的信念,我們將會錯失發(fā)現(xiàn)和理解人工智能的良機。在1950年的那篇文章中,圖靈提到了對他設想的人工智能的很多反駁意見,令人印象深刻的是,他把對人工智能的反對與當年天主教會反對哥白尼天文學相類比。哥白尼的發(fā)現(xiàn)使人們放棄了自己處于宇宙中心,具有絕對優(yōu)越性的錯誤觀點,這種發(fā)現(xiàn)是不可估量的巨大成就。這使得人類更清醒地認識世界,把世界實際的狀態(tài),而不是從我們這個角度能夠觀察到的狀態(tài),作為思想的基矗圖靈把這些反駁意見作為“神學的反對意見”。另一方面,也會有人說,不管圖靈測試有多么悠久,把類人智能作為人工智能的先決條件,也同樣與“前哥白尼時代”的人類中心主義無異。先進的、不像人類的人工智能的到來,可能會帶來一場新的覺醒,使我們對于我們自身、我們所處的環(huán)境、以及什么是真正的“智能”有更為清醒的認識。這樣我們建立的世界模型就更加接近世界真實的樣子,我們對于未來也會更有信心,這總是一件好的事情。
最后,這種想法延續(xù)了過去人類與技術的關系,這種關系已經(jīng)把我們帶到了“第六次物種大滅絕”的邊緣。按理說,人類中心主義本身并不是來自走向瘋狂的技術,而更多地是由于人文主義的遺產(chǎn),使得我們總是幻想世界是按我們?nèi)祟惖脑O想,依人類的需要而建立的。這些幻想常常能從現(xiàn)代的意見領袖口中聽到,他們向大家布道,勾勒了一個美好的世界,在那里機器是為人的需要和愿望而服務的。如果你真的這樣認為,就上網(wǎng)查一下“殺豬機器人”(不要真的這樣做),然后我們再來談談一個機器完全服從于人的需要的世界是什么樣的。
有人或許在想,我們?nèi)祟惿鐣步?jīng)歷了從奴隸制度、神權(quán)制度到法制社會,所以即便到了2015 年,對機器來說又何嘗不可?這種情緒(更精確地說,是這種技術哲學)本質(zhì)上就是帶來人類中心主義困境的原因,如果繼續(xù)堅持這種觀點,我們也很難順利走向人工智能。人類如果繼續(xù)堅持這種妄自尊大的習俗,未來將會付出過于高昂的代價?,F(xiàn)在,到了我們改變的時候了。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!