《西部世界》式的AI會有多危險?
科技訊3月7日消息,《西部世界》(Westworld)級別的人工智能會有多危險呢?國外媒體Futurism撰文稱,該電視劇探討了有關(guān)人工智能倫理和意識的一些哲學(xué)問題,雖然現(xiàn)實中不大可能會出現(xiàn)劇中那樣的血腥場景,但我們最好還是要好好對待我們的AI機器人。
以下是文章主要內(nèi)容:
“這些殘暴的歡愉,終將以殘暴結(jié)局。”
在莎士比亞和邁克爾·克萊頓(Michael Crichton)的助力下,HBO的《西部世界》(Westworld)揭示了打造先進的人工智能技術(shù)會帶來的一些隱憂。
在《西部世界》里,外表跟人沒什么兩樣的AI居住于一個看似美國西部的園區(qū)。游客只要花大筆的錢就能前往園區(qū),進行老式的西部冒險活動。期間,他們可以隨意跟AI打斗,也可以奸淫殺害AI。游客的槍支能傷害AI,但后者的則傷害不了游客。每一次有機器人“死掉”,它的身體就會被回收清理,擦除記憶,然后再被送回園區(qū)。
《西部世界》中的AI安全問題
《西部世界》的創(chuàng)作靈感來自克萊頓以前的一部同名電影,它讓我們不禁思考我們將能夠在多大程度上掌控先進的科學(xué)創(chuàng)造物。但與最初的電影不同,《西部世界》電視劇里的機器人并不是無惡不作的反派角色,而是被描寫成富有同情心、甚至很有人性的角色。
不出意外的是,該園區(qū)的安全隱憂很快就浮現(xiàn)。園區(qū)由一位老人負責(zé)打理,他能夠隨意給機器人升級程序,不經(jīng)過其他人的安全檢查。那些機器人出現(xiàn)回憶起被虐待的跡象。當(dāng)中有個角色提到,只有一行代碼能夠阻止機器人傷害人類。
該節(jié)目只是談到了會帶來AI安全隱憂的一部分問題:一個“有惡意的機器人”利用先進的AI蓄意傷害人類;軟件小小的故障可帶來致命影響;在代碼層面對人類的保護不足。
不過,該節(jié)目揭示的很多安全和倫理道德問題都取決于機器人是否有意識。事實上,該電視劇在非常認真地探究一個非常困難的問題:什么是意識?除此之外,人類能夠創(chuàng)造出有意識的東西嗎?如果能的話,我們能控制它呢?我們是否想要找出這些問題的答案?
為了思考這些問題,筆者采訪了喬治亞理工大學(xué)AI研究員馬克·里德爾(Mark Riedl)和紐約大學(xué)哲學(xué)家大衛(wèi)·查爾莫斯(David Chalmers)。里德爾致力于研究打造創(chuàng)造性的AI,查爾莫斯則以其“意識難題”闡述而著稱。
AI能感受到疼痛嗎?
被問到進行了相關(guān)編程的機器人會在多大程度上感受到疼痛時,里德爾說道,“首先,我反對對人類、動物、人形機器人或者AI實施暴力行為。”他接著解釋道,對于人類和動物來說,感覺到的疼痛是一種“避開特定刺激”的警報信號。
然而,對于機器人來說,“最接近的類比可能是強化學(xué)習(xí)的機器人會碰到的體驗,這類機器人需要進行試錯學(xué)習(xí)。”這種AI在進行某種行動后會收到或正面或負面的反饋,然后它會相應(yīng)調(diào)整它未來的行為。里德爾說,那種負面的反饋會更“類似于在計算機游戲中輸?shù)舴謹?shù)”,而不是感覺到疼痛。
“機器人和AI可以通過編程來像人類那樣‘表達’疼痛,”里德爾說道,“但那種疼痛會是一種幻覺。制造這種幻覺是有理由的:讓機器人能夠以一種很容易得到理解和引起共鳴的方式向人類表達自己的內(nèi)心狀態(tài)。”
里德爾并不擔(dān)心AI會感受到疼痛的問題。他還說,如果機器人的記憶每晚都被完全擦除,它會感覺什么都沒發(fā)生過一樣。然而,他指出了一個潛在的安全問題。強化學(xué)習(xí)要能夠正常運作,AI需要采取因正面反饋而優(yōu)化的行動。如果機器人的記憶沒有被完全擦除——如果機器人開始記起曾發(fā)生在自己身上的糟糕經(jīng)歷——那它可能會試圖規(guī)避那些觸發(fā)負面反饋的行動或者人。
里德爾說,“理論上,這些機器人能夠?qū)W習(xí)預(yù)先計劃以最合算的方式降低獲得負面反饋的可能性……如果機器人除了知道獲得正面反饋還是負面反饋之外,并不清楚自己的行動會帶來的影響,那這也可能意味著它們會提前行動來防止遭到人類的傷害。”