機器人的思考方式讓我們不得不思考一個古老哲學難題的核心關(guān)鍵所在——道德的本質(zhì)究竟是什么?
雷吉納·里妮(Regina Rini)是紐約大學生物倫理學中心(New York University Center for Bioethics)的助理教授和研究員。她還是紐約大學人口健康系(NYU Department of Population Health)醫(yī)學倫理學部門的名譽教工。
本文由AEON授權(quán)《好奇心日報》發(fā)布,你可以在Twitter上關(guān)注他們。
很早之前,人類就開始暢想制造智能機器。但是這么久以來,這也只是人類的一個夢想而已,從未成為現(xiàn)實。如今,智能機器的時代終于就要來臨。智能程度足夠高的機器人可以脫離人類控制,獨立自主的完成各項工作。同時,它們具備真正獨立做出抉擇的能力。如果機器人擁有了抉擇的能力,那么它們能否做出符合道德標準的抉擇呢?而且,機器人的道德準則又應(yīng)該是什么樣的?是與人類社會的道德標準一樣嗎?
哲學家和計算機科學家都表示,讓缺乏想象力的機器人按照復雜微妙的人類社會道德標準行事非常困難。他們在不斷努力,想要克服這個難題。但是,我們要解決的還有另外一個問題。而且,這個問題的優(yōu)先級應(yīng)該更高才對——我們究竟是否應(yīng)該將人類的道德標準強加給智能機器人?實際上,我覺得這樣做會產(chǎn)生適得其反的效果。而且往大里說,這甚至可以稱得上是一種不道德的行為。機器人道德準則領(lǐng)域的核心問題不是機器人,而是我們。我們能不能與一種遵循全新類型道德規(guī)范的造物很好的共同生活在這個世界上?
在我們的想象中,未來的人工智能(AI)將與人類非常相似。這是因為人類是我們已知的唯一一種擁有高級智慧的生物。但是,我們的想象卻可能是錯誤的。如果人工智能在未來真的問世,它可能與人類截然相反。它可能無法理解我們行事的方式,而我們也很難理解它做出抉擇的邏輯。
圖片來自 Pixabay
圍棋是一種古老的策略性棋類游戲,而李世石(Lee Sedol)則是世界頂級圍棋選手。2016年,一款電腦程序向李世石發(fā)起挑戰(zhàn)。這款由 Google 研發(fā)的程序名叫 AlphaGo,是一種比較“原始”的人工智能。通過它,我們可以一睹未來人工智能的模樣。在第二回合對弈過程中,AlphaGo 在第37手用一個尖沖讓世界上所有的圍棋專家目瞪口呆。有的人覺得這是一個失誤。面對這一手怪棋,李世石也不知所措。他起身離開桌子,離開了對弈的房間。沒有人能夠完全理解 AlphaGo 這一手棋的目的所在,因為任何頂尖圍棋選手都不會選擇這樣的對弈策略。但是,這一手怪棋效果拔群。與第一回合一樣,AlphaGo 最終順利拿下第二回合。此后,AlphaGo 又成功在第三回合擊敗李世石。在這場五回合的圍棋比賽中,李世石最終僅僅贏下了一局。
AlphaGo 精通圍棋。不過,它對圍棋的理解與人類頂尖棋手有所不同。即便是它的創(chuàng)造者也不能解釋清 AlphaGo 在每一局比賽中究竟是如何選擇對弈策略的。假如你能與 AlphaGo 展開對話,而你問它為何要在第37 手選擇那樣一步奇怪的這走法。它能夠向你或者其他頂級圍棋選手解釋得清嗎?也許能。面對相似的任務(wù),人工智能的思維方式不需要與我們的思維方式完全一致。即便思路不同,它們依舊能夠很好的完成任務(wù)。
我們也許會發(fā)現(xiàn)智能機器人不止在理解圍棋這件事上與我們不同。實際上,它們對世界萬物的理解都與我們有所區(qū)別。在恐怖的科幻作品里,機器人會發(fā)生暴動,然后瘋狂的屠戮人類。你不需要為此擔心。在未來,故事的劇本也許會是這樣:機器人對人類、其他機器人、大部分動物以及沙發(fā)產(chǎn)生了道德關(guān)懷。就像我們因為害怕傷害嬰兒而行動小心謹慎一樣,機器人也會因為害怕傷害沙發(fā)而小心翼翼。我們大概會問機器人:“你們?yōu)槭裁催@么關(guān)心照顧沙發(fā)?”它們的解釋也許完全令人無法理解。是的,AlphaGo 對自己第 37 手落子的解釋也可能讓我們云里霧里,絲毫無法從中找到頭緒。