自我訓練能讓人工智能實現(xiàn)人工智能理論家所謂的“智能爆炸”(intelligence explosion)。智能爆炸之后,越發(fā)聰明的機器開始以非凡的速度進行自我學習和訓練,從而在一瞬間變得比人類更加聰慧。提出這個想法的理論家并沒有把實現(xiàn)智能爆炸之后的機器人認定成康德思路下的理性道德主體。他們更傾向于將機器人當作問題解決者:機器人的數(shù)字化大腦能夠完成涉及復雜邏輯的大規(guī)模計算,而這是人類大腦所不具備的能力。假如你是支持天賦派的倫理學者,道德在你眼中只是符合宏觀標準的小心謹慎。因為智能機器人能夠更好的解決極其復雜的數(shù)學問題,所以你推測它們也許最終也能更好的解決道德問題。一旦智能爆炸開始,機器就有超越我們的可能。雖然我們不能真正了解道德的真理究竟是什么,但智能機器人卻可以做到。
所以這樣一來,懂倫理道德的機器人便能突破人類局限。但仔細想來,這種幫助機器超越人類的方式會衍生其他問題。第一個問題:機器人如何才能學會道德標準?道德可不是圍棋。圍棋這樣的棋類游戲由規(guī)則組成,而這些規(guī)則的數(shù)量是有限的。如此一來,我們可以用清晰的標準衡量出究竟哪一方最終取勝。對于道德來說,事情就沒有這么簡單了。根據天賦派的觀點和理論,世間也有很多規(guī)范限制行動的客觀道德標準。學會了這些在客觀上正確的標準后,機器自然就取得“勝利”。但問題是我們并不知道這些標準和規(guī)則具體是什么,因為人類本來就是存在道德缺陷的生物。如果我們能夠清楚地知道什么是客觀上正確的道德標準,我們也就不需要利用超級智能機器人來幫我們尋找答案了。
也許我們可以為機器人設置道德學習的“初始參數(shù)”,比如不得漫無目的隨意傷害有感情和意識的生物。接下來就要靠機器完成自我學習和訓練。如果智能機器人非常理性和善于推理,它們便能超越人類局限而實現(xiàn)更高水平的道德狀態(tài)。但這又引發(fā)了第二個問題:一旦不斷發(fā)展進化中的人工智能偏離了我們認為道德正確的軌道,我們要如何應對?實際上,這個假設的前提是必然會發(fā)生的,否則我們也就不會期望機器能夠超越人類道德局限而實現(xiàn)突破??墒菃栴}在于,我們無法理解先進的機器人所做出的道德選擇。要知道,即便是 AlphaGo 的創(chuàng)造者也不知道它為什么要在第 37 手走出那樣的一步棋。AlphaGo 的創(chuàng)造者是幸運的,因為圍棋有著明確的判斷標準。通過這些標準,我們知道 AlphaGo 下出了很多好棋。因為連續(xù)戰(zhàn)勝世界頂級棋手李世石,所以我們知道 AlphaGo 走出的是好棋。但是,我們又如何能判斷出人工智能那些看上去荒誕不經的道德選擇是正確的?我們如何知道它是否已經嚴重偏離了道德的軌道?一旦機器開始像“英雄”一般棄車保帥,選擇淹死我們的孩子來拯救前方馬路上的其他孩子,我們又該如何應對?
智能機器人的確有可能知道什么樣的行為在道德上是正確的。這里所說的道德正確,指的是從宏觀角度分析得出的客觀結論??杉幢闳绱?,智能機器人也無法順利的向我們解釋清楚它們的理解,因為人類的大腦存在局限性。也許從宏觀角度來看,保護嬰兒和沙發(fā)都具有道德上的重要意義。另一方面,智能機器人也可能在自我學習和訓練過程中走向道德災難。從解決數(shù)學問題這個層面看,智能機器人的確比人類聰明許多。但這種高級的智慧可能并不足以幫他們建立正確的道德觀。智能機器人最終可能形成殘忍無情的簡單邏輯,對世間萬物沒有憐憫和照顧,只是想無情的傷害一切。
圖片來自 Flickr
看上去,事情最終有兩種潛在結局:機器人要么擁有比我們更完美優(yōu)秀的道德觀,要么擁有比我們更糟糕失敗的道德觀。但是問題的關鍵在于我們無法區(qū)分這兩種局面。而且如果從人類的角度出發(fā)看待機器人,不出意外我們會認為它們正在逐漸走向錯誤的終點。機器人可能會選擇保護我們認為毫無價值的東西,也可能會選擇犧牲我們心中的無價之寶(比如坐在機器人車中的孩子)。如果我們有能力終止機器人的行為,那人類幾乎一定會選擇這樣做。
這就是為什么天賦派的觀點不能幫我們解決機器人道德觀的問題。如果世間真的存在超越人類理解能力的客觀道德準則,我們最終也不會愿意讓機器人成功領悟。機器人行事的風格偏離人類社會道德標準越遠,我們就越難認為它們是在做正確的事情,也就越難理解它們的一舉一動。我們不會允許機器人比人類優(yōu)秀太多,因為我們不能接受機器人與人類差異巨大這樣的局面。