編者按:我們對人工智能未來的期待充滿了不確定性?;艚鹫J為,AI的進化速度會比人類更快,而它們的終極目標是不可預(yù)測的。所以人類需要確保人工智能的設(shè)計符合道德倫理規(guī)范,保障措施到位。微軟CEO Satya Nadella對此的看法相同,他認為人類在AI 方面必須展開更深入的協(xié)調(diào)和協(xié)作,就設(shè)計的倫理和移情框架達成一致。為此他提出了人工智能需要遵循的六大原則,以及未來人類要想不被時代拋棄需要堅持和發(fā)展的四個東西。Nadella 認為,未來的 AI 世界人和機器的關(guān)系不是非此即彼,而應(yīng)該是人機攜手,共創(chuàng)未來。
相對于有關(guān)計算機在 Jeopardy!(智力競賽)、國際象棋、跳棋、圍棋比賽中擊敗人類的新聞頭條的令人心神不安,先進機器學(xué)習(xí),亦即所謂的人工智能或者 AI 的前途要比這有希望得多。最終人類和機器將會一起工作—而不是互相對抗。計算機也許會在游戲中獲勝,但不妨想象一下人機攜手解決戰(zhàn)勝疾病愚昧以及貧困等社會最大挑戰(zhàn)的可能性。
不過要想做到這一點需要有勇氣和雄心,這不是當前技術(shù)的漸進式改良所能及的?,F(xiàn)在是在 AI 方面展開更深入?yún)f(xié)調(diào)和協(xié)作的時候了。
今年早些時候,在跟 Saqib Shaikh 同臺的時候我得以窺見了這樣的未來。Saqib 是一名微軟工程師,他開發(fā)出了技術(shù)來幫助補償自己早年喪失的視力。通過利用包括視覺識別以及先進機器學(xué)習(xí)在內(nèi)的一系列先進技術(shù),Saqib 和他的同事開發(fā)出了可以在他佩戴的太陽鏡內(nèi)嵌的小型計算機上運行的應(yīng)用。這種技術(shù)可以消除歧義并且實時對數(shù)據(jù)進行解析。實際上,技術(shù)是在用聲音而不是眼睛替他描繪了一幅世界的畫面。他對世界的感受方式更加豐富了,比如說他可以把街頭發(fā)出的噪音跟玩滑板的人聯(lián)系在一起,或者從會議當中突然陷入的沉默聯(lián)想到同事腦子里的東西。當技術(shù)在他耳邊喃喃細語時他可以閱讀 “菜單”。不過對他來說最重要的,也許是他在公園野餐的喧鬧中找到了他的愛人。
人機攜手之美已經(jīng)在 AI 是好還是壞的討論中迷失。我們對 AI 的看法似乎已經(jīng)陷入到兩種聲音之間:一種是科幻片《2001太空漫游》里面 HAL 令人不安的環(huán)境音,一種是今天的 Cortana、Siri 以及 Alexa 等個人數(shù)字助手友善的提示聲。我們可以在機器開車送我們、替我們干雜活、幫助我們做出更好決策的時候做著如何利用空閑時間的白日夢,或者杞人憂天于本世紀末機器人會誘發(fā)大規(guī)模的經(jīng)濟失控。視你聽到的說法不同,所謂的 “奇點”,也即計算機智能超越人類智能的時刻,可能會在2100年 到來,也可能只是科幻小說的素材。
在我看來,最具建設(shè)性的討論未必是 AI 的正邪之爭:爭論的焦點應(yīng)該放在該技術(shù)給人和創(chuàng)造者帶來的價值上面。在《與機器人共舞(Machines of Loving Grace)》一書中,John Markoff 寫道:“回答充斥著智能機器的世界的控制這個難題的最好辦法,是理解創(chuàng)造這些系統(tǒng)的人的價值。” 這是一個有趣的問題,必須由整個行業(yè)一起討論和回答。
今年早些時候,我在一場開發(fā)者會議上分享了我們對 AI 的看法。首先我們希望開發(fā)能夠增強人類能力和體驗的智能。最終這不會是人類 vs 機器。我們?nèi)祟愑袆?chuàng)造力、同理心、情感、肉體性以及洞察力,這些東西可以跟強大的 AI 糅合到一起。計算,也即通過大規(guī)模數(shù)據(jù)獲得理性以及更快進行模式識別的能力,可以幫助推動社會前進。其次,我們還必須把信任直接建立到技術(shù)里面。我們必須針對隱私、透明和安全給技術(shù)增加防護。AI 設(shè)備必須設(shè)計用于檢測新威脅,并且隨著 AI 的演變來設(shè)計出相應(yīng)的防護。第三,我們開發(fā)的所有技術(shù)都必須包容所有人、尊重所有人。
這只是開始,我們還可以走得更遠。
技術(shù)界不應(yīng)該決定這一未來的價值觀和美德。
科幻小說家阿西莫夫也給出了一個很好的起點,盡管還不夠充分:他在 1940年 代提出了 “機器人三原則” 作為故事當中機器人的倫理守則。阿西莫夫定律是層次化的,即第一原則高于第二原則,第二原則高于第三原則。第一原則是機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;第二原則是機器人必須服從人類的命令,除非這條命令與第一條相矛盾;第三原則是機器人必須保護自己,除非這種保護與以上兩條相矛盾。盡管阿西莫夫定律作為策略而言比較方便且具有啟發(fā)性,但是并沒有提供研究人員和技術(shù)公司可以遵循的價值觀或者設(shè)計原則,也沒有告訴社會當 AI 和機器學(xué)習(xí)對經(jīng)濟越來越多的構(gòu)成產(chǎn)生推動時,人類必須帶入這下一個時代的能力是什么。