黃鑫
關(guān)心AI圈的人一定都知道,谷歌是一家在AI領(lǐng)域投入和應(yīng)用非常廣泛和龐大的科技公司,對(duì)于AI的研究也一直處于世界水平的前列。作為領(lǐng)域的領(lǐng)軍公司之一,谷歌自然要扛起前瞻性研發(fā)的公司,所以在很多人還對(duì)深度學(xué)習(xí)一頭霧水的時(shí)候,谷歌已經(jīng)開始研究如何避免AI傷害到人類了。
防范措施的全方位研究
前段時(shí)間,谷歌就發(fā)布了一篇論文,詳細(xì)的描寫了一種用于AI的緊急停止開關(guān)的運(yùn)作原理和實(shí)現(xiàn)機(jī)制,但是這樣僅僅的一種事后應(yīng)對(duì)措施顯然是無法平復(fù)人們(包括谷歌)的擔(dān)心的,因此,另一項(xiàng)研究也在同時(shí)進(jìn)行,并在前者發(fā)布不久之后發(fā)布,這項(xiàng)研究多是從基礎(chǔ)理論出發(fā)。從根源上提出了幾種防止AI對(duì)人類的利益產(chǎn)生損害的方式,雷鋒網(wǎng)(搜索“雷鋒網(wǎng)”公眾號(hào)關(guān)注)分上下兩部分翻譯了論文的全文,點(diǎn)擊鏈接:上、下——從事先預(yù)防到事后應(yīng)急。簡(jiǎn)直已經(jīng)形成了一套完美的理論。
但是這確實(shí)證明了AI確實(shí)已經(jīng)強(qiáng)大到了足以威脅到我們的地步了嗎?Elon Musk、霍金等AI警惕論者是不是應(yīng)該為自己的遠(yuǎn)見歡呼雀躍?事實(shí)上恰恰相反。在仔細(xì)分析了谷歌的安全機(jī)制論文后,我們恰恰認(rèn)為這篇論文反而體現(xiàn)了目前的AI仍然處在遠(yuǎn)遠(yuǎn)無法對(duì)人類這個(gè)整體產(chǎn)生威脅的程度。
如同Mobileye的Amnon Shashua說的那樣,深度學(xué)習(xí)目前只能用來解決人類已知并且能非常精確的描述出來的問題。與深度學(xué)習(xí)師出同門的增強(qiáng)學(xué)習(xí)(Reinforcement learning,RL)自然也是一樣。在目前典型的RL學(xué)習(xí)范例中,如果要讓一個(gè)機(jī)器人很好的完成一項(xiàng)任務(wù),人類必須把這項(xiàng)任務(wù)的所有細(xì)節(jié)量化成機(jī)器可以理解的形式,然后輸入RL的模型,再讓機(jī)器經(jīng)過無數(shù)次的模擬和實(shí)驗(yàn),才可能得出一套行之有效的方案。
這種形式導(dǎo)致的一項(xiàng)后果就是:增強(qiáng)學(xué)習(xí)的“代理”(也就是機(jī)器人)的概念中,除了完成任務(wù)獲取最大化的獎(jiǎng)勵(lì)之外不會(huì)有任何概念。在某些時(shí)候,心無旁騖是件好事,但是這卻導(dǎo)致了代理在完成任務(wù)的過程中會(huì)出現(xiàn)很多意想不到的問題,而這才是目前谷歌主要想要應(yīng)對(duì)的問題,而不是起邪念的機(jī)器人想要?dú)缡澜纾蛘吒陕锏?。就連谷歌自己都在論文中說:
目前,很多此類討論圍繞極端情景,例如在超智能代理(也就是超級(jí)人工智能啦)中出現(xiàn)錯(cuò)誤目標(biāo)函數(shù)的風(fēng)險(xiǎn)。然而,我們認(rèn)為有成效地討論意外問題不需要渲染這些極端情景,實(shí)際上這只會(huì)帶來沒必要的推測(cè)性討論,正如一些批評(píng)者所說的那樣,缺少精確度。我們相信,最有成效的做法是從現(xiàn)代機(jī)器學(xué)習(xí)技術(shù)的實(shí)際問題(雖然經(jīng)常比較籠統(tǒng))來描述意外風(fēng)險(xiǎn)。
言下之意就是,現(xiàn)在的機(jī)器人如此之蠢,為什么大家都想去分析一個(gè)正在學(xué)習(xí)爬行的嬰兒會(huì)不會(huì)飛的比飛機(jī)還快?
注意這個(gè)類比的特點(diǎn):嬰兒再怎么長(zhǎng)大,再怎么學(xué)習(xí),也是不可能單獨(dú)飛起來的,更何況要飛的比飛機(jī)還快,同樣,目前的增強(qiáng)學(xué)習(xí)模型,如果不在某種程度上發(fā)生飛躍性、本質(zhì)上的進(jìn)步,很難相信它隨著不斷的學(xué)習(xí)就能成為能超越一切的智能。
不夠智能=不會(huì)犯錯(cuò)?
讓我們回到論文本身的分析來,谷歌相信現(xiàn)在的機(jī)器人只有極其有限的智能,不代表他們就認(rèn)為這樣的智能不會(huì)對(duì)人類造成損害。事實(shí)上,沒有智能的東西對(duì)人類造成的損害大了去了。其實(shí)人類在執(zhí)行某項(xiàng)任務(wù)的時(shí)候,除了任務(wù)目標(biāo)和手中掌握有的工具之外,人類在進(jìn)行思考的時(shí)候還會(huì)考慮兩項(xiàng)很重要的因素:常識(shí)和道德。它在不知不覺中影響著我們的一言一行。但由于在通常RL模型的指引下,機(jī)器人對(duì)周遭除了模型中有所描述的環(huán)境的概念一無所知,這時(shí)候它是沒有常識(shí)和道德可言的。因此很容易做出一些看起來匪夷所思,但于機(jī)器人的角度來說卻是合情合理的行為。谷歌在論文中以一個(gè)清潔機(jī)器人為例,主要提出了五種可能的、AI在執(zhí)行RL學(xué)習(xí)時(shí)可能出現(xiàn)的錯(cuò)誤趨勢(shì):
負(fù)面影響:AI在試圖達(dá)到目標(biāo)時(shí)可能對(duì)環(huán)境做出有負(fù)面影響的舉動(dòng)。比如它可能會(huì)為了更快的打掃地面而徑直推翻(而不是繞過去)一個(gè)花瓶。
非法解讀:AI可能通過篡改測(cè)量值等手段在獎(jiǎng)勵(lì)函數(shù)上玩花樣。比如掃地機(jī)器人可能只是找個(gè)東西把臟東西蓋起來讓自己看不見它,就認(rèn)為自己已經(jīng)掃干凈了地面。