如何成為機(jī)器的主人
牛津大學(xué)人類未來研究所的創(chuàng)始總監(jiān)Nick Bostrom:AI的生存危機(jī)。由Daniela Hernandez采訪。
能說說你正在進(jìn)行的工作嗎?
我們對(duì)于“控制問題”相關(guān)的技術(shù)挑戰(zhàn)非常感興趣。你能確保AI做的事情,一定是符合程序員初衷的嗎?我們還對(duì)強(qiáng)智能AI帶來的經(jīng)濟(jì)、政治和社會(huì)問題感興趣。什么樣的政治體制最能夠幫助我們轉(zhuǎn)型進(jìn)入智能機(jī)器時(shí)代?我們?nèi)绾未_保不同的利益相關(guān)者聯(lián)合起來,從事可以帶來積極結(jié)果的事情?
你進(jìn)行了很多關(guān)于生存危機(jī)的研究。如果用最直白的語言向一個(gè)5歲小孩解釋,你會(huì)如何描述呢?
我會(huì)說,這是可以永遠(yuǎn)毀滅人類未來的科技。對(duì)于年紀(jì)更大一點(diǎn)的聽眾,我會(huì)說有人類滅絕的可能,或者可能永遠(yuǎn)摧毀我們?cè)谖磥韺?shí)現(xiàn)價(jià)值的可能性。
你認(rèn)為什么樣的策略會(huì)幫助減輕人工智能的潛在生存危機(jī)?
研究控制問題會(huì)有所幫助。當(dāng)我們搞明白如何讓機(jī)器變得真正智能,我們應(yīng)該能有一些概念,知道如何控制這樣的機(jī)器,如何進(jìn)行工程設(shè)計(jì),從而讓機(jī)器與人類站在同一陣營,符合人類價(jià)值觀,不具有破壞性。這涉及一系列的技術(shù)挑戰(zhàn),其中一些我們現(xiàn)在已經(jīng)開始研究了。
你能舉個(gè)例子嗎?
對(duì)于控制問題,不同的人思考著不同的方法。一種方式是研究價(jià)值觀學(xué)習(xí)。我們希望自己打造的AI最終可以分享我們的價(jià)值觀,這樣AI可以作為我們?nèi)祟愐庵镜难由?。我們沒法把自己重視的一切寫在一個(gè)長長的列表然后塞給AI。更好的辦法,是利用AI自己的智能來學(xué)習(xí)我們的價(jià)值觀和喜歡。
每一個(gè)人的價(jià)值觀都不同。我們?nèi)绾螞Q定機(jī)器該學(xué)習(xí)什么樣的價(jià)值觀?
這是一個(gè)很大、很復(fù)雜的問題:價(jià)值觀之間的巨大沖突以及利益之間的巨大沖突。從某種意義上說,這是最大的一個(gè)未解難題。如果你對(duì)于技術(shù)進(jìn)步比較樂觀,你會(huì)覺得最終我們總會(huì)知道怎樣可以做到越來越多的事情。
我們會(huì)以前所未有的程度征服自然。但是有一項(xiàng)科技無法自動(dòng)解決的問題,就是沖突和戰(zhàn)爭。最黑暗的宏觀畫面是,人們有可能利用技術(shù),這種超越自然的力量、這種知識(shí),專門用來傷害和破壞他人。這個(gè)問題沒法自動(dòng)解決。
我們?nèi)绾螒?yīng)對(duì)這種壓力?
對(duì)于這個(gè)問題我沒有簡單的答案。我不認(rèn)為存在一個(gè)簡單的技術(shù)解決方案。
一個(gè)自動(dòng)編程的代理能否從我們?yōu)槠湓O(shè)定的控制系統(tǒng)中解放出來?人類已經(jīng)一直在這樣做了,從某種意義上來說,當(dāng)我們出于自私行事的時(shí)候。
保守的假設(shè)是,強(qiáng)人工智能可以自我編程,可以改變自己的價(jià)值觀,而且可以打破任何我們?yōu)槠湓O(shè)定的束縛。那樣的話,我們的目標(biāo)就會(huì)是對(duì)其進(jìn)行設(shè)計(jì),讓機(jī)器選擇不使用那些能力來傷害人類。如果AI希望為人類服務(wù),它會(huì)對(duì)一個(gè)殺害人類的行為分配很低的預(yù)期實(shí)效。我們有理由這樣認(rèn)為,如果你以恰當(dāng)?shù)姆绞皆O(shè)定目標(biāo)系統(tǒng),最終的決策標(biāo)準(zhǔn)就能保持下來。
讓我們把大腦變得更好
PayPal及Founders Fund聯(lián)合創(chuàng)始人Luke Nosek:在人工大腦出現(xiàn)前,我們需要訓(xùn)練自己的大腦。
今年早些時(shí)候,韓國圍棋冠軍李世石與谷歌的人工智能程序AlphaGo進(jìn)行了一場歷史性的大戰(zhàn)。李世石名下有18項(xiàng)世界冠軍頭銜,但是在今年3月19日,他敗給了軟件。
如今的高性能計(jì)算前所未有的強(qiáng)大。不過距離強(qiáng)人工智能系統(tǒng)的出現(xiàn)還有很遠(yuǎn)的距離,機(jī)器還遠(yuǎn)未達(dá)到人類大腦的能力。我們還沒能理解強(qiáng)人工智能(有時(shí)候稱為AGI)會(huì)如何運(yùn)作,會(huì)為我們的生活和經(jīng)濟(jì)帶來什么影響。經(jīng)常有人將這種影響的廣度比作核技術(shù)的出現(xiàn),從史蒂芬霍金、到伊隆馬斯克、到AlphaGo的創(chuàng)造者都建議,我們應(yīng)該小心前進(jìn)。
核武器的比喻很帶感,但是也挺恰當(dāng)。核武器是強(qiáng)AI最糟糕的情況。相反,樂觀的預(yù)計(jì)又亮瞎人眼(普遍的經(jīng)濟(jì)繁榮、消滅所有疾病),樂觀與恐懼都可能讓我們產(chǎn)生偏見。