A: 對我而言,這個(gè)預(yù)測并沒有那么準(zhǔn)確。要讓 AI 成為一種類似于水電的工具服務(wù),需要滿足兩個(gè)條件:
這項(xiàng)技術(shù)變得更為通用和能干。在很多場合下,你可以像租用計(jì)算能力這樣,租10 分鐘的 AI 服務(wù)。
即便 GAI(General Artificial Intelligence,通用人工智能)在經(jīng)濟(jì)中發(fā)揮重要作用,經(jīng)濟(jì)體中的其他因素仍然能發(fā)揮特定作用。
這兩個(gè)觀點(diǎn)實(shí)際上是直接矛盾的:要是 AI 變得更加強(qiáng)大和普及,經(jīng)濟(jì)體中的其他因素就會被削弱。最終,這樣想吧:經(jīng)濟(jì)是人類制度,要是 AI 比人類能干,可能就不需要人類經(jīng)濟(jì)了,就像人類不需要螞蟻經(jīng)濟(jì)。
用 Eliezer Yudkowsky(MIRI,Machine Intelligence Research Institute 的創(chuàng)辦人之一)的話來說,擁有超級智慧的 AI,可以自由重組宇宙里的任意原子。它們甚至不需要賺錢來養(yǎng)活自己。 一旦擁有重組原子結(jié)構(gòu)的能力,它們可以制造出任何它們想要的東西。
但也有人和我持不同的觀點(diǎn)。有些人認(rèn)為:即便 AI 擁有超群的智力和通用性,現(xiàn)有的經(jīng)濟(jì)體系也能維持下去。我的朋友 Robin Hanson, 一位約翰梅森大學(xué)的經(jīng)濟(jì)學(xué)教授,就認(rèn)為超高智慧的 AI 將出現(xiàn)在現(xiàn)有的經(jīng)濟(jì)體系,并受其約束,而不是將它顛覆并且毀滅。
張本宇(CloudBrain 創(chuàng)始人)
Q: 你認(rèn)為有什么比較重要的方向被低估了,且沒有得到足夠的投資?”
A: 我覺得是 “價(jià)值觀對接研究”(value-alignment research)。這個(gè)概念第一次由斯圖爾特·J·拉塞爾(Stuart J. Russell,世界首屈一指的計(jì)算機(jī)科學(xué)家)在《人工智能:現(xiàn)代方法總論》(Artificial Intelligence: a Modern Approach)中提出。他認(rèn)為:我們需要重新定義 AI 研究的目標(biāo)。不停留于單純的智能開發(fā)上,而是開發(fā)能充分對接人類價(jià)值觀的超級智慧。但從世界范圍內(nèi) AI 的發(fā)展來看,這一領(lǐng)域在目前的研究中被極大地忽視了。
這固然是一項(xiàng)非常艱巨的挑戰(zhàn),誠如慈善評估機(jī)構(gòu) Givewell 在一份有關(guān) AI 風(fēng)險(xiǎn)的報(bào)告中提到的:知識是可以被驗(yàn)證的,但價(jià)值觀卻不能。如果 AI 學(xué)習(xí)了錯誤的數(shù)據(jù),做了錯誤的預(yù)估,人們會很快發(fā)現(xiàn)并加以糾正。但對于錯誤的價(jià)值觀,我們是很難察覺并且糾正的。
我們沒有選擇,必須面對這個(gè)挑戰(zhàn)。如果我們想要給子孫后代留一個(gè)未來,就必須盡快解決 AI 價(jià)值觀對接的問題。當(dāng)然,我不是說對于 AI 其他風(fēng)險(xiǎn)的研究就不重要了。
Q: 對于 AI 在 3-5 年后的研究和開發(fā),你認(rèn)為瓶頸將會是什么呢?比如說:計(jì)算機(jī)能力?或者是先前沿用馮·諾伊曼(計(jì)算機(jī)之父)理論本身的問題?人類目前有限的知識?政府的管制?或者說是因?yàn)槿菀踪嶅X的方式越來越多,導(dǎo)致研究人員的不足?
A: 長期以來,AI 領(lǐng)域缺乏富有洞見的人才,和強(qiáng)大的計(jì)算能力(這將極大地提升神經(jīng)網(wǎng)絡(luò)技術(shù))。短時(shí)間內(nèi),這兩個(gè)瓶頸仍然難以突破。
一個(gè)有意思的話題是 “快錢” 如何影響人才。一方面來說,高漲的需求勢必會刺激供給。但另一方面,它給行業(yè)帶來不少噪音,讓人才難以專心研究。
從基礎(chǔ)理論上來說,目前的 AI 技術(shù)更多采用 GPU(圖像處理單元),而不是 CPU(計(jì)算處理單元)。所以在很大程度上,這個(gè)行業(yè)已經(jīng)拋棄了諾伊曼的理論。
吳甘沙(前英特爾中國研究院院長、馭勢科技 CEO)
Q: 你是 Deepmind 的早期投資者,推動 AI 對人類智能的趕超,同時(shí)又是劍橋 “存在風(fēng)險(xiǎn)研究中心” 和 MIT “生命未來研究所”的創(chuàng)始人,后者致力于探討 AI 對人類產(chǎn)生存在性風(fēng)險(xiǎn)的可能性和解決方案。這兩者之間存在一定的沖突。你如何在倫理和社會影響方面給 Deepmind 反饋和指導(dǎo)?
A: 在 Deepmind 任職期間,我們舉辦過一些相關(guān)的討論會。為了 AI 未來發(fā)展的安全,Deepmind 專門招聘了研究人員,并開始與牛津大學(xué)的 Future of Humanity Institute 合作,還和 Google 創(chuàng)立了 “倫理與安全” 委員會。當(dāng)然,作為一家資金與人員都十分有限的創(chuàng)業(yè)公司,DeepMind 對這一領(lǐng)域的貢獻(xiàn)仍然非常有限。但我相信他們會持續(xù)投入精力做“價(jià)值觀對接”的研究。