在過去的20年里,人工智能一直專注于圍繞建設智能代理所產(chǎn)生的問題,也就是在特定環(huán)境下可以感知并行動的各種系統(tǒng)。在這種情況下,智能是一個與統(tǒng)計學和經(jīng)濟學相關的理性概念。通俗地講,這是一種做出好的決定、計劃和推論的能力?;谶@些工作,大量的整合和交叉孕育被應用在人工智能、機器學習、統(tǒng)計學、控制論、神經(jīng)科學、以及其它領域。共享理論框架的建立,結合數(shù)據(jù)的供應和處理能力,在各種細分的領域取得了顯著的成功。例如語音識別、圖像分類、自動駕駛、機器翻譯、步態(tài)運動和問答系統(tǒng)。
隨著這些領域的發(fā)展,從實驗室研究到有經(jīng)濟價值的技術形成良性循環(huán)。哪怕很小的性能改進,都會帶來巨大的經(jīng)濟效益,進而鼓勵更長期、更偉大的投入和研究。目前人們廣泛認同,人工智能的研究正在穩(wěn)步發(fā)展,而它對社會的影響很可能擴大,潛在的好處是巨大的,既然文明所產(chǎn)生的一切,都是人類智能的產(chǎn)物;我們無法預測我們可能取得什么成果,當這種智能是被人工智能工具放大過的。但是,正如我說過的,根除疾病和貧窮并不是完全不可能,由于人工智能的巨大潛力,研究如何(從人工智能)獲益并規(guī)避風險是非常重要的。
現(xiàn)在,關于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長期來討論。一些短期的擔憂在無人駕駛方面,從民用無人機到自主駕駛汽車。比如說,在緊急情況下,一輛無人駕駛汽車不得不在小風險的大事故和大概率的小事故之間進行選擇。另一個擔憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當和故障的過失應該如何問責。還有另外一些擔憂,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔憂,以及如何管理因人工智能取代工作崗位帶來的經(jīng)濟影響。
當前控制人工智能技術的工具,例如強化學習,簡單實用的功能,還不足以解決這個問題。因此,我們需要進一步研究來找到和確認一個可靠的解決辦法來掌控這一問題。
近來的里程碑,比如說之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來趨勢的跡象。巨大的投入傾注到這項科技。我們目前所取得的成就,和未來幾十年后可能取得的成就相比,必然相形見絀。而且我們遠不能預測我們能取得什么成就,當我們的頭腦被人工智能放大以后。也許在這種新技術革命的輔助下,我們可以解決一些工業(yè)化對自然界造成的損害。關乎到我們生活的各個方面都即將被改變。簡而言之,人工智能的成功有可能是人類文明史上最大的事件。
但是人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。今年早些時候,我和一些來自世界各國的科學家共同在聯(lián)合國會議上支持其對于核武器的禁令。我們正在焦急的等待協(xié)商結果。目前,九個核大國可以控制大約一萬四千個核武器,它們中的任何一個都可以將城市夷為平地,放射性廢物會大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會導致全球的小冰河期。這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任,因為正是科學家發(fā)明了它們,并發(fā)現(xiàn)它們的影響比最初預想的更加可怕。
現(xiàn)階段,我對災難的探討可能驚嚇到了在座的各位。很抱歉。但是作為今天的與會者,重要的是,你們要認清自己在影響當前技術的未來研發(fā)中的位置。我相信我們團結在一起,來呼吁國際條約的支持或者簽署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智能的崛起。
去年10月,我在英國劍橋建立了一個新的機構,試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無定論的問題。“利弗休姆智能未來中心”是一個跨學科研究所,致力于研究智能的未來,這對我們文明和物種的未來至關重要。我們花費大量時間學習歷史,深入去看——大多數(shù)是關于愚蠢的歷史。所以人們轉而研究智能的未來是令人欣喜的變化。雖然我們對潛在危險有所意識,但我內心仍秉持樂觀態(tài)度,我相信創(chuàng)造智能的潛在收益是巨大的。也許借助這項新技術革命的工具,我們將可以削減工業(yè)化對自然界造成的傷害。