贊助本站
在長城會舉辦的“天工開悟,智行未來”的活動上,霍金現(xiàn)在還無法判斷人工智能的崛起對人類來說到時是好事還是壞事,但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。“我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。”
霍金表示,人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面。
人類未來是否會被人工智能代替?霍金表示,人類無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
此外,霍金強調(diào),人工智能也有可能是人類文明史的終結(jié),除非我們學(xué)會如何避免危險。我曾經(jīng)說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作。
以下為霍金演講實錄:
在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智能的崛起。簡單來說,我認(rèn)為強大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。我不得不說,是好是壞我們?nèi)圆淮_定。但我們應(yīng)該竭盡所能,確保其未來發(fā)展對我們和我們的環(huán)境有利。我們別無選擇。我認(rèn)為人工智能的發(fā)展,本身是一種存在著問題的趨勢,而這些問題必須在現(xiàn)在和將來得到解決。
人工智能的研究與開發(fā)正在迅速推進(jìn)。也許我們所有人都應(yīng)該暫停片刻,把我們的研究重復(fù)從提升人工智能能力轉(zhuǎn)移到最大化人工智能的社會效益上面?;谶@樣的考慮,美國人工智能協(xié)會(AAAI)于2008至2009年,成立了人工智能長期未來總籌委員會[原文:Presidential
Panel>文明所提產(chǎn)生的一切都是人類智能的產(chǎn)物,我相信生物大腦可以達(dá)到的和計算機可以達(dá)到的,沒有本質(zhì)區(qū)別。因此,它遵循了“計算機在理論上可以模仿人類智能,然后超越”這一原則。但我們并不確定,所以我們無法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。的確,我們擔(dān)心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時,我也在擔(dān)憂創(chuàng)造一個可以等同或超越人類的事物所導(dǎo)致的結(jié)果:人工智能一旦脫離束縛,以不斷加速的狀態(tài)重新設(shè)計自身。人類由于受到漫長的生物進(jìn)化的限制,無法與之競爭,將被取代。這將給我們的經(jīng)濟(jì)帶來極大的破壞。未來,人工智能可以發(fā)展出自我意志,一個與我們沖突的意志。盡管我對人類一貫持有樂觀的態(tài)度,但其他人認(rèn)為,人類可以在相當(dāng)長的時間里控制技術(shù)的發(fā)展,這樣我們就能看到人工智能可以解決世界上大部分問題的潛力。但我并不確定。
2015年1月份,我和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關(guān)于人工智能的公開信,目的是提倡就人工智能對社會所造成的影響做認(rèn)真的調(diào)研。在這之前,埃隆·馬斯克就警告過人們:超人類人工智能可能帶來不可估量的利益,但是如果部署不當(dāng),則可能給人類帶來相反的效果。我和他同在“生命未來研究所”的科學(xué)顧問委員會,這是一個為了緩解人類所面臨的存在風(fēng)險的組織,而且之前提到的公開信也是由這個組織起草的。這個公開信號召展開可以阻止?jié)撛趩栴}的直接研究,同時也收獲人工智能帶給我們的潛在利益,同時致力于讓人工智能的研發(fā)人員更關(guān)注人工智能安全。此外,對于決策者和普通大眾來說,這封公開信內(nèi)容翔實,并非危言聳聽。人人都知道人工智能研究人員們在認(rèn)真思索這些擔(dān)心和倫理問題,我們認(rèn)為這一點非常重要。比如,人工智能是有根除疾患和貧困的潛力的,但是研究人員必須能夠創(chuàng)造出可控的人工智能。那封只有四段文字,題目為《應(yīng)優(yōu)先研究強大而有益的人工智能》的公開信,在其附帶的十二頁文件中對研究的優(yōu)先次序作了詳細(xì)的安排。