不過,溫菲爾德教授承認,人類應(yīng)該謹慎對待人工智能的發(fā)明和應(yīng)用。在全球1000位簽署呼吁“禁止在武器中應(yīng)用人工智能”的科學家和工程師中,他是其中之一。他指出:“機器人和智能系統(tǒng)的研究開發(fā),必須遵循極高的安全標準,因為我們需要安全的洗衣機、汽車和飛機。”然而,誰也無法預料未來的科技進步節(jié)奏,因為誰也無法保證全球每一個角落的每一位科學家都能持同樣負責謹慎的態(tài)度。因此,在人工智能研發(fā)領(lǐng)域,的確存在不安定因素。
人工智能安全與否的一個至關(guān)重要里程碑就是人機對等,即“人工普通智能”??茖W家正在努力研究評估,機器人何時會與人類一樣擁有對等智能,以及這種對等對人類來說有何意義。牛津大學人類未來研究院院長尼克-博斯特羅姆教授,在新書《超級智能》中對未來人工智能繼續(xù)發(fā)展所帶來的潛在風險,表示了深深的擔憂,并對此發(fā)出了警告。他援引了人工智能領(lǐng)域一些專家的最新調(diào)查成果。一項調(diào)查顯示,有50%的可能計算機將在2050年具備相當人類水平的智能;另一項調(diào)查顯示,有90%的可能在2075年機器人將具備與人類對等的智能。尼克-博斯特羅姆教授稱,自己是一個不折不扣的人工智能支持者,因為借助人工智能可以應(yīng)對氣候變化、能源與新藥物等問題。
然而,博斯特羅姆教授指出:“你不能把人工智能簡單看作是一個很酷的工具,或者提高公司底線的小玩意兒。人工智能的確改變了人類的基本游戲規(guī)則,它是人類智能的最后一項發(fā)明,同時開啟了機器人智能的新時代。”他假想了一幅畫面,一個好奇的孩子拾起了一個沒有引爆的炸彈,并且完全沒有意識到危險性。他表示:“也許這一天還為期很遠,但是我們真的像一個天真懵懂的孩子,完全沒有意識到我們目前創(chuàng)造的機器人的力量——這就是我們作為一個物種所處的現(xiàn)狀。”博斯特羅姆教授目前的研究項目得到了埃隆-馬斯克的資金贊助,旨在探尋研究一種確保安全的共享方法。
斯坦福大學教授杰瑞-卡普蘭在新書《人類不需要申請工作》中表示,機器人還可能有另一種隱蔽的接管形式,隨著我們習慣信任這些智能系統(tǒng),依賴它們進行交通、交友、定制新聞、保護財產(chǎn)、監(jiān)控環(huán)境、培育和準備食材、教育孩子,以及關(guān)愛長輩,最后必定會有某些風險。問題的關(guān)鍵在于,我們能否及時有效地找到足夠的安全防護措施。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!