
史蒂芬·霍金、比爾·蓋茨、以及特斯拉汽車公司創(chuàng)始人埃隆•穆斯克有什么共同點?
他們都擔(dān)心人工智能技術(shù)的發(fā)展可能給人類帶來難以預(yù)料的災(zāi)難。作為計算機科學(xué)的一個分支領(lǐng)域,人工智能可以讓機器模仿人類行為,并做出決策。
這就是為什么穆斯克、非盈利機構(gòu)“開放慈善項目”,以及旨在減輕新技術(shù)災(zāi)禍的研究機構(gòu)“生命未來研究所”決定攜手合作,資助那些防止人工智能帶來災(zāi)難的研究人員。
到目前為止,該項目共給37個研究團(tuán)隊提供了總計700萬美元的資金。
要記住,穆斯克和其他人設(shè)想的災(zāi)難并不是好萊塢大片的典型場景:終結(jié)者或機器人獲得了一定的意識,開始攻擊它們的人類主人。實際上,這一情景就本質(zhì)而言并不難實現(xiàn)。
這些資助旨在探索因機器和機器人開始在社會上獨立運轉(zhuǎn)(比如幫你挑揀商品的機械購物助手和自動駕駛汽車)而出現(xiàn)的法律問題。一個已經(jīng)獲得撥款的研究團(tuán)隊正在研究的課題是,機器人對人身安全和財產(chǎn)造成危害后,需要負(fù)哪些法律責(zé)任?比如說,研究人員想要搞清楚,如果一個機器人闖了紅燈,警察應(yīng)該給誰開罰單。
另一個研究團(tuán)隊則在嘗試制定一套指南,幫助擁有人工智能的電腦合理化自己的行為,并向人類作出解釋。其理念在于讓人類詢問機器為何要做出某個決定,以解決任何潛在的問題。
比方說,假設(shè)有一臺擁有人工智能的電腦,它能在股市中進(jìn)行交易,為公司實現(xiàn)最大經(jīng)濟收益。如果這臺電腦表現(xiàn)出色的部分原因在于它進(jìn)行了某些非法交易,那么人類可以詢問電腦為何選擇進(jìn)行該交易,從而制止這種行為。
“生命未來”項目的撥款官員丹尼爾·杜威表示,所有這些研究項目都是為了做好基礎(chǔ)工作,幫助科學(xué)家和工程師創(chuàng)建一個“能以前所未有的方式與人類合作”的智能系統(tǒng), 該資助行動是電動汽車制造商特斯拉公司首席執(zhí)行官穆斯克開展的又一個超前項目。除了特斯拉之外,穆斯克還是民用航空航天公司SpaceX的首席執(zhí)行官。他還大膽構(gòu)想出了Hyperloop計劃,這一運輸系統(tǒng)讓乘客坐在類似火車的客艙里,在隧道中高速往返于舊金山和洛杉磯之間。
穆斯克于今年1月首先提出了投資人工智能研究的計劃。上周三宣布的700萬美元贊助源自穆斯克向“生命未來研究所”捐贈的1000萬美元。
盡管在人工智能領(lǐng)域已有大量研究和資金投入,尤其是大型科技公司,如谷歌和中國搜索公司百度,但杜威表示,這類研究大部分都是以提高人工智能技術(shù)的效果為目標(biāo)的。比如Facebook研發(fā)的技術(shù)和算法,可以讓這家社交網(wǎng)絡(luò)能夠識別照片中的人,即便他們的臉被擋住了。
杜威把不同類型的人工智能研究比作核電站的員工,每個人都要扮演不同的角色。某個核電站的工程師可能會負(fù)責(zé)研究如何改善反應(yīng)堆的效率,而安全工程師則要保證反應(yīng)堆不會爆炸。(財富中文網(wǎng))
譯者:嚴(yán)匡正
審校:任文科