6月29日消息,據(jù)每日郵報(bào)報(bào)道,英國物理學(xué)家史蒂芬·霍金(Stephen Hawking)日前接受美國王牌脫口秀主持人拉里·金(Larry King)采訪,宣稱機(jī)器人的進(jìn)化速度可能比人類更快,而它們的終極目標(biāo)將是不可預(yù)測的。
在采訪中,霍金表示出對人類未來的擔(dān)憂。他說:“我并不認(rèn)為人工智能的進(jìn)化必然是良性的。一旦機(jī)器人達(dá)到能夠自我進(jìn)化的關(guān)鍵階段,我們無法預(yù)測它們的目標(biāo)是否還與人類相同。人工智能可能比人類進(jìn)化速度更快,我們需要確保人工智能的設(shè)計(jì)符合道德倫理規(guī)范,保障措施到位。”
隨著人工智能的進(jìn)化,機(jī)器人很可能獨(dú)立地選擇目標(biāo)并開槍射擊。全自動武器(又稱殺人機(jī)器人)正從科幻電影變成現(xiàn)實(shí)。這并非霍金首次警告機(jī)器人存在的潛在危險(xiǎn)。去年,霍金表示,隨著技術(shù)的發(fā)展,并學(xué)會自我思考和適應(yīng)環(huán)境,人類將面臨不確定的未來。
今年年初,霍金也曾表示,成功創(chuàng)造人工智能可能是人類史上最偉大的事件,不幸的是,這也可能成為人類最后的偉大發(fā)明。他認(rèn)為,數(shù)字個(gè)人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預(yù)兆,未來數(shù)十年間將更加明顯。
此前,他曾直言不諱地表達(dá)出對人工智能發(fā)展的擔(dān)憂?;艚鸨硎荆皭宏庪U(xiǎn)的威脅正在硅谷的技術(shù)實(shí)驗(yàn)室中醞釀。人工智能可能偽裝成有用的數(shù)字助理或無人駕駛汽車以獲得立足之地,將來它們可能終結(jié)人類。
霍金并非唯一擔(dān)心人工智能的人。特斯拉電動汽車公司首席執(zhí)行官伊隆·馬斯克(Elon Musk)曾經(jīng)研發(fā)人工智能比作“召喚惡魔”,他警告人工智能技術(shù)對人類的傷害可能超過核武器。
但霍金也承認(rèn)人工智能帶來的其他好處顯而易見,可以幫助消除戰(zhàn)爭、疾病以及貧困。他認(rèn)為人類面臨的最大威脅是我們自身的弱點(diǎn),即貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來這些都變得更加嚴(yán)重。以當(dāng)前速度持續(xù)下去,到2100年,全球人口將達(dá)到110億。在過去5年間,空氣污染也在加劇。”(小?。?/p>