據(jù)國(guó)外媒體報(bào)道, 斯蒂芬·霍金曾警告“人工智能完全體的發(fā)展可能意味著人類的終結(jié)” ;伊隆·馬斯克擔(dān)心人工智能的發(fā)展可能是人類生存面臨的最大威脅;比爾·蓋茨則提醒人們要小心人工智能。
人類對(duì)未知事物產(chǎn)生恐懼并不是什么新鮮事。但是,著名的理論物理學(xué)家,以及硅谷企業(yè)家和微軟創(chuàng)始人對(duì)人工智能的擔(dān)心為這種恐懼增添了新的注解。但是像科幻電影一樣,擔(dān)心機(jī)器人會(huì)奮起革命似乎有點(diǎn)自欺欺人。重要的是如何合理的進(jìn)行分析。
首先,我們要了解現(xiàn)在的電腦可以做什么,以及未來(lái)可能做到什么。由于不斷增長(zhǎng)的硬件計(jì)算能力和數(shù)字化熱潮的席卷,人工智能正在享受發(fā)展的黃金時(shí)代。今天的“深度學(xué)習(xí)”系統(tǒng),通過(guò)模仿人類大腦神經(jīng)元可以處理大量的數(shù)據(jù),學(xué)習(xí)執(zhí)行一些任務(wù),利用模式識(shí)別進(jìn)行翻譯,就像人類一樣。于是,分析照片或者玩簡(jiǎn)單的電腦游戲,現(xiàn)在已經(jīng)在計(jì)算機(jī)程序的能力范圍之內(nèi)。Facebook 2014年推出的一種算法DeepFace識(shí)別人臉的準(zhǔn)確率達(dá)到97%。
但是需要認(rèn)識(shí)到,這種能力是十分具體的。今天的人工智能只是通過(guò)強(qiáng)大的數(shù)字運(yùn)算力來(lái)模擬出智能,并沒(méi)有與人類一樣的自我思考能力、興趣和欲望。計(jì)算機(jī)還沒(méi)有人類所具有的任何推測(cè)、判斷和決定的能力。
然而,人工智能目前已經(jīng)足夠強(qiáng)大到改變?nèi)祟惖纳罘绞?。它可以通過(guò)作為人類智力的補(bǔ)充提高人的能力。比如說(shuō)國(guó)際象棋,雖然計(jì)算機(jī)比任何人類都更加強(qiáng)大,但是世界上最好的棋手并不是機(jī)器。國(guó)際象棋特級(jí)大師卡斯帕羅夫表示人類和人工智能的混合體才是最強(qiáng)大的。這種人類與機(jī)器的混合體正成為各行各業(yè)的新發(fā)展趨勢(shì)。通過(guò)人工智能的幫助,醫(yī)生在醫(yī)學(xué)圖像上發(fā)現(xiàn)癌癥的概率大大增加。智能手機(jī)上運(yùn)行的語(yǔ)音識(shí)別算法將為發(fā)展中國(guó)家數(shù)百萬(wàn)文盲用戶提供互聯(lián)網(wǎng)服務(wù)。數(shù)字助理將有可能對(duì)學(xué)術(shù)研究產(chǎn)生幫助。圖像分類算法將幫助穿戴式設(shè)備為人類提取現(xiàn)實(shí)世界的有用信息。
但即使在目前,不是所有的人工智能都帶來(lái)的是積極的影響。比如,參與國(guó)家安全的人工智能有能力監(jiān)控?cái)?shù)十億的電話通聯(lián),并挑選出任何想要需找的對(duì)象。雖然目前人工智能對(duì)社會(huì)利大于弊,但許多人仍會(huì)因?yàn)槿斯ぶ悄艹蔀闋奚?。原?lái)由人所做的工作比如說(shuō)會(huì)計(jì)和營(yíng)銷等,可能會(huì)被晶體管取代他們的位置。人工智能可能注定要替代越來(lái)越多人的工作崗位。
不過(guò)對(duì)人類的監(jiān)控和??取代,并不是霍金、馬斯克和蓋茨所擔(dān)心的未來(lái)。他們關(guān)注的是更遙遠(yuǎn)的未來(lái)?yè)碛姓J(rèn)知和學(xué)習(xí)能力的機(jī)器人與人類的利益產(chǎn)生沖突。
但這種人工智慧生物仍有很長(zhǎng)的路要走,事實(shí)上它可能永遠(yuǎn)也不會(huì)出現(xiàn)。盡管大量心理學(xué)家、神經(jīng)學(xué)家、社會(huì)學(xué)家和哲學(xué)家對(duì)大腦研究了一個(gè)世紀(jì),仍然無(wú)法理解人類大腦的工作方式。有自我意識(shí)的人工智能目前還沒(méi)又出現(xiàn)。
但是,即使霍金先生所描繪的人工智能完全體離我們尚遠(yuǎn),但是審慎的規(guī)劃如何應(yīng)對(duì)仍然必要。其實(shí)這并不困難,因?yàn)槿祟愐恢倍荚谝?guī)范那些具有致命傷害的東西,比如政府機(jī)構(gòu),比如軍隊(duì)。一旦這些自治實(shí)體不受特定的法律和規(guī)則限制就可以造成很大的傷害。
正如軍隊(duì)需要民間監(jiān)督,政府必須透明負(fù)責(zé)任,人工智能系統(tǒng)也必須公開(kāi)接受審查。由于系統(tǒng)設(shè)計(jì)人員無(wú)法預(yù)見(jiàn)所有的行為,所以人工智能必須有強(qiáng)制關(guān)機(jī)功能。這些規(guī)則可以保障人類不受傷害同時(shí)又不妨礙技術(shù)的發(fā)展。從核彈到交通規(guī)則,人類有能力用技術(shù)和法律來(lái)約束任何強(qiáng)大的創(chuàng)新。
一個(gè)有自主意識(shí)的非人類智能生物的確有其潛在危險(xiǎn)性,但這不應(yīng)該掩蓋人工智能未來(lái)為人類所能帶來(lái)的巨大利益。
譯者:秉翰