
前 言
人工智能(Artificial Intelligence,簡(jiǎn)稱AI)是一系列技術(shù)的集合,其下包括機(jī)器學(xué)習(xí)、推理、感知和自然語(yǔ)言處理等。人工智能的概念和應(yīng)用65年前就已開始,不過最近AI的進(jìn)步和應(yīng)用讓這種技術(shù)再次成為熱議。隨著AI被更廣闊地應(yīng)用到人類社會(huì)和經(jīng)濟(jì)生活各個(gè)方面,新的機(jī)遇和挑戰(zhàn)隨之而生。其巨大的潛在影響讓人類不得不謹(jǐn)慎思考AI技術(shù)的發(fā)展與應(yīng)用。
于今年7月舉行的“AI Now”研討會(huì)是由白宮科技政策辦公室和美國(guó)國(guó)家經(jīng)濟(jì)委員會(huì)聯(lián)合推動(dòng)的一系列研究的最后一個(gè)環(huán)節(jié)。此前的一系列研究分別從不同的角度對(duì)AI進(jìn)行了分析研究,從政策法規(guī)到AI的安全控制,再到AI公益以及如何挖掘AI的更多潛能。這次“AI Now”則主要就未來十年AI在社會(huì)和經(jīng)濟(jì)領(lǐng)域的影響進(jìn)行討論。來自全球多個(gè)領(lǐng)域的專家學(xué)者集聚一堂,發(fā)表自己的觀點(diǎn)。討論的問題包括:現(xiàn)階段AI的迅速發(fā)展造成了哪些問題?如何更好地理解與使用AI來創(chuàng)造更公平公正的未來?
社會(huì)和經(jīng)濟(jì)的問題多不勝數(shù),本次“AI Now”主要圍繞“醫(yī)療”、“勞工就業(yè)”、“AI公平”以及“AI道德”準(zhǔn)則展開討論。
之所以選擇“醫(yī)療”和“勞工就業(yè)”作為主要話題,是因?yàn)槟壳斑@兩個(gè)領(lǐng)域中AI滲入廣泛,AI所能帶來的問題在這兩個(gè)領(lǐng)域中較為突出和明顯。而“AI公平”和“AI道德”則是未來大家都關(guān)注的問題:AI會(huì)有助于世界大同還是會(huì)加劇社會(huì)不公?以及如何確保AI的利益被全體人類享用?
該研討會(huì)的舉行旨在讓AI能夠更好地造福人類社會(huì)。通過眾多專家學(xué)者聚集一堂進(jìn)行討論的方式,本次“AI Now”研討會(huì)對(duì)人工智能學(xué)界內(nèi)外都具有顯著意義。
問題和建議
研討會(huì)對(duì)未來AI所可能造成的情況做出了預(yù)見,并分別給出相應(yīng)的建議。需要聲明的是,下列建議融合了全體與會(huì)人員的智慧,并不代表個(gè)人或某組織的立場(chǎng)。
隨著AI愈加緊密地被應(yīng)用到社會(huì)經(jīng)濟(jì)生活的方方面面,以下列出的問題和對(duì)應(yīng)的建議可以作為投資者和相關(guān)領(lǐng)域從業(yè)者在對(duì)來的參考指南。
1、問題:AI的發(fā)展和應(yīng)用有賴于特定的基礎(chǔ)設(shè)施和人、物資源。這些基礎(chǔ)資源的短缺無(wú)疑會(huì)限制AI的發(fā)展,對(duì)這些基礎(chǔ)設(shè)施和資源的掌握在AI發(fā)展前期變的至關(guān)重要。
建議:從多個(gè)渠道改善發(fā)展AI的資源基礎(chǔ)。注重?cái)?shù)據(jù)集、計(jì)算機(jī)、相關(guān)人才教育培訓(xùn)等配套領(lǐng)域的建設(shè)。
2、問題:雖然目前AI水平還在初級(jí),不過在多個(gè)領(lǐng)域AI已經(jīng)作為人工輔助的角色存在,并且對(duì)勞動(dòng)關(guān)系產(chǎn)生了影響。奧巴馬經(jīng)濟(jì)顧問委員會(huì)的主席杰森·弗曼(Jason Furman)就表示,低技術(shù)的體力勞動(dòng)是最有可能被AI和自動(dòng)化機(jī)械取而代之的職位。如果機(jī)器人開始和人類競(jìng)爭(zhēng)工作,人力資源的分配也將迎來變革。
建議:更新自己的思維和技能,來應(yīng)對(duì)AI參與所帶來的就業(yè)結(jié)構(gòu)的改變。未來AI機(jī)器將承擔(dān)絕大多數(shù)低技術(shù)水平的工作職位,人們需要調(diào)整自己的技能儲(chǔ)備和收支方向以應(yīng)對(duì)新形勢(shì)。
3、問題:AI和自動(dòng)化的過程通常都是在人們目所不及的幕后進(jìn)行。缺少了人類的參與,機(jī)器可能做出有失公允或不慎恰當(dāng)?shù)臎Q定。隨著AI應(yīng)用的進(jìn)一步增長(zhǎng),對(duì)AI判斷和勘誤將變得更加重要,也更加困難。
建議:支持AI校準(zhǔn)和勘誤的研究,AI錯(cuò)誤危害評(píng)估程序也應(yīng)提上日程。這些研究應(yīng)和AI的突飛猛進(jìn)配套發(fā)展,就像人類系統(tǒng)中司法之于行政。如此能夠及時(shí)發(fā)現(xiàn)AI犯下的錯(cuò)誤,并避免嚴(yán)重后果。
4、問題:針對(duì)AI模式下公私機(jī)構(gòu)公平和問責(zé)制的研究似乎與當(dāng)前美國(guó)一些法律相忤,比如計(jì)算機(jī)欺詐與濫用法案(CFAA)和數(shù)字千年版權(quán)法案(DMCA)。
建議:需要澄清的是,無(wú)論是計(jì)算機(jī)欺詐與濫用法案還是數(shù)字千年版權(quán)法案,都沒有限制相關(guān)研究。
5、問題:盡管AI正以飛快的速度被運(yùn)用在醫(yī)療、勞工等諸多領(lǐng)域,但目前人類沒有一個(gè)公認(rèn)的辦法來在評(píng)估AI所帶來的影響。
建議:支持AI影響評(píng)估系統(tǒng)的研究。而且該領(lǐng)域的研究應(yīng)該和政府機(jī)構(gòu)通力合作,使成果能為政府行政所用。
6、問題:那些因部署AI而權(quán)益受到損害的人,其聲音往往被忽視。