近年來,人工智能獲得了各界的高度關(guān)注和快速發(fā)展,其在智力游戲、自動(dòng)駕駛、語音和圖像識(shí)別、翻譯等諸多領(lǐng)域取得重大突破,谷歌、Facebook、微軟等收購(gòu)人工智能創(chuàng)業(yè)公司的速度,已經(jīng)快趕上這些公司創(chuàng)立的速度。
各國(guó)政府(比如美國(guó)、英國(guó)等)以及一些社會(huì)公共機(jī)構(gòu)(比如UN、IEEE等)也開始積極關(guān)注人工智能的法律、倫理、社會(huì)、經(jīng)濟(jì)等影響,密集出臺(tái)戰(zhàn)略文件和報(bào)告。借鑒發(fā)達(dá)國(guó)家和國(guó)際社會(huì)已有經(jīng)驗(yàn)和案例,對(duì)中國(guó)企業(yè)預(yù)判后續(xù)可能面臨的前瞻性法律政策問題有所裨益。 人工智能應(yīng)用中面臨的法律政策問題 1、圖像識(shí)別領(lǐng)域 圖像識(shí)別領(lǐng)域面臨的用戶隱私保護(hù)和種族歧視等問題突出。 一方面,圖像識(shí)別軟件的不包容和歧視的問題已經(jīng)出現(xiàn),比如,谷歌的圖片軟件曾錯(cuò)將黑人的照片標(biāo)記為“大猩猩”, Flickr的自動(dòng)標(biāo)記系統(tǒng)亦曾錯(cuò)將黑人的照片標(biāo)記為“猿猴”或者“動(dòng)物”。 另一方面,社交媒體的圖片標(biāo)簽或者自動(dòng)標(biāo)記功能可能引發(fā)關(guān)于用戶隱私的爭(zhēng)議,比如,F(xiàn)acebook的圖片標(biāo)記功能利用人臉識(shí)別技術(shù)就圖片中的人像向用戶進(jìn)行“標(biāo)簽推薦”,這被認(rèn)為是在未獲用戶明確同意的情況下收集用戶的“臉紋”等生物識(shí)別信息,違反了美國(guó)伊利諾伊州的《生物識(shí)別信息隱私法》,而被用戶提起隱私侵權(quán)訴訟,谷歌等企業(yè)的類似技術(shù)也引發(fā)了類似訴訟。因此,在歐盟、加拿大等地區(qū),F(xiàn)acebook不得不暫停這項(xiàng)技術(shù)。 2、語音識(shí)別領(lǐng)域 語音識(shí)別領(lǐng)域也已經(jīng)出現(xiàn)性別和種族歧視、倫理以及聲音權(quán)保護(hù)等問題?;谧匀徽Z言處理的語音識(shí)別正在快速發(fā)展,如亞馬遜的Alexa、蘋果的Siri、微軟的Cortana等。但這一領(lǐng)域卻被詬病為已經(jīng)產(chǎn)生了嚴(yán)重的性別歧視問題。 比如,2016年3月23日,微軟公司的人工智能聊天機(jī)器人Tay上線。出乎意料的是,Tay一開始和網(wǎng)民聊天,就被“教壞”了,成為了一個(gè)集反猶太人、性別歧視、種族歧視等于一身的“不良少女”。于是,上線不到一天,Tay就被微軟緊急下線了。類似的倫理問題已經(jīng)引起諸多關(guān)注,批判硅谷正在將人類社會(huì)既有的種族歧視、性別歧視等問題帶入機(jī)器學(xué)習(xí)的聲音逐漸增多。 同時(shí),在模擬人聲方面,也出現(xiàn)聲音是否受法律保護(hù)以及怎樣保護(hù)的問題。比如,已經(jīng)出現(xiàn)使用名人聲音進(jìn)行人工智能語音訓(xùn)練從而實(shí)現(xiàn)智能模仿他人聲音效果的業(yè)務(wù)形態(tài)。 在國(guó)內(nèi),對(duì)于這種所謂的“聲音權(quán)”并無明文規(guī)定,相關(guān)學(xué)者認(rèn)為可以通過設(shè)立肖像聲音權(quán)、聲音語言權(quán)、形象權(quán)、獨(dú)立聲音權(quán)等方面進(jìn)行保護(hù),但尚未達(dá)成一致。在國(guó)外,對(duì)聲音進(jìn)行明確法律保護(hù)的國(guó)家或地區(qū)也較少,比如,澳門、捷克斯洛伐克和美國(guó)加利福尼亞州等為數(shù)不多的國(guó)家或地區(qū),美國(guó)也有將其作為商品化權(quán)進(jìn)行保護(hù)的觀點(diǎn),相關(guān)的立法動(dòng)態(tài)后續(xù)還需要繼續(xù)保持關(guān)注。 3、廣告投放領(lǐng)域 廣告投放領(lǐng)域面臨的問題主要集中在用戶數(shù)據(jù)的收集和使用、算法歧視等方面。算法歧視早已引起人們關(guān)注,在互聯(lián)網(wǎng)廣告領(lǐng)域同樣存在這一問題。 比如,研究表明,在谷歌搜索中,相比搜索白人的名字,搜索黑人的名字更容易出現(xiàn)暗示具有犯罪歷史的廣告。再比如,在谷歌的廣告服務(wù)中,男性比女性看到更多高薪招聘廣告,當(dāng)然,這可能和在線廣告市場(chǎng)中固有的歧視問題有關(guān),廣告主可能更希望將特定廣告投放給特定人群。 此外,基于用戶自動(dòng)畫像和自動(dòng)化決策的的精準(zhǔn)廣告投放正日益流行(自動(dòng)化決策在信貸、保險(xiǎn)等領(lǐng)域的應(yīng)用也在加強(qiáng)),其中涉及用戶數(shù)據(jù)的收集使用、對(duì)用戶保持透明以及歧視等問題。 各國(guó)對(duì)人工智能法律政策問題的探索 1、在知識(shí)產(chǎn)權(quán)方面 人工智能中新產(chǎn)生作品的權(quán)利歸屬問題較為突出。歐盟法律事務(wù)委員會(huì)建議歐盟委員會(huì)就與軟硬件標(biāo)準(zhǔn)、代碼有關(guān)的知識(shí)產(chǎn)權(quán)提出一個(gè)更平衡的路徑,以便在保護(hù)創(chuàng)新的同時(shí),也促進(jìn)創(chuàng)新。同時(shí),對(duì)于計(jì)算機(jī)或者機(jī)器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨(dú)立智力創(chuàng)造”的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。 此外,國(guó)際標(biāo)準(zhǔn)化組織IEEE在其標(biāo)準(zhǔn)文件草案《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)(AI/AS)最大化人類福祉的愿景》中也提出,應(yīng)對(duì)知識(shí)產(chǎn)權(quán)領(lǐng)域的法規(guī)進(jìn)行審查,以便明確是否需對(duì)AI參與創(chuàng)作的作品的保護(hù)作出修訂,其中基本原則應(yīng)為,如果AI依靠人類的交互而實(shí)現(xiàn)新內(nèi)容或者發(fā)明創(chuàng)造,那么使用AI的人應(yīng)作為作者或發(fā)明者,受到與未借助AI進(jìn)行的創(chuàng)作和發(fā)明相同的知識(shí)產(chǎn)權(quán)保護(hù)。 2、在隱私和數(shù)據(jù)保護(hù)方面 在人工智能領(lǐng)域,歐盟認(rèn)為除了應(yīng)該按照必要性原則和比例原則等保護(hù)隱私和數(shù)據(jù)之外,還應(yīng)該有更多的標(biāo)準(zhǔn)、規(guī)范。 歐盟法律事務(wù)委員會(huì)建議,在針對(duì)人工智能和機(jī)器人制定政策時(shí),應(yīng)當(dāng)進(jìn)一步完善通過設(shè)計(jì)保護(hù)隱私(privacy by design)、默認(rèn)保護(hù)隱私(privacy by default)、知情同意、加密等概念的標(biāo)準(zhǔn)。當(dāng)個(gè)人數(shù)據(jù)成為“流通物”使用時(shí),在任何情況下都不得規(guī)避涉及隱私和數(shù)據(jù)保護(hù)的基本原則。 其實(shí),在2016年通過的《一般數(shù)據(jù)保護(hù)條例》(簡(jiǎn)稱GDPR)中,歐盟就加強(qiáng)了個(gè)人隱私和數(shù)據(jù)保護(hù),其中關(guān)于用戶畫像等自動(dòng)化決策的規(guī)定將對(duì)基于大數(shù)據(jù)的互聯(lián)網(wǎng)行業(yè)實(shí)踐產(chǎn)生重大影響,即用戶有權(quán)拒絕企業(yè)對(duì)其進(jìn)行畫像等自動(dòng)化決策,而且用于用戶畫像的數(shù)據(jù)不能包括人種或者種族起源、政治意見、宗教或者哲學(xué)信仰、商會(huì)會(huì)員、基因、生物特征、健康狀況、性生活等特殊類別的個(gè)人數(shù)據(jù)。這將對(duì)個(gè)性化服務(wù)的提供產(chǎn)生重大影響。 3、在標(biāo)準(zhǔn)化建設(shè)方面 國(guó)際社會(huì)將推進(jìn)標(biāo)準(zhǔn)化工作作為人工智能發(fā)展的重要抓手。 歐盟法律事務(wù)委員會(huì)建議歐盟委員會(huì)應(yīng)繼續(xù)致力于技術(shù)標(biāo)準(zhǔn)的國(guó)際統(tǒng)一,歐盟層面,需要建立相應(yīng)的標(biāo)準(zhǔn)化框架,以免造成歐盟各成員國(guó)之間標(biāo)準(zhǔn)的不統(tǒng)一以及歐盟內(nèi)部市場(chǎng)的分裂。 此外,IEEE于去年年底出臺(tái)的指南文件中也呼吁各方形成一系列標(biāo)準(zhǔn),用于指導(dǎo)人工智能研發(fā)和應(yīng)用。 美國(guó)在去年出臺(tái)的涉及人工智能、自動(dòng)駕駛等的多份報(bào)告和政策如《聯(lián)邦自動(dòng)駕駛汽車政策》、《美國(guó)國(guó)家人工智能研發(fā)戰(zhàn)略計(jì)劃》、《為人工智能的未來做好準(zhǔn)備》等中,也要求加強(qiáng)并統(tǒng)一技術(shù)、數(shù)據(jù)使用、安全等標(biāo)準(zhǔn)建設(shè),避免造成碎片化的問題,影響人工智能研發(fā)和應(yīng)用。 4、其他法律政策方面 ?。?)算法決策公開透明化 實(shí)現(xiàn)算法決策的透明性和公平性是國(guó)際社會(huì)的一個(gè)主流關(guān)注點(diǎn)。基于機(jī)器學(xué)習(xí)的自主或者自動(dòng)化的決策系統(tǒng)日益被廣泛應(yīng)用在推薦引擎、精準(zhǔn)廣告、信貸、保險(xiǎn)等諸多領(lǐng)域,甚至政府部門也利用自動(dòng)化決策來處理給犯罪人定罪量刑等公共事務(wù),然而算法模型的設(shè)計(jì)都是編程人員的主觀選擇和判斷,所使用的數(shù)據(jù)也可能是不相關(guān)和不準(zhǔn)確的,這就可能導(dǎo)致自動(dòng)化決策的結(jié)果影響個(gè)人權(quán)益,或者對(duì)某些群體造成歧視。 確保算法及其決策可以有效接受中立第三方或者監(jiān)管機(jī)構(gòu)的審查,實(shí)現(xiàn)算法決策的透明性和公平性,是國(guó)際社會(huì)的一個(gè)主流關(guān)注點(diǎn)。IEEE提出,應(yīng)當(dāng)為個(gè)人提供異議和救濟(jì)的渠道。歐盟的GDPR則賦予個(gè)人反對(duì)自動(dòng)化決策的權(quán)利,意味著算法決策需要透明化。 ?。?)防止歧視和偏見 國(guó)際社會(huì)日益重視在人工智能領(lǐng)域?qū)?shù)據(jù)的收集和分析進(jìn)行規(guī)范,以防止歧視或偏見。 美國(guó)聯(lián)邦貿(mào)易委員會(huì)(FTC)在2016年1月發(fā)布的《大數(shù)據(jù):包容性工具抑或排斥性工具?》(Big Data: a Tool for Inclusion or Exclusion?)特別關(guān)注大數(shù)據(jù)中的歧視和偏見問題,對(duì)于消費(fèi)者,一方面需要確保公平機(jī)會(huì)法律得到有效執(zhí)行,另一方面防止大數(shù)據(jù)分析中采取歧視等不公平行為;對(duì)于企業(yè),F(xiàn)TC建議企業(yè)考察以下問題:數(shù)據(jù)集是否具有代表性,所使用的數(shù)據(jù)模型是否會(huì)導(dǎo)致偏見,基于大數(shù)據(jù)進(jìn)行預(yù)測(cè)的準(zhǔn)確性如何,對(duì)大數(shù)據(jù)的依賴是否會(huì)導(dǎo)致道德或者公平性問題。 其實(shí),早在2014年5月,美國(guó)白宮就發(fā)布了《大數(shù)據(jù):抓住機(jī)遇,保存價(jià)值》中呼吁重視自動(dòng)化決策中的歧視問題,要求民權(quán)和消費(fèi)者保護(hù)機(jī)構(gòu)及FTC等政府機(jī)構(gòu)加強(qiáng)專業(yè)知識(shí),調(diào)查并解決潛在的歧視問題。