續(xù)俊旗認(rèn)為,人工智能的發(fā)展,將對社會治理、法律制度、監(jiān)管乃至社會倫理等產(chǎn)生影響。比如,隨著人工智能的高度智能化,機(jī)器越來越具有人的屬性,可能對婚姻制度、家庭倫理等產(chǎn)生大的影響。對于社會治理、法律制度、政府監(jiān)管等,也會帶來越來越多的挑戰(zhàn)。
“我們不會去制定一部人工智能法,而是在不同的領(lǐng)域、不同的產(chǎn)業(yè)探究人工智能的發(fā)展對該領(lǐng)域、產(chǎn)業(yè)的影響,有些問題可以適用現(xiàn)有法律規(guī)則,有些需要對現(xiàn)有規(guī)則進(jìn)行修正,甚至制定新的法律規(guī)則。人工智能會對法律制度帶來挑戰(zhàn),但現(xiàn)階段無需過于擔(dān)心。其實(shí),人工智能沒有從根本上改變我們現(xiàn)有的法律關(guān)系。法律關(guān)系是在社會活動中人與人之間產(chǎn)生的權(quán)利義務(wù)的分配關(guān)系。人工智能迄今還只是一個輔助工具。產(chǎn)生的問題,比如自動駕駛的侵權(quán)問題,歸根結(jié)底還是可以在自動駕駛方案提供者、汽車廠商或者使用者之間進(jìn)行歸責(zé)而解決。”續(xù)俊旗說。
“既然目前對人工智能的判斷是‘工具’的話,很多法規(guī)體系的建設(shè)可以加速推進(jìn)。如自動駕駛技術(shù)都已經(jīng)很成熟了,可以考慮加速完善相關(guān)的保險(xiǎn)制度等。既然認(rèn)定機(jī)器人是工具,則應(yīng)打破‘機(jī)器人面紗’,該由誰承擔(dān)法律責(zé)任,就由誰承擔(dān)法律責(zé)任。很多人似乎都在關(guān)注機(jī)器人的人格化,但在人工智能法律環(huán)境研究的初期,建議大家盡可能開拓思路。如人格的虛擬化(人的生命結(jié)束后的人格存續(xù)問題)、人工智能偵查(控制有犯罪動機(jī)的人)等也值得研究。”全球移動通信協(xié)會(GSMA)政策工作組成員、中國通信學(xué)會會士、中國聯(lián)通研究院研究員金耀星說。
利用人工智能犯罪如何追究責(zé)任
隨著人工智能發(fā)展方興未艾,一些不法分子打起了歪主意。
今年9月,浙江紹興警方公布破獲全國首例利用人工智能技術(shù)竊取公民個人信息的案件,徹底摧毀43個犯罪團(tuán)伙,抓獲犯罪嫌疑人193人,成功截留被盜的公民個人信息10億余組,繳獲贓款600余萬元。
據(jù)了解,被警方查封的平臺叫作“快啊”,曾經(jīng)是市場上最大的打碼平臺。它們在破解、竊取、販賣和盜用個人信息實(shí)施詐騙上有著完整的鏈條,其中人工智能技術(shù)運(yùn)用在識別驗(yàn)證碼這個環(huán)節(jié)。
“‘人工智能的犯罪問題’是一個前沿中的前沿問題,刑法學(xué)界對于人工智能犯罪問題的研究還很少。”在亞太網(wǎng)絡(luò)法律研究中心舉行的“‘網(wǎng)絡(luò)與法律對話’學(xué)術(shù)沙龍第三十二期——人工智能發(fā)展的法律挑戰(zhàn)及其對策”上,中國社會科學(xué)院法學(xué)研究所、中國應(yīng)用法學(xué)研究所博士后,中國法學(xué)會法治研究所副研究員劉燦華說,“我們要研究的是,現(xiàn)實(shí)中會出現(xiàn)什么人工智能的犯罪問題?這里的‘犯罪問題’,是指人工智能的類人行為導(dǎo)致社會危害結(jié)果而引發(fā)的是否構(gòu)成犯罪的問題,而不包括損害人工智能的犯罪問題。”
根據(jù)劉燦華的總結(jié),人工智能犯罪問題可能有這樣三種情形:
利用人工智能技術(shù)實(shí)施犯罪,即因?yàn)槿斯ぶ悄艿娜毕荻a(chǎn)生的犯罪行為。由于設(shè)計(jì)上的缺陷或者硬件缺陷、故障等原因,機(jī)器人實(shí)施了危害行為。例如,購買毒品、機(jī)器人警衛(wèi)誤傷小孩、無人駕駛車交通肇事等,都是在現(xiàn)實(shí)中發(fā)生的案例。
人工智能“自主決定”實(shí)施的犯罪行為。將來如果人工智能進(jìn)一步發(fā)展,機(jī)器人有自我決策能力的時候,可能會出現(xiàn)機(jī)器人自己決定實(shí)施某一“危害行為”,而若由自然人來實(shí)施這一行為則可能會構(gòu)成犯罪。
“第一種情形不存在刑法學(xué)的難題,人工智能技術(shù)在這里只是一個犯罪工具。”劉燦華說,第二種情形的刑法學(xué)問題有兩個。第一個問題,有關(guān)的行為不是人的行為,也就是說,機(jī)器的行為能否讓人來負(fù)責(zé)、讓誰來負(fù)責(zé)。“我們可以理所當(dāng)然地想到是機(jī)器(人工智能)的制造者的責(zé)任。但是制造者對于其產(chǎn)品導(dǎo)致危害后果而要承擔(dān)的刑事責(zé)任是有限的,不是說產(chǎn)品出問題了,就能導(dǎo)致刑事責(zé)任。那么制造者承擔(dān)刑事責(zé)任的邊界在哪里?與傳統(tǒng)的產(chǎn)品刑事責(zé)任是否適用同樣的規(guī)則?這些都是人工智能可能給我們帶來的新問題。第二個問題,假設(shè)能夠?qū)C(jī)器人的行為當(dāng)作是人的行為,但是在個案中,很難證明制造商在主觀上有故意或者過失。這里我們可能需要討論的是,在這個領(lǐng)域,是否要對故意或者過失重新解釋,甚至引入嚴(yán)格責(zé)任。”