幾年前,關于人工智能的法律人格和法律權利的話題可能只會在科幻小說中出現(xiàn)。但這只是過去。我們現(xiàn)在是否也需要思考AI的權利了呢?
你必須爭取的AI權利
大家都已經(jīng)清楚地知道,人工智能機器在復制人腦的道路上走得越來越遠。從某種程度上講,我們目前的人工神經(jīng)網(wǎng)絡所擁有的神經(jīng)元比蜜蜂和蟑螂等生物還要多,而且數(shù)量在不斷增加。

而大型的項目旨在創(chuàng)造更多的生物合成算法,目的是復制人類大腦的運作方式,而不只是簡單地模仿我們的記憶方式。此外,還有一些項目旨在將人類意識轉化為機器形態(tài),或者類似于所謂的“OpenWorm”項目,這一項目旨在為微小的雌雄雙性線蟲構造出人類的神經(jīng)連接體(即中樞神經(jīng)系統(tǒng)的連接圖),而這是人類迄今所能完成的唯一一幅完整的神經(jīng)連接體。
在2016年進行的一項調(diào)查中,175名行業(yè)專家中有90%的人認為,到2075年,人工智能可以達到與人類對等的水平。
在我們達到這個水平之前,隨著人工智能逐漸超越動物智能,我們將不得不開始思考,人工智能的權利與我們給動物定義的“權利”之間有什么關系。想象一下,強迫智能電梯上下移動的行為可能是很殘忍的。幾年前,英國科技作家比爾·湯普森曾寫道,人們在開發(fā)AI產(chǎn)品時總是傾向于不傷害到自己,“這反映出人們總是認為人工智能是為人類服務的,而不具有獨立的思維。”
然而,我們現(xiàn)在所面臨的最緊迫的問題關乎到人工智能是否具有合法權利。簡單地說,我們是否應該考慮授予它們某種形式的法律人格呢?這并不像聽起來那么荒謬,也不代表在我們的社會中AI已經(jīng)“上升到了”某種特定的地位。但是這反映了目前AI在我們的生活中扮演的并且將繼續(xù)發(fā)揮作用的角色。
非智能律師時代的智能工具
目前,我們的法律體系在很大程度上假定我們面對的是一個充斥著非智能工具的世界。我們可能會談論槍支管制的重要性,但我們?nèi)匀粫卸ǔ謽寕说哪莻€人有罪,而不是槍支本身。如果這把槍本身是有缺陷的,那么我們就會追究制造槍支的公司的責任。
到目前為止,這種思維模式在很大程度上被直接運用到了人工智能和機器人的世界。1984年,一家名為AthloneIndustries的美國公司的所有者被告上了法庭,因為人們認為他們的擊球訓練機器太過殘暴。該案之所以值得提起,是因為法官宣布訴訟是針對Athlone公司,而非擊球機器人,因為“機器人不能被起訴”。
2009年,一名英國司機在他的GPS系統(tǒng)指示下沿著一條狹窄的懸崖邊行駛,結果導致他被困,不得不被警察拖回主路。盡管他將問題歸咎于技術,但法院認定他犯有疏忽大意的錯誤。
然而,今天(當然也包括未來)的人工智能技術和昨日的科學技術之間存在著太多差異。像自動駕駛汽車或機器人這樣的智能設備不僅會被人類使用,而且會被支配——當然,之后它們會獨立完成指令。智能設備能夠運用機器學習算法,自行收集和分析信息,然后做出決定。這也不能完全責怪技術的創(chuàng)造者。
正如華盛頓喬治城大學的法學教授大衛(wèi)·維拉德克所指出的,在這一領域少數(shù)的深入案例研究中,有大量的個人和公司參與了人工資能組件的設計、修改和整合,因此很難確定誰來負最終的責任。當談論人工智能的“黑匣子”時,這個系統(tǒng)是非常難以捉摸的。
大衛(wèi)·維拉德克曾寫道:“一些組件可能是在人工智能項目還沒被構思出來之前就已經(jīng)被設計出來了,而組件的設計者們可能從來沒有想過,他們的設計會被納入任何人工智能系統(tǒng),更不用說那些造成傷害的人工智能系統(tǒng)了。”在這種情況下,如果把責任歸咎于一個并沒有參與到人工智能系統(tǒng)的完成和操作過程中的組件設計者,聽起來并不公平。法院可能難以判定,這樣一個組件的設計者是否預見到了所發(fā)生的危害。
公司所扮演的角色
賦予人工智能一個法律上的實體地位并不是完全沒有先例的。公司長期以來扮演著這樣的角色,這就是為什么公司可以擁有資產(chǎn),或者被起訴,而這些事情不必須以首席執(zhí)行官或執(zhí)行董事的名義來完成。