人工智能已經(jīng)開始在你決定未來的過程中發(fā)揮作用了無論你的Netflix瀏覽偏好是什么,你是否適合抵押貸款,還是你是否與你期望的boss相容。但是,至少就目前而言,我們?yōu)槭裁床荒艹姓J(rèn)讓人工智能在法庭上判定罪犯有罪或無罪是一個(gè)過分的舉動(dòng)?
令人擔(dān)憂的是,這似乎已經(jīng)發(fā)生了。最近美國首席大法官John Roberts最近出席一場活動(dòng)時(shí),有人問他是否曾預(yù)見到有朝一日“智能機(jī)器在人工智能的驅(qū)動(dòng)下協(xié)助法庭裁決,甚至是更有爭議的司法裁決”。他回應(yīng)道:“這一天已經(jīng)近在眼前,這也給司法部門的工作帶來了巨大壓力。”
Roberts可能指的是最近的Eric Loomis案件,至少有部分的判決建議是來源于一家私人公司的秘密專利軟件,而Loomis最終被判了6年監(jiān)禁。Loomis有犯罪史,他此次是因?yàn)樵谝惠v偷來的汽車中襲警并逃離而被判處死刑,現(xiàn)在他聲稱,他的正當(dāng)程序被侵犯了,因?yàn)樗退穆蓭煻疾荒茏屑?xì)審查或質(zhì)疑生成這一建議的算法是否合理。
這份建議報(bào)告是由一款名為Compas的軟件產(chǎn)品生產(chǎn)的,該產(chǎn)品由Nortpointe公司銷售并出售給法庭。
該計(jì)劃是人工智能研究領(lǐng)域的一種新趨勢的代表:旨在幫助法官在法庭上做出“更好”的決策或者至少是以數(shù)據(jù)為中心的決策的新趨勢。
盡管Loomis的報(bào)告的具體細(xì)節(jié)仍被密封,但這份文件可能會(huì)包含許多圖表和圖表,以量化Loomis的生活、行為和再犯的可能性。這可能還包括他的年齡、種族、性別認(rèn)同、瀏覽習(xí)慣,以及……我也不太明白……他的頭骨尺寸。關(guān)鍵是我們什么都不了解。
我們所知道的是,案件的檢察官告訴法官,Loomis展示了“高風(fēng)險(xiǎn)的暴力,高風(fēng)險(xiǎn)的再犯真的是太高的風(fēng)險(xiǎn)了。”
在量刑方面,這些都是標(biāo)準(zhǔn)。法官同意了這份報(bào)告的結(jié)果并告知Loomis說他已經(jīng)“通過公司的評估,確認(rèn)是一個(gè)對社會(huì)來說高風(fēng)險(xiǎn)的人”。
威斯康星州最高法院裁定Loomis有罪,并補(bǔ)充說,該公司的報(bào)告給他們的決定帶來了有價(jià)值的建議,但他也說,就算沒有這個(gè)軟件的幫助,Loomis也會(huì)得到同樣的判決結(jié)果。
但我們怎么能知道這一點(diǎn)呢?當(dāng)像Compas這樣的全智能系統(tǒng)給法官提供建議時(shí),會(huì)出現(xiàn)什么樣的認(rèn)知偏差?
現(xiàn)在我們要明確一點(diǎn),那就是威斯康星州法院沒有“非法”的行為這僅僅是一個(gè)不太好的主意而已。其他法院也可以自由地做同樣的事情。
令人擔(dān)憂的是,我們實(shí)際上并不知道人工智能和其他算法在量刑方面的使用程度。
我自己的研究表明,有幾個(gè)司法管轄區(qū)都在類似于學(xué)校那樣“試用”系統(tǒng)進(jìn)行封閉實(shí)驗(yàn),但沒人能公布他們合作伙伴的詳細(xì)情況,也不能公布它們會(huì)在何時(shí)何地使用。
我們也知道,有許多人工智能創(chuàng)業(yè)公司正在爭相打造類似的系統(tǒng)。
然而,在法律中使用人工智能并不是從量刑開始,而是從調(diào)查開始。一種名為VALCRI的系統(tǒng)已經(jīng)被開發(fā)出來,它僅在幾秒鐘內(nèi)就能完成犯罪分析人員的勞動(dòng)密集型工作:費(fèi)力地瀏覽大量的數(shù)據(jù),如文本、實(shí)驗(yàn)室報(bào)告和警方文件,記錄并突出可能需要進(jìn)一步調(diào)查的內(nèi)容。
英國的西米德蘭警方將在未來三年內(nèi)使用匿名數(shù)據(jù)進(jìn)行測試總計(jì)達(dá)650萬次。比利時(shí)的警方正在進(jìn)行類似的審判。然而,過去的人工智能和深度學(xué)習(xí)項(xiàng)目涉及大量數(shù)據(jù),一直存在問題。
科技給法庭帶來了許多好處,從影印機(jī)到DNA指紋和復(fù)雜的監(jiān)視技術(shù)。但這并不意味著任何技術(shù)都是進(jìn)步。
雖然在調(diào)查和量刑方面使用人工智能可能有助于節(jié)省時(shí)間和金錢,但它也引發(fā)了一些棘手的問題。ProPublica公司的一份報(bào)告明確指出,佛羅里達(dá)州布勞德縣的黑人被告“更有可能比白人被告誤判為再犯率偏高”。最近,Bath大學(xué)電腦科技專業(yè)的教授Joanna Bryson的工作表明,即使是算法最復(fù)雜的AI(人工智能系統(tǒng))也會(huì)繼承創(chuàng)造它們的人的那些關(guān)于種族和性別的偏見。