如果在訓(xùn)練數(shù)據(jù)集中納粹主義是最流行的觀點,深度學(xué)習(xí)靠自己永遠(yuǎn)無法明白為什么殺害猶太人、同性戀以及殘疾人是錯誤的。難怪深度學(xué)習(xí)無法解釋其自身決策,除了最簡單的:“我(深度學(xué)習(xí))讀到最多的是‘納粹主義是正確的’,因此它應(yīng)該是正確的”。深度學(xué)習(xí)將會學(xué)習(xí)并模仿最具缺陷的邏輯而不去思考它的缺陷,包括恐怖主義。甚至孩童都可以自己明白電影中哪個家伙是壞人,但是深度學(xué)習(xí)做不到,除非人類首先明確教導(dǎo)它。深度學(xué)習(xí)中有些東西很酷,比如帶有反向傳播的梯度下降,以及自定義的深度學(xué)習(xí)硬件,但這大多來自統(tǒng)計學(xué)和幾何學(xué),很可能不會出現(xiàn)在 2037 年的人工智能時代。
對很多任務(wù)來說,深度學(xué)習(xí)人工智能正在或者將會變成違法的、不被社會所兼容的。**2018年5月25日起,公司或個人在收集 28 個歐洲國家公民數(shù)據(jù)時應(yīng)遵循《一般數(shù)據(jù)保護(hù)條例》(GDPR)。屆時歐洲的一些APP將被禁止使用深度學(xué)習(xí),這導(dǎo)致AI初創(chuàng)公司拼命尋找深度學(xué)習(xí)的替代方案,否則將面臨罰款的風(fēng)險。罰款金額為全球營收的4%,包括美國部分。關(guān)于自動化決策的GDPR要求深度學(xué)習(xí)具有解釋其決策的能力,以及防止基于種族、觀點、健康等歧視現(xiàn)象的發(fā)生。**類似于GDPR的法律正在全球范圍內(nèi)制定,這只是時間問題。《美國公平信用報告法》要求披露所有對消費(fèi)者信用評分產(chǎn)生不利影響的因素,最多只允許有4個。深度學(xué)習(xí)的因素可謂海量,而不僅僅是4個,如何將其簡化為4個呢?人工智能,正如比特幣ICO,開始忽視法規(guī),但是法律與懲罰總會降臨。
如果深度學(xué)習(xí)系統(tǒng)的工作是采取更多相關(guān)決策,而不是簡單區(qū)分一張圖像是否是貓,或者在自拍的哪部分添加兔耳,它們將會被非深度學(xué)習(xí)系統(tǒng)取代。人工智能必須是負(fù)責(zé)任的,可以使用簡單、合法有效的語言向法官和用戶解釋其輸出結(jié)果,這與深度學(xué)習(xí)大不相同。深度學(xué)習(xí)的復(fù)雜性,對法官和用戶來說就像是“魔術(shù)”,這是一種法律風(fēng)險,而不是一個很酷的未來。深度學(xué)習(xí)將會建議或警示人類,比如從醫(yī)療圖像中檢測疾病,并獲得醫(yī)生的驗證,但這只是缺乏細(xì)節(jié)的部分自動化。面對被人工智能拒絕、并尋求解釋的人們(例如工作、貸款被拒絕等),我們能說什么呢?
法律包含“解釋權(quán)”,比如為什么工作或貸款被拒絕。深度學(xué)習(xí)給出的是非自然(合法)語言解釋的結(jié)果。深度學(xué)習(xí)的代碼容易獲得,卻不為法官或用戶所接受,因為即使最好的數(shù)學(xué)家或其他算法也無法搞明白它,或者將模型簡化成可以理解的語言。即使最后的決策是由人類做出的,人工智能工具也應(yīng)給出詳細(xì)的理由,人們可以認(rèn)為它是錯的(然后無視、推翻人工智能的決定),或者通過簡單的復(fù)制、粘貼并且簽署人工智能給出的解釋來快速接受。沒有人知道如何修改深度學(xué)習(xí)以給出簡單到人類可理解的解釋,因此深度學(xué)習(xí)不可能做到完全與我們的要求相符!這一問題同樣影響到了若干其他人工智能和機(jī)器學(xué)習(xí)算法,但不像深度學(xué)習(xí)受影響那么嚴(yán)重。比如,如果決策樹算法變成提升樹或集成樹,它也會變得不可解釋。但是未來,可能會出現(xiàn)或發(fā)現(xiàn)能為自己的決策辯護(hù)的新的人工智能,它們將會在常規(guī)決策中取代深度學(xué)習(xí)和人類的位置。
在GDPR規(guī)定的情況中,只有人類職員可以拒絕申請:人工智能可自動化完成積極的結(jié)果,否則,如果它拒絕了一項貸款、工作等,就應(yīng)該將這項任務(wù)交給人,讓人工來處理這些會讓用戶感到生氣或者要追究的消極結(jié)果。但是在拒絕的情況下,人類將不會從基于深度學(xué)習(xí)的人工智能中獲得幫助或解釋,他們不能獲知深度學(xué)習(xí)的邏輯是否正確。他們需要自己從頭檢查數(shù)據(jù),以決定是否最終拒絕,并且要為這個決定寫一份合理的解釋。此舉風(fēng)險在于為了節(jié)約時間和成本,人類員工會為人工智能的拒絕決定編造假的解釋,并盲目接受人工智能的認(rèn)可。但是決定人工智能給出拒絕決策的公平性的法官會詢問為什么別人的被接受了,并且進(jìn)行對比。安全起見,無論類似GDPR的法規(guī)是如何規(guī)定的,對于接受和拒絕,你都要有充足的理由。非深度學(xué)習(xí)的人工智能系統(tǒng)將最終成為唯一被人類所采用的系統(tǒng),它們會把所有決策的解釋提供給用戶、法官和支持人員,不論是完全或部分自動化的決策。
在法律和深度學(xué)習(xí)之前,解釋性已經(jīng)是一個大問題。在反壟斷案例中,谷歌等公司被質(zhì)問為什么是這個產(chǎn)品而不是其他產(chǎn)品出現(xiàn)在搜索結(jié)果的第一個。下面也是深度學(xué)習(xí)出現(xiàn)之前的事:很多其他的算法同樣以瘋狂的方式混合數(shù)據(jù)以得到結(jié)果,因此沒有哪個人可以輕易地重構(gòu)出決策原因。法官被告知:工程師并不了解詳情,以及被當(dāng)作證據(jù)的幾頁線性代數(shù)。這樣不會有好結(jié)果:甚至在特定的法律存在之前,多個案例承擔(dān)著數(shù)十億美元的罰款,收到要更變系統(tǒng)的警告。被自動拒絕了工作、貸款、退款的用戶集體起訴商店、銀行或保險公司的自動決策單元,將會變成常態(tài),所以無法解釋便意味著“無以辯護(hù)”、被罰款以及一場品牌公關(guān)災(zāi)難。