深度學習靠自己永遠無法明白為什么殺害猶太人、同性戀以及殘疾人是錯誤的,如果在訓練數(shù)據(jù)集中納粹主義是最流行的觀點。難怪深度學習無法解釋其自身決策,除了「我(深度學習)讀到最多的是「納粹主義是正確的」,因此它應該是正確的」。深度學習將會學習并模仿最具缺陷的邏輯,包括恐怖主義。甚至孩童可以自己明白電影中那個家伙是壞人,但是深度學習做不到,除非人類首先明確教導它。深度學習中有些東西很酷,比如帶有反向傳播的梯度下降、自定義深度學習硬件;但這多是統(tǒng)計學和幾何學的,很可能不會出現(xiàn)在 2037 年的人工智能時代。
對很多任務來說,深度學習 AI 正在或者將會變的違法。收集 28 個歐洲國家公民數(shù)據(jù)的人或公司應在 2018 年 5 月 25 日起遵循《一般數(shù)據(jù)保護條例》(GDPR),屆時歐洲的一些 APP 將被禁止使用深度學習,這導致初創(chuàng)公司拼命尋找深度學習的替代方案,否則將面臨罰款的危險。罰款金額為全球營收的 4%,包括美國部分。關于自動化決策的 GDPR 要求深度學習具有解釋其決策的能力,防止基于種族、觀點等的歧視的發(fā)生。類似于 GDPR 的法律已在全球廣泛制定,這只是時間問題?!睹绹叫庞脠蟾娣ā芬笈端袑οM者信用評分產(chǎn)生不利影響的因素,數(shù)量上限是 4 個。深度學習的因素可謂海量,而不僅僅是 4 個,如何將其簡化為 4 個呢?人工智能,正如比特幣 ICO,開始忽視法規(guī),但是法律與懲罰一直會在。
采取更多相關決策而不是區(qū)分一張圖像是否是貓,或者在自拍的哪部分添加兔耳的深度學習系統(tǒng)將會被非深度學習系統(tǒng)取代。人工智能必須是負責任的,可以使用簡單、合法有效的語言向法官和用戶解釋其輸出結(jié)果,這與深度學習大不相同。深度學習的復雜性,對法官和用戶來說就像是魔術,是一種法律風險,而不是一個很酷的未來。深度學習將會建議或警示人類,比如從醫(yī)療圖像中檢測疾病,并獲得醫(yī)生的驗證,但這是部分的自動化,缺乏細節(jié)。我們將向因為人工智能而被拒絕并尋求解釋的人們(工作、貸款被拒絕等)訴說什么呢?
法律包含「解釋權」,比如,為什么工作或貸款被拒絕。深度學習給出了非自然(合法)語言解釋的結(jié)果。深度學習的代碼容易獲得,卻不為法官或用戶所接受,因為即使最好的數(shù)學家或其他算法也無法搞明白它,將模型簡化成可以理解的語言。即使由人類做出最后的決策,人工智能也應給出詳細的理由。沒有人知道如何修改深度學習以給出簡單的人類可理解的解釋,因此深度學習不可能做到順從。這一問題同樣影響到了若干個其他人工智能和機器學習算法,但不像深度學習那么嚴重。比如,如果決策樹被提升或集成,它也會不可解釋。但是未來,新的或者重新發(fā)現(xiàn)的已解決了黑箱問題的人工智能,將會在常規(guī)決策方面取代深度學習和人類。
在 GDPR 的情況中,只有人類可以拒絕一個應用:人工智能可自動化積極的結(jié)果;如果它拒絕了一項貸款、工作等,就應該將這項任務交給人類來處理這些消極的結(jié)果。但是在拒絕的情況中,人類將不會從基于深度學習的人工智能中獲得幫助或解釋,他們不知道深度學習的邏輯是否正確。他們不得不自己從頭檢查數(shù)據(jù),以決定是否最終拒絕。風險在于為了節(jié)約時間和成本,人類會做出假的解釋,并盲目接受人工智能的認可。安全起見,對于接受和拒絕,你都要有充足的理由,無論 GDPR 中說了什么。非深度學習的 AI 系統(tǒng)把所有決策的解釋提供給用戶、法官和支持人員,將最終被人類采用,用于做出完全和部分的自動化決策。
在法律和深度學習之前,解釋性已經(jīng)是一個大問題。在反壟斷案例中,谷歌等公司被質(zhì)問為什么是這個產(chǎn)品而不是其他產(chǎn)品出現(xiàn)在搜索結(jié)果中,這也是深度學習出現(xiàn)之前的事:很多其他的算法同樣以瘋狂的方式混合算法以得到結(jié)果,因此沒有人類可以輕易地推論出決策原因。法官被告知工程師并不了解詳情,線性代數(shù)的頁面被當作證據(jù)。這無法善終:在特定的法律存在之前,多個案例承擔著數(shù)十億美元的罰款,甚至收到變更系統(tǒng)的警告。用戶的集體訴訟根據(jù)商店、銀行的自動決策單元自動拒絕工作、貸款、退款等,正越來越普遍。無法解釋意味著沒有防衛(wèi)、被罰款以及一場品牌公關災難。
對大部分人來說,「人工智能」是科幻電影《人工智能》(AI)中能夠給出聰明解讀的 AI,電影中人類可以快速決定自己是否同意,這樣易于進行法律驗證(legal validation)。大多數(shù)聽說過「AI-first」或「使用 AI」公司的人,包括法官和撰寫《一般數(shù)據(jù)保護條例》(GDPR)等法律的人,期待 AI 像電影中一樣,即使被法院傳召,也能夠捍衛(wèi)自己的決定,這令用戶和法官都印象深刻。但是,與期待不同,我們得到的是無法解釋的「深度學習人工智能」,這些人工智能即使在能夠解決的問題上也不經(jīng)常得到使用,因為其缺乏可解釋性。深度學習不會節(jié)省成本,也不會取代那些需要敏銳的自動決策的工作。即使在人類必須作出最終決策的情況下,工具 AI 解釋自己的建議也比 AI 不給出緣由就做出回應要更加可取??山忉尩?AI 一旦被(重新)發(fā)現(xiàn),將會更加安全、合法、廉價、快速,取代深度學習和人類。深度學習在 20 世紀 60 到 80 年代發(fā)明,2010 年以來重新被發(fā)現(xiàn);或許未來可解釋的 AI 的基礎也已經(jīng)被某些研究者描述出來,但是由于不是深度學習,所以可能在幾十年內(nèi)都沒人關心和開發(fā),直到它們被重新發(fā)現(xiàn)和炒熱。