對大部分人來說,“人工智能”意味著科幻電影中能夠給出聰明解釋的人工智能,電影中人類可以快速決定自己是否同意,這樣易于進(jìn)行法律驗證。大多數(shù)聽到公司是“人工智能第一位”或“增加人工智能”的人,包括法官和撰寫《一般數(shù)據(jù)保護(hù)條例》(GDPR)等法律的人,都會期待和電影中一樣的“人工智能”,即如果被法院傳召,它能夠捍衛(wèi)自己的決定,這令用戶和法官都印象深刻。然而我們得到的是無法解釋的“深度學(xué)習(xí)人工智能”,僅僅因為其缺乏可解釋性,這些人工智能即使在它們能夠解決的問題上也不會經(jīng)常得到使用。深度學(xué)習(xí)無法節(jié)省成本,也不會取代那些需要敏銳的自動決策的工作。即使在人類必須作出最終決策的情況下,人工智能工具能夠解釋自己的建議,也比它不給出理由就做出回應(yīng)更加可取??山忉尩娜斯ぶ悄芤坏┍唬ㄖ匦拢┌l(fā)現(xiàn),將會更加安全、合法、廉價、快速,并且取代深度學(xué)習(xí)和人類。深度學(xué)習(xí)在 20 世紀(jì)60到80年代發(fā)明,而到2010年才重新被發(fā)現(xiàn),或許未來可解釋的人工智能基礎(chǔ)也已經(jīng)被某些研究者描述出來,但是由于不是深度學(xué)習(xí),所以可能在許多年內(nèi)都沒人關(guān)心和開發(fā)該類型的人工智能,直到它們被重新發(fā)現(xiàn)和炒熱。
關(guān)于自動決策的GDPR也需要防范基于種族、意見、健康狀況等產(chǎn)生的歧視。但是使用用戶生成的數(shù)據(jù),如社交媒體和新聞(而不是真實的數(shù)據(jù),例如醫(yī)療或財務(wù)記錄)訓(xùn)練的深度學(xué)習(xí)模型通常暗含邪惡的偏見。如前所述,深度學(xué)習(xí)可以讀取大量文本和數(shù)據(jù),并模仿其內(nèi)容,但無法批判性地理解內(nèi)容。深度學(xué)習(xí)只相信它在數(shù)據(jù)中頻繁看到的事物、底層模式和趨勢,因此它會放大人類社會的偏見和問題。如果數(shù)據(jù)顯示被逮捕的黑人比白人多,那么一旦有人犯罪,深度學(xué)習(xí)將首先懷疑黑人。數(shù)據(jù)顯示公司董事會董事中男性比例高于女性,深度學(xué)習(xí)將在招聘中更傾向于男性應(yīng)聘者。
深度學(xué)習(xí)決策會比訓(xùn)練數(shù)據(jù)的平均樣本包含更深刻的偏見,如種族歧視、性別歧視。這個問題在所有的機(jī)器學(xué)習(xí)算法中都會發(fā)生,但是深度學(xué)習(xí)模型是其中最難測試、檢測、控制和調(diào)整的。例如聊天機(jī)器人變得納粹化、充滿仇恨,或者美圖軟件中給黑人照片美白。這個問題很難解決,與其試圖解決它,很多深度學(xué)習(xí)實驗直接因為它而突然取消。
你無法通過在訓(xùn)練之后添加補丁,來修復(fù)一個帶有偏見、種族和性別歧視的深度學(xué)習(xí)模型。深度學(xué)習(xí)是一個神經(jīng)網(wǎng)絡(luò),與其他人工智能方法不同,你無法通過局部補救來修改某個答案,而是必須使用不同的、完全平衡以及公正的、稀有的真實世界數(shù)據(jù)對該網(wǎng)絡(luò)進(jìn)行重新訓(xùn)練。深度學(xué)習(xí)可以在不理解數(shù)據(jù)的情況下模仿數(shù)據(jù)中的內(nèi)容:它不會否定任何數(shù)據(jù),不會發(fā)現(xiàn)社會上的偏見,而只是“學(xué)習(xí)數(shù)據(jù)”。你應(yīng)該雇傭一個人類員工,專門創(chuàng)建來自理想社會的假的、公正的數(shù)據(jù),在這里白人與黑人被逮捕的頻率相同,董事會中50%的董事都是女性,等等。但是,由人類專家創(chuàng)建海量無偏見數(shù)據(jù)的成本如果僅是為了訓(xùn)練深度學(xué)習(xí)模型,用人工智能取代人類的價值又在哪里呢!此外,即使你已經(jīng)訓(xùn)練出真正公正的深度學(xué)習(xí)模型,你也沒有證據(jù)可以向法官或用戶證明其決策的公正性,因為它無法提供解釋。
深度學(xué)習(xí)用于沒有法律風(fēng)險的非商業(yè)應(yīng)用或者游戲,其重要性將會降低。當(dāng)可解釋的人工智能流行起來時,深度學(xué)習(xí)將會像磁帶或陰極電視一樣被拋棄。在游戲中輸給機(jī)器人的人類不太可能說服法官因為人工智能公司無法解釋人工智能是怎么贏的而對其罰款。不滿FaceApp把自己的自拍照修的更老、更年輕,或者換了性別的人也不太可能說服法官因為FaceApp無法解釋人工智能是如何決定新面孔的而對其罰款(除了一個“種族變化”濾鏡,遭到大規(guī)模抗議后被移除,完全不需要法官參與)。在醫(yī)療圖像中進(jìn)行疾病檢測是一項安全的深度學(xué)習(xí)應(yīng)用,前提是用戶在服藥之前先向人類醫(yī)生尋求確認(rèn)。
合法的深度學(xué)習(xí)市場非常有限:在決策結(jié)果造成財政、健康上的區(qū)別,或者存在歧視,而深度學(xué)習(xí)無法幫助人們理解決策是否公正以及為什么公正的時候,法官都可以進(jìn)行處罰。那么自動駕駛呢?似乎在藝術(shù)、游戲或高級幽默以外的領(lǐng)域使用深度學(xué)習(xí)都有法律風(fēng)險。有需要時,現(xiàn)有的非深度學(xué)習(xí)方法可以取代深度學(xué)習(xí),新方法也會被(重新)發(fā)現(xiàn),因此人工智能的發(fā)展將會繼續(xù)順利進(jìn)行。尤其是如果每個人都將研究(并投資)人工智能和機(jī)器學(xué)習(xí)科學(xué)領(lǐng)域中的所有新舊算法,而不只是深度學(xué)習(xí):這也是成為“人工智能全方位專家”的唯一路徑。