這種方法和其他類似技術(shù)的1個缺點在于,它們提供的解釋總是被簡化,意味著許多重要信息可能遺失。蓋斯特林說:“我們還沒有實現(xiàn)整個夢想,將來AI可以與你對話,并作出解釋。距離打造真正可解釋的AI,我們還有很長的路要走。”
了解AI的推理不僅在癌癥診斷或軍事演習(xí)等高風(fēng)險領(lǐng)域至關(guān)重要,當(dāng)這種技術(shù)被普及成為日常生活中的重要組成時,AI能夠給出解釋同樣重要。蘋果Siri團隊負責(zé)人湯姆·格魯伯(Tom Gruber)說,對于他的團隊來說,可解釋性是個關(guān)鍵因素,因為他們正嘗試讓Siri變成更聰明、更有能力的虛擬助理。格魯伯沒有討論Siri未來的具體計劃,但很容易想到,如果你收到Siri推薦的餐廳建議,你可能想知道它推薦的理由。蘋果AI研究總監(jiān)、卡內(nèi)基-梅隆大學(xué)副教授魯斯蘭·薩拉克霍特迪諾夫(Ruslan Salakhutdinov)將可解釋性作為人類與智能機器之間不斷進化的關(guān)系的核心。
正如人類的許多行為都是無法解釋那樣,或許AI也無法解釋它所做的一切??吮R恩說:“即使有人能給你看似合理的解釋,可能也不夠充分,對AI來說同樣如此。這可能是智能的本質(zhì)部分,只有部分行為能用推理解釋。有些行為只是出于本能,或潛意識,或根本沒有任何理由。”如果真是這樣的話,那么在某個階段,我們可能必須絕對相信AI的判斷,或根本不使用它。同樣的,這種判斷必須要納入社會智能。正如社會是建立在預(yù)期行為的契約之上那樣,我們需要設(shè)計出遵守和適應(yīng)我們社會規(guī)則的AI系統(tǒng)。如果我們想要制造出機器人坦克和其他殺人機器,它們的決策也需要符合我們的道德判斷標(biāo)準(zhǔn)。
為了探索這些抽象概念,我拜訪了塔夫茨大學(xué)著名哲學(xué)家、認知科學(xué)家丹尼爾·丹尼特(Daniel Dennett)。丹尼特在其最新著作《From Bacteria to Bach and Back》中稱,智能本身進化的本質(zhì)部分在于創(chuàng)造能夠執(zhí)行任務(wù)的系統(tǒng),而這些任務(wù)是系統(tǒng)的創(chuàng)造者都不知道如何執(zhí)行的。丹尼特說:“問題在于,我們必須做出什么樣的努力才能做到這一點,我們給他們定下的標(biāo)準(zhǔn)是什么,我們自己的標(biāo)準(zhǔn)呢?”
丹尼爾還對可解釋性AI的探求發(fā)出警告,他說:“我認為,如果我們要使用這些東西,并依賴它們,那么我們就需要盡可能牢牢把握住它們?nèi)绾我约盀楹谓o我們這樣的答案。”但是由于還沒有完美答案,我們應(yīng)該對AI的可解釋性保持謹慎,無論機器變得多么聰明。丹尼特說:“如果它們無法比我們更好地給出解釋,那么我們就不該相信它們。”(小?。?/p> 登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!