如今我們可以把很多事情丟給AI去做,例如人臉識別、語言翻譯、開車等,然而,這又引發(fā)了一個新問題產(chǎn)生——AI是如何做出這些決定的?
普通計算機運行的都是人類編寫好的算法,但AI不同,我們通過輸入大量的數(shù)據(jù)來訓(xùn)練一個AI,例如各種英文與中文譯文,由AI自己“學(xué)習(xí)”得出其中的對應(yīng)關(guān)系。
(圖片來自:QZ)
由于機器并不是使用自然語言來處理信息,這就導(dǎo)致我們很難理解AI究竟是如何得出這些結(jié)論的。因此,近來也出現(xiàn)了“算法問責制”的呼聲,更容易地理解機器生成算法的過程已經(jīng)被放到了首要位置。
為此,美國喬治亞理工學(xué)院的研究人員培訓(xùn)了一個AI,它能夠在玩《青蛙過河》 (Frogger) 游戲時用英語解釋它的決策過程。
(注:《青蛙過河》 是一款80年代的經(jīng)典街機游戲,玩家需要引導(dǎo)青蛙穿過危機四伏的河流,將其一只一只引回家。)
(圖片來自:Codegolf)
事實上,這個AI并不是真正在講述它所做的事情,而是預(yù)測在相同情況下,人類會如何描述這些現(xiàn)象。簡單來說,就是研究人員給了AI一些詞匯,讓它將信息處理過程的那些字符“翻譯”成人類可理解的文字。
具體是這樣做的:
錄制人類玩《青蛙過河》的游戲過程,并對玩家進行錄音,將其轉(zhuǎn)錄成文本→將這一文本與人類玩家在游戲過程使用的算法相關(guān)聯(lián)→設(shè)計一個單獨的算法,讓AI把看到的游戲算法與人類的語言對應(yīng)起來。
比如,當AI寫道“正在等待一個可以跳躍的地方好讓我喘口氣”時,實際上它可能不是真的在等可跳躍點,只不過是它在游戲中正好處于與人類玩家類似的場景,所以用了這些詞匯對此進行描述。
就目前的研究進展來看,這個AI仍然只是一個概念的證明,研究人員表示它還需要專門的訓(xùn)練才能用于其他任務(wù)的執(zhí)行,但至少表明人類在探索AI思考過程中邁進了一小步。
理解AI的決策邏輯對于快速定位錯誤以及完善 AI的能力有著重要意義。比如當 Google 照片應(yīng)用錯誤地將黑人標記為大猩猩時,工程師往往難以很快確定問題到底出在何處。如果能了解其決策過程,事情就會簡單得多。
因此,除了喬治亞理工學(xué)院外,還有不少大學(xué)對這一課題展開了研究。
加利福尼亞大學(xué)伯克利分校和馬克斯普朗克信息學(xué)研究所則提出了另一種研究方法,稱之為“指向和對齊”(pointing and justification),訓(xùn)練 AI 以兩種方式分析數(shù)據(jù),一種用于回答問題,一種則回顧用于該決策的數(shù)據(jù)。
(圖片來自:QZ)
麻省理工大學(xué)則是從模仿人類推導(dǎo)過程出發(fā),讓 AI 從中啤酒評級網(wǎng)站提取人類的評論文字(是否提取了氣味、顏色等字樣),以此為依據(jù)對啤酒打分,將結(jié)果與人類的評級進行對比,以探索 AI 是否有類似于人類的推導(dǎo)過程。(現(xiàn)在,AI 除了告訴你答案,還能解釋為什么)
當然,以上這些都只是初步的研究,要了解 AI 復(fù)雜的決策過程,人類要走的路還很長。
題圖來自:KNOAH
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!