我們知道,目前絕大多數(shù)圖像識(shí)別模型都是基于神經(jīng)網(wǎng)絡(luò)算法構(gòu)造的。這種算法通過(guò)建立多重隱藏層和計(jì)算單元間復(fù)雜的連接關(guān)系,對(duì)圖像信息進(jìn)行層層分解和抽象,從而構(gòu)造出包含圖像內(nèi)多重信息特征的特征圖。如明暗、顏色、形狀、相互關(guān)系等等。最后通過(guò)特征圖內(nèi)多重特征信息的判別最終完成對(duì)于圖像的整體判別。
人類(lèi)顯然不是這樣進(jìn)行圖像識(shí)別的。如果識(shí)別機(jī)理相似,那欺騙AI的方式應(yīng)該會(huì)對(duì)人類(lèi)有起碼的干擾作用,但這些對(duì)于AI模型的干擾效果從人類(lèi)的角度來(lái)看都像是笑話(huà)。
人類(lèi)的大腦皮層對(duì)于圖像和形狀的判別機(jī)制目前幾乎是未知的。最新科技創(chuàng)造出的AI模型判別方式只是在某些方面達(dá)到了近似人類(lèi)圖像識(shí)別的效果,但千萬(wàn)不要認(rèn)為AI真的認(rèn)識(shí)圖像或形狀,它只是以一種你無(wú)法理解的方式對(duì)于圖像進(jìn)行標(biāo)記和識(shí)別。
為什么谷歌公司歷時(shí)三年,都最終無(wú)法建立準(zhǔn)確識(shí)別靈長(zhǎng)類(lèi)動(dòng)物和黑人的AI模型?這就是原因。因?yàn)榕袆e方式的天差地別,一個(gè)對(duì)于人類(lèi)的簡(jiǎn)單任務(wù),到了AI模型面前卻成為巨大的挑戰(zhàn)。
真實(shí)世界的理性判斷
目前,絕大部分人工智能模型都是基于神經(jīng)網(wǎng)絡(luò)這樣的“黑盒子”模型構(gòu)建而成。雖然在絕大多數(shù)場(chǎng)景下,模型都能夠做出準(zhǔn)確度較高的識(shí)別和預(yù)測(cè)。但識(shí)別和預(yù)測(cè)規(guī)則完全不透明的情況下,連研究者自己都不知道模型的判斷規(guī)則。這意味著一旦人工智能被發(fā)現(xiàn)某些特定的缺陷,將有機(jī)會(huì)對(duì)其進(jìn)行有針對(duì)性的欺騙。所以,AI模型圖像識(shí)別的缺陷有可能會(huì)在部分行業(yè)應(yīng)用中導(dǎo)致嚴(yán)重的后果。
2017年9月,伯克利等四所大學(xué)的聯(lián)合項(xiàng)目組進(jìn)一步研究了AI在自動(dòng)駕駛系統(tǒng)中的應(yīng)用。
項(xiàng)目組發(fā)現(xiàn),只要在現(xiàn)有的交通標(biāo)志上粘貼少量圖形,就可以誘導(dǎo)自動(dòng)駕駛系統(tǒng)把“停牌”標(biāo)志識(shí)別為“限速”標(biāo)志。
由于這些欺騙手段對(duì)于自動(dòng)駕駛系統(tǒng)判別結(jié)果的干擾非常成功,這篇論文的標(biāo)題甚至使用了“來(lái)自真實(shí)世界的穩(wěn)健性攻擊——面向深度學(xué)習(xí)模型”(Robust Physical-World Attacks on Deep Learning Models)這樣字眼。
這些案例都是對(duì)被識(shí)別圖像進(jìn)行少量的顯著修改來(lái)欺騙AI模型,由于這些修改相對(duì)明顯,人眼還可以主動(dòng)識(shí)別出來(lái)。部分更加復(fù)雜的攻擊有可能以人類(lèi)無(wú)法察覺(jué)的方式進(jìn)行。
同樣還是谷歌的圖像識(shí)別模型,在正確識(shí)別的基礎(chǔ)上,麻省理工的研究者只是修改了少量的圖形像素,同樣達(dá)到了欺騙模型的目的,把槍支識(shí)別為直升機(jī)。而修改前和修改后的這兩張圖,人眼看來(lái)完全一樣。
所以,目前的AI模型,起碼在圖像識(shí)別領(lǐng)域,是可以被人為欺騙的。而欺騙的手段五花八門(mén),甚至可以使用人類(lèi)肉眼完全無(wú)法識(shí)別的方式進(jìn)行。
阿里巴巴和微軟的AI模型在閱讀理解測(cè)試方面超過(guò)了人類(lèi)。其實(shí)這一事件的意義并不是像普通大眾想象的那樣,AI模型已經(jīng)可以比人類(lèi)更好地理解文章內(nèi)容了。
既然是閱讀理解測(cè)試,那么決定最終成績(jī)的是測(cè)試結(jié)果。通過(guò)成績(jī)單可以總結(jié)出來(lái),這個(gè)閱讀理解測(cè)試其實(shí)是回答填空題。填空題的答案是出現(xiàn)在文章中的某個(gè)日期、時(shí)間、對(duì)象等。
對(duì)閱讀理解考試有豐富經(jīng)驗(yàn)的人了解,先不通讀文章,能夠立即開(kāi)始答題嗎?答案一定是可以。根據(jù)問(wèn)題找答案,問(wèn)時(shí)間找時(shí)間,問(wèn)地點(diǎn)找地點(diǎn),問(wèn)對(duì)象根據(jù)上下文找名詞。不用閱讀文章并理解整篇文章的主旨,人類(lèi)可以蒙對(duì)很多答案。
同樣地,對(duì)于AI模型來(lái)說(shuō),它只是建立了詞與詞、詞組與詞組的關(guān)聯(lián)關(guān)系,并結(jié)合上下文的位置信息,提供模型判別概率最高的答案。
如果你認(rèn)為AI模型真的理解了它所閱讀的文章,那你就是用人類(lèi)思維去套用AI的模型構(gòu)造方式,這是完全不對(duì)的。最終AI模型只是根據(jù)文章形成詞與詞的關(guān)聯(lián)關(guān)系,并使用這一關(guān)聯(lián)關(guān)系回答問(wèn)題。
所以,千萬(wàn)不要相信,AI系統(tǒng)現(xiàn)在已經(jīng)完全具備了識(shí)別、判斷甚至認(rèn)知的功能。因?yàn)?,AI目前具有的這些功能和人類(lèi)通常意義上的理解是完全不同的。并且,我們也無(wú)法完全信任一個(gè)AI系統(tǒng)——現(xiàn)有的AI是非常容易被欺騙的,而且欺騙的操作可以非常簡(jiǎn)單,這對(duì)于大眾認(rèn)識(shí)AI并合理使用AI是非常重要的。
(作者為科技與互聯(lián)網(wǎng)資深分析師,編輯:謝麗容)
(本文首刊于2018年2月5日出版的《財(cái)經(jīng)》雜志)