這其實(shí)就是完全借助了深度學(xué)習(xí)的方式。深度學(xué)習(xí)這是一個(gè)統(tǒng)稱,包括像阿爾法狗,卷積神經(jīng)網(wǎng)絡(luò)都用了深度學(xué)習(xí)其中的一個(gè)模型。
谷歌貓使用了深度學(xué)習(xí)技術(shù)
這是特斯拉最新的自動(dòng)駕駛,它標(biāo)注車、物體都非常地準(zhǔn)確,這是非常令人興奮的應(yīng)用。但是站在黑客的角度,我們想到了一些事情。大家知道在極棒現(xiàn)場(chǎng),包括我們安全領(lǐng)域都是在黑掉汽車方面做過一些事情的。
但是,我們黑掉一個(gè) ATM 機(jī)和黑掉一個(gè) PC 沒有什么區(qū)別;我們黑掉無人機(jī)和手機(jī)也差別不大。我們能否有更酷的方法?你可以看到這輛車行駛的過程中旁邊有一個(gè)穿白衣服的人。成熟的系統(tǒng)當(dāng)然認(rèn)為那是一個(gè)人,但是不是我們能夠欺騙它,讓它認(rèn)為是一個(gè)樹樁或是消防拴?如果有人能這樣黑掉的話,我特別歡迎。2016年的時(shí)候,極棒美國硅谷專場(chǎng)的時(shí)候有專家在這方面做了一些研究。
我們調(diào)查的時(shí)候發(fā)現(xiàn),做 AI 的人對(duì)安全的了解不太多,做安全的了解 AI 也不太多。我們?nèi)ツ暾业搅嗽诠雀韫ぷ鞯腎an Goodfellow,他驗(yàn)證了我們的想法,他現(xiàn)在做出的這個(gè)結(jié)果和我們想要的結(jié)果類似。我們發(fā)現(xiàn)其實(shí)人工智能的模型都非常類似:通過大量的學(xué)習(xí)樣本,深度學(xué)習(xí)作出決策,這是人工智能的學(xué)習(xí)方法。于是我們挖漏洞的過程就是:
生成大量的樣本,交給軟件,改變數(shù)據(jù)流程,最后導(dǎo)致一個(gè)錯(cuò)誤的決策。
通過這樣一個(gè)模型,Ian到我們的現(xiàn)場(chǎng)展示了另外一個(gè)東西。他在一個(gè)離線的狀態(tài)下,利用了猜測(cè)機(jī)器學(xué)習(xí)的過程。
人眼看到的這是一只狗,隨便掌握人工智能的系統(tǒng)都可以把它識(shí)別成一只狗。
但是這個(gè)圖經(jīng)過修整,就騙過了很領(lǐng)先的識(shí)別系統(tǒng),很多系統(tǒng)堅(jiān)持認(rèn)為這是一只鴕鳥。
還有一個(gè)這張?jiān)朦c(diǎn)圖片,識(shí)別系統(tǒng)堅(jiān)持認(rèn)為它是一只熊貓。
除了圖像識(shí)別之外,語音識(shí)別同樣有這樣的威脅。
去年微軟推出了人工智能聊天機(jī)器人。但是,剛推出一天它就開始說臟話。在它學(xué)習(xí)了半天的時(shí)候,看到很多人跟它說臟話,它認(rèn)為這是人跟人之間正常的交流溝通方式。
▲微軟的聊天機(jī)器人 Tay
所以我覺得,到了人工智能時(shí)代,人人都可能成為黑客?;ヂ?lián)網(wǎng)時(shí)代的代表是搜索引擎,搜索結(jié)構(gòu)被污染還是需要技術(shù)的,但微軟機(jī)器人被污染不需要技術(shù)和代碼,只需要你對(duì)它說臟話。
我一直把現(xiàn)在攻破的智能設(shè)備很不客氣定義為偽智能,它只是替代了我們的手和腳,還不能代替思考。弱智能時(shí)代總有一天會(huì)變成強(qiáng)智能、超強(qiáng)智能時(shí)代。那一天來臨的時(shí)候,是不是要讓它安全的為人類服務(wù)呢?
剛才我說了圖象和語音,其實(shí)我還想再舉個(gè)例子。
▲上圖為人打掉機(jī)器狗正在搬運(yùn)的東西, 通過各種“虐待”來提高機(jī)器狗的運(yùn)輸可靠性和反應(yīng)能力。
大家知道這個(gè)波士頓動(dòng)力出的機(jī)器狗。波士頓動(dòng)力是不同于圖象和語音的智能,這是一種行為智能。行走的過程中學(xué)習(xí)生物保持自身平衡。
看看這個(gè)機(jī)器狗是怎么被訓(xùn)練的。用腳踹讓它維持平衡,為難它。大家也許覺得這個(gè)人很惡心,機(jī)器狗很可憐。但我們從黑客的角度看到了就脊背發(fā)涼。如果這個(gè)機(jī)器人覺得踹一腳或是給別人一拳是正常的呢?
▲超能查派
有一個(gè)電影《超能查派》,這個(gè)小機(jī)器人剛做出來就被劫匪搶了,他出來以后覺得戴著粗金鏈子拿著這槍搶錢是正常的工作。我希望如果時(shí)代的發(fā)展,從偽智能到弱智能到強(qiáng)智能。真的走到哪一天,我們有義務(wù)讓 AI 為我們安全地服務(wù)。