如今,人工智能發(fā)展迅速,應用也越來越廣泛,但是顯然我們不能對這一新技術抱以完全的信任。因為盲目的信任有可能會造成誤導或是危險的結果,謹慎一點是必須的。
關于人工智能(AI)這個相當過時的概念,最近引起了大量的討論。人工智能充斥著我們的生活,涉及了無數(shù)的應用程序,從谷歌搜索,到Uber或Lyft打車軟件,到機票價格,到智能助手Alexa或Siri。對一些人來說,人工智能是一種拯救,它會提高生活質量,同時在眾多成熟的行業(yè)中注入創(chuàng)新元素。然而,另一些人則發(fā)出了可怕的警告:我們很快就會完全被高超的機器智能所征服。人工智能是典型的軟件主導,而軟件是容易出現(xiàn)漏洞的。考慮到這一點,我們如何知道人工智能本身是足夠可靠去完成工作的?或者更確切地說,我們對于人工智能的成果能夠信任到什么程度?
盲目信任的風險
我們來討論一下自動駕駛汽車。汽車自動駕駛系統(tǒng)的發(fā)展中,人工智能的元素發(fā)揮了很大的作用。現(xiàn)在制造出了大部分時間都遵守道路規(guī)則的車輛。這里有一個案例,一輛自動駕駛汽車在佛羅里達州側面撞上一輛轉彎的卡車,導致“司機”死亡。這起事故最終被歸咎于“司機”的失誤,因為自動控制裝置被認為是在他們的設計范圍內運行的。當時的躲避系統(tǒng)設計要求雷達和視覺系統(tǒng)的結果達成一致后做出閃避的動作。
然而,有證據(jù)表明,白色卡車在明亮的陽光下轉彎時造成眩光晃到了這輛車的視覺系統(tǒng)。于是這個系統(tǒng)既沒有察覺到,也沒有對即將到來的危險做出反應。并且,在這次事故中,還有其他證據(jù)表明,當時“司機”正在看《哈利波特》電影。這名“司機”顯然對自動駕駛系統(tǒng)過于自信,并沒有對其行為進行積極的監(jiān)控,也沒能發(fā)現(xiàn)它的漏洞,盡管估計有7秒鐘的可以讓他預見到風險的時間。
設計的保護等級已經(jīng)確定,但司機沒有意識到他的自動駕駛儀仍然需要他全神貫注的注意力。在這種罕見的情況下,對于人工智能系統(tǒng)的錯誤信任引發(fā)了致命的結果。
建立信任的門檻
人工智能的發(fā)展確實令人印象深刻。美國國防部高級研究計劃局(DARPA)在2016年年底完成了“網(wǎng)絡大挑戰(zhàn)”(CGC)競賽。CGC上,機器可以獨立地玩一種被稱為“奪旗必死”的實時黑客游戲。在這里,“旗幟”隱藏在代碼中,黑客的工作就是利用漏洞攻擊對手的“旗幟”。CGC為最成功的球隊提供了200萬美元的獎金。CGC最后一輪在一個普通的封閉網(wǎng)絡上,在沒有人為干預的情況下,七臺機器相互競爭。這些機器必須識別對手系統(tǒng)中的漏洞,在自己的系統(tǒng)上進行修復,并在對手的系統(tǒng)中利用這些漏洞來奪旗。卡內基梅隆大學的Mayhem團隊獲得勝利。
美國國防部高級研究規(guī)劃局信息創(chuàng)新辦公室主任John Launchbury將與CGC有關的人工智能的特征描述為手工制造的知識。這項技術從早期的專業(yè)系統(tǒng)中脫穎而出,對于現(xiàn)代人工智能的發(fā)展至關重要。在手工制造的知識中,系統(tǒng)根據(jù)復雜的、手動定義的規(guī)則集進行推理。這種人工智能具有推理能力,但在感知方面是有限的,它沒有學習和進行抽象的能力。
在對于未來的推理型人工智能可以快速診斷和修復軟件漏洞這方面建立信心的同時,需要指出CGC是有范圍限制的。出于競賽的目的,開源操作系統(tǒng)的擴展被簡化了,被植入的惡意軟件版本,相對于真實生活中的惡意軟件來說,是大打折扣的。這就有意地減輕了開發(fā)負擔,為競爭評估建立了統(tǒng)一的基礎,并降低了將競爭對手的軟件不經(jīng)重大修改就發(fā)布到更大的聯(lián)網(wǎng)世界的風險。
在游戲中使用“卑鄙的手段”來擊敗對手,是一個更黑暗的維度。盡管重新設計代碼以快速隔離和修復漏洞是好的,但將這些漏洞轉化為有效利用其他代碼的機會是另一回事。一些人擔心,如果這種能力得到釋放并失去控制,它可能會變成一種“超級代碼”——既規(guī)避了常見的漏洞,也能利用同樣的漏洞來控制他人的網(wǎng)絡,包括日益增長和可能還很脆弱的物聯(lián)網(wǎng)。這種擔憂促使電子前沿基金會呼吁人工智能開發(fā)者“道德規(guī)范”,以限制推理系統(tǒng)在可信賴的狀態(tài)下執(zhí)行。
機器學習增加了信任的賭注
Launchbury把統(tǒng)計學習這個詞歸于他認為的第二次浪潮。在這里,感知和學習能力很強,但這項技術缺乏執(zhí)行推理和抽象的能力。雖然統(tǒng)計數(shù)據(jù)令人印象深刻,但機器學習會周期性地產(chǎn)生不可靠的結果,通常表現(xiàn)為奇怪的異常值。隨著時間的推移,機器學習也會因受到污染的訓練數(shù)據(jù)而出現(xiàn)偏差??紤]到并非所有的人工智能學習都能產(chǎn)生可預測的結果,這導致了人工智能系統(tǒng)可能會以意想不到的方式出錯。那么,有效地定義人工智能工具的信任等級就是個很大的障礙。