關(guān)于人工智能(AI)的威脅,美國科幻大片為我們設(shè)想了很多場景,比如AI對人類完全取而代之。但和此類遙遠(yuǎn)的設(shè)想相比,這些擔(dān)憂目前可能更切合實(shí)際:AI令網(wǎng)絡(luò)安全面臨來自新維度的威脅。
會計(jì)師事務(wù)所畢馬威的安全專家Greg
Bell、Cliff Justice、Tony Buffomante以及Ken
Dunbar等人在《哈佛商業(yè)評論》撰文稱,和其他任何技術(shù)一樣,AI技術(shù)如果應(yīng)用不當(dāng),同樣會給企業(yè)立即帶來網(wǎng)絡(luò)安全威脅,從而令業(yè)務(wù)運(yùn)營受到?jīng)_擊。他們寫道:
犯罪分子暗地里利用類似技術(shù)已經(jīng)有很多年,他們通過使用一種被稱為“僵尸網(wǎng)絡(luò)”的概念,在成千上萬臺電腦中植入很少量的代碼,從而模仿出成千上萬用戶的行為,用來實(shí)現(xiàn)大規(guī)模的網(wǎng)絡(luò)攻擊以及發(fā)送垃圾郵件和短信,甚至通過DoS(拒絕服務(wù))攻擊令網(wǎng)站長時間無法訪問。
他們認(rèn)為,在當(dāng)前的數(shù)字化世界中,企業(yè)對數(shù)據(jù)分析以及與消費(fèi)者進(jìn)行網(wǎng)絡(luò)互動的依賴更大,企業(yè)高管就不能忽視這些現(xiàn)存的安全風(fēng)險(xiǎn)。而隨著AI技術(shù)的崛起,獨(dú)特的新型網(wǎng)絡(luò)安全風(fēng)險(xiǎn)也相伴而生。
文章稱,最理想的狀態(tài)是,AI系統(tǒng)用于模仿最有能力的人類大腦的決策過程。但是,如果向其輸入信息的人類行為出問題,比如公司內(nèi)部不滿的員工或者外部人員惡意破壞,就可能劫持系統(tǒng),將誤導(dǎo)性或者不準(zhǔn)確的數(shù)據(jù)輸入進(jìn)去,或者通過保留關(guān)鍵信息而令系統(tǒng)為其掌控,也可能讓電腦不當(dāng)?shù)靥幚頂?shù)據(jù)。
文章認(rèn)為,如果AI系統(tǒng)遭到惡意破壞,或者被人為輸入不準(zhǔn)確的信息,就可能將不準(zhǔn)確的信息判斷為“準(zhǔn)確”,或者“學(xué)習(xí)”到壞習(xí)慣。
因?yàn)榇蠖鄶?shù)AI系統(tǒng)通常使用不會過期的密碼,黑客就能夠通過“機(jī)器人”(bot)使用相同的登陸信息獲得比普通人能夠獲得的更多信息。而安全監(jiān)測系統(tǒng)通常的設(shè)定是對“機(jī)器人”登陸予以忽視,從而避免對數(shù)量巨大的登陸信息逐一記錄。
這就能讓惡意的入侵者偽裝成“機(jī)器人”,從而能在相當(dāng)長時間內(nèi)獲得登陸權(quán)限,且基本不會被探測到。
他們表示,在某些情況下,人們試圖利用新技術(shù)時也可能引發(fā)一些后果,盡管可能是無意的,但卻會給整個組織帶來傷害。他們以微軟的聊天機(jī)器人為例寫道:
一個典型的案例是,微軟在Twitter上的聊天機(jī)器人Tay最初設(shè)計(jì)是用來和年輕人自然交流,但是在上線后,很快被人發(fā)現(xiàn)其學(xué)習(xí)算法的弱點(diǎn),被灌輸以大量種族歧視、性別歧視和同性戀歧視內(nèi)容。結(jié)果是,Tay開始面向數(shù)百萬粉絲發(fā)出不當(dāng)內(nèi)容。
登陸|注冊歡迎登陸本站,認(rèn)識更多朋友,獲得更多精彩內(nèi)容推薦!