贊助本站
雖然有關殺手機器人的炒作從未停止過,但2017年人工智能領域(AI)的確取得了許多顯著進步。例如,名為“Libratus”的機器人在撲克游戲中大殺四方。而在現(xiàn)實世界中,機器學習正被用于改善農(nóng)業(yè)和醫(yī)療行業(yè)。但是,你最近同蘋果智能助理Siri或者亞馬遜的人工智能助理Alexa聊過嗎?然后你就會知道,盡管有許多關于AI的大肆宣傳,億萬富翁們對此感到十分擔憂,但有很多東西仍然是AI無法做到或能理解的。這里有五個比較棘手的問題,專家們將在明年重點關注它們。
1.人類話語意義
與以往任何時候相比,機器現(xiàn)在似乎可以更好地使用文本和語言。Facebook的AI可以為視障人士閱讀圖片上的描述,谷歌的AI可為回復郵件提供簡短建議。然而,軟件仍然不能真正理解我們話語中的意義,以及我們與之分享的想法。波特蘭州立大學的梅勒妮·米切爾教授(Melanie Mitchell)說:“我們能夠以不同的方式運用將所學到的概念,并將它們應用到新的環(huán)境中。而這些AI和機器學習系統(tǒng)還沒有這樣的能力。”
米切爾認為,今天的軟件存在數(shù)學家吉安-卡洛·羅塔(Gian-Carlo Rota)所謂的“意義障礙”。許多領先的AI研究團隊正試圖弄清楚如何克服它。其中一項工作的目的是賦予機器以常識和物質(zhì)世界的基礎,這些基礎同樣支撐著我們的思維。例如,F(xiàn)acebook的研究人員正試圖通過觀看視頻來教軟件理解現(xiàn)實。其他團隊正在努力模仿我們對這個世界的認識。谷歌一直在研究試圖學會理解隱喻的軟件。米切爾已經(jīng)嘗試了一些系統(tǒng),用類比和關于世界的概念來解釋照片中發(fā)生的事情。
2.現(xiàn)實差距阻礙了機器人革命
機器人硬件已經(jīng)準備就緒,你可以花500美元買到裝有高清攝像頭、手掌大小的無人機。那些拖著箱子、使用兩條腿行走的機器也有了很大改進。那么,為什么我們還沒有被熙熙攘攘的機械幫手所包圍?今天的機器人缺乏與其復雜肌肉相匹配的大腦。
讓機器人從事需要特定編程來完成的特定任務時,它們可以通過反復試驗(和錯誤)來學習諸如抓取物體之類的操作,但這個過程相對較慢。一個很有希望的捷徑是讓機器人在虛擬的模擬世界中訓練,然后把那些來之不易的知識下載到物理機器人的身體里。然而,這種方法卻被“現(xiàn)實差距”一詞所困擾,這個短語描述了機器人在模擬過程中學習到了技能,但在被移植到物理世界的機器上時卻并非總是有效。
“現(xiàn)實差距”正在縮小,今年10月份,谷歌在實驗中報告了十分樂觀的結果,模擬和真正的機器人手臂學會了挑選不同的物體,包括膠帶、玩具以及梳子。然而,對于那些研究無人駕駛汽車的人來說,還需要更大的進步。為了減少在真實交通和道路條件下測試的時間和資金,在模擬街道上駕駛虛擬汽車的公司競相在模擬街道上部署虛擬汽車。
無人駕駛汽車初創(chuàng)企業(yè)Aurora的首席執(zhí)行官克里斯·厄姆森(Chris Urmson)表示,讓虛擬測試更適用于真正的汽車是他的團隊的首要任務之一。厄姆森之前負責領導谷歌母公司Alphabet旗下的無人駕駛汽車項目,他說:“明年我們將會很清楚地看到,我們?nèi)绾卫眠@一優(yōu)勢加速學習。”
3.防范AI黑客
運行我們的電網(wǎng)、安全攝像頭以及手機的軟件總是被安全漏洞所困擾,我們不應該指望無人駕駛汽車和家用機器人的軟件會有什么不同。事實可能更糟糕:有證據(jù)表明,機器學習軟件的復雜性為黑客引入了新的攻擊途徑。研究人員今年發(fā)現(xiàn),你可以在機器學習系統(tǒng)中隱藏一個秘密的觸發(fā)點,使其在特定信號觸發(fā)的情況下進入邪惡模式。紐約大學的研究小組設計了一個街頭標志識別系統(tǒng),它的功能十分正常,除了在看到黃色便利貼的情況下。在布魯克林一個停車標志上貼上黃色便簽,該系統(tǒng)將標牌報告為限速標志。這種黑客技術的潛力可能會給無人駕駛汽車帶來許多麻煩。