4)相互理解。大多數(shù)機(jī)器學(xué)習(xí)系統(tǒng)無法用人類的語言解釋他們?yōu)槭裁匆鰶Q定或者下一步要做什么。但研究人員正在努力解決這一問題。美國軍方的國防高級研究計(jì)劃局最近宣布了一項(xiàng)計(jì)劃,將大幅投資于可解釋的人工智能XAI,以使機(jī)器學(xué)習(xí)系統(tǒng)更準(zhǔn)確、可預(yù)測、值得信賴。有了XAI,你的數(shù)字助手才有可能告訴你,它選擇了一條特定的駕駛路線,因?yàn)樗滥阆矚g走小路,或者它建議換一個(gè)詞,這樣你的電子郵件的語氣就會(huì)變得更友好。此外,在更多的場景中,“機(jī)器人會(huì)知道什么時(shí)候?qū)で髱椭?rdquo;Manuela Veloso說,他是卡內(nèi)基梅隆大學(xué)的機(jī)器學(xué)習(xí)部門的負(fù)責(zé)人,他稱這一技能是“共生自主”。研究人員正在開發(fā)人工情感智能或情感人工智能,以便我們的代理也能更好地理解我們。像Affectiva和Emotient(被蘋果收購)這樣的公司已經(jīng)創(chuàng)造了一種能讀取用戶面部表情的系統(tǒng)。IBM首席技術(shù)官Rob High表示,IBM沃森人工智能系統(tǒng)不僅可以分析情感,還可以分析文本的語調(diào),并隨著時(shí)間的推移,對個(gè)性進(jìn)行分析。最終,人工智能系統(tǒng)將分析一個(gè)人的聲音、面部、姿勢、言語、語境和用戶歷史,以更好地了解用戶的感受和反應(yīng)。Affectiva聯(lián)合創(chuàng)始人兼首席執(zhí)行官Rana表示,下一步將是我們的手機(jī)和電視上的情感芯片,可以實(shí)時(shí)做出反應(yīng)。她說:“我認(rèn)為,在未來,我們會(huì)假定每個(gè)設(shè)備都知道如何解讀你的情緒。”
5)建立情感紐帶。人們可以和Roomba智能掃地機(jī)器人或其他相對簡單的機(jī)器人形成情感紐帶。人工智能既能用人聲對話又能深層次地理解人類,那么人類和人工智能之間,應(yīng)該存在何種關(guān)系?未來主義者Spivack描繪了人與虛擬機(jī)器人終生為伴的場景。你會(huì)給小孩一個(gè)智能的玩具,這個(gè)玩具會(huì)了解她,指導(dǎo)她,和她一起成長。“它最初只是一個(gè)可愛的毛絨玩具,”他說,“但它演變成一種生活在云端的東西,它們可以通過手機(jī)上聯(lián)系。”
然后到2050年,或者其他什么時(shí)候,可能是會(huì)被植入大腦。在這樣一個(gè)場景會(huì)產(chǎn)生許多問題,Spivack問道:“誰擁有我們的代理機(jī)器人?”“它們是谷歌的財(cái)產(chǎn)嗎?”我們最老的朋友會(huì)被注銷或重新編程嗎?失去了深深信任的助手,我們會(huì)感到無助嗎?El Kaliouby看到了很多關(guān)于自主權(quán)的問題:一個(gè)助理能代表我們做什么?它能不能為我們買東西?如果我們要求它做一些非法的事情,它能不能推翻我們的命令?她也擔(dān)心隱私問題。如果一個(gè)人工智能代理感覺一個(gè)少年很抑郁,它能通知他的父母嗎?Spivack說,我們需要決定代理機(jī)器人是否有類似于醫(yī)生對病人或律師對客戶的某種特權(quán)。他們能把我們報(bào)告給執(zhí)法部門嗎?他們能被傳召嗎?如果有安全漏洞怎么辦?一些人擔(dān)心,先進(jìn)的人工智能將接管世界,但人工智能發(fā)展協(xié)會(huì)的Kambhampati認(rèn)為,惡意的黑客攻擊的風(fēng)險(xiǎn)更大。考慮到我們可能會(huì)和我們的助手們建立親密關(guān)系,如果壞人入侵助理機(jī)器人,那么我們最好的助理將可能會(huì)成為我們最大的負(fù)擔(dān)。
登陸|注冊歡迎登陸本站,認(rèn)識(shí)更多朋友,獲得更多精彩內(nèi)容推薦!