自動駕駛汽車、圍棋人機大戰(zhàn)、描繪機器人自我意識的美劇《西部世界》大熱……2016年,人工智能及其相關(guān)領(lǐng)域受到產(chǎn)業(yè)界、學(xué)術(shù)界乃至全社會的熱議。與此同時,人們對人工智能的擔憂也從未褪去:人工智能會在什么時間、以什么方式出問題?
臨近年終,多名人工智能專家分析了2016年人工智能典型“失敗”案例,認為這些錯誤集中出現(xiàn)在人工智能系統(tǒng)的機器學(xué)習(xí)和任務(wù)執(zhí)行階段。
“智能”歧視:都是人的錯嗎
多位人工智能專家認為,種族主義和種族歧視是目前人工智能系統(tǒng)存在的主要問題,這可能和系統(tǒng)的研發(fā)設(shè)計者本身的種族有關(guān)。
2016年,美國多地法庭開始使用人工智能系統(tǒng)預(yù)測一名罪犯再次犯罪的幾率,作為法官給予罪犯緩刑等的依據(jù)。然而,媒體對佛羅里達州法庭使用的一種名為“少數(shù)派報告”預(yù)測系統(tǒng)進行了調(diào)查,發(fā)現(xiàn)黑人被系統(tǒng)預(yù)測會再次犯罪的幾率比其他族裔高出45%,其中黑人被預(yù)測再次暴力犯罪的幾率比其他族裔高出77%。數(shù)據(jù)顯示,這一人工智能系統(tǒng)的準確率只有20%。媒體評論說,所謂犯罪預(yù)測系統(tǒng)唯一能判斷的僅是受調(diào)查對象的種族而已。
2016年,美國多家公司聯(lián)合推出了“世界首屆人工智能選美大賽”,參賽者在網(wǎng)站上上傳照片,由人工智能算法“精確”評估參賽者的美。然而,這場比賽的獲獎?wù)叨际前兹?。美國路易斯維爾大學(xué)網(wǎng)絡(luò)安全實驗室主任揚波利斯基指出,很明顯這一人工智能的學(xué)習(xí)訓(xùn)練樣本不夠,美人被限制在固定的模式中。
為了開拓年輕人的市場,微軟公司今年春季在社交網(wǎng)絡(luò)推特上推出了人工智能聊天機器人Tay。然而上線不到一天,用網(wǎng)友的話說,Tay就成為了一個“熱愛希特勒、侮辱女性的妖怪”,微軟隨即將Tay緊急下線。
任天堂公司的“口袋妖怪”游戲今年7月發(fā)布后風靡全球。玩家很快發(fā)現(xiàn),黑人社區(qū)很少有小精靈可抓。據(jù)《今日美國》報道,在洛杉磯地區(qū),主要白人社區(qū)平均有55個“精靈驛站”,黑人社區(qū)平均不到19個;在底特律、邁阿密和芝加哥也出現(xiàn)類似情況,黑人玩家在自家門口很難參與游戲。游戲開發(fā)人員承認,這款增強現(xiàn)實智能游戲基于一個以白人玩家為主的地圖系統(tǒng),開發(fā)人員沒有在黑人社區(qū)上多花時間。
輸棋、傷人:倫理研究要先行
在3月的圍棋人機大戰(zhàn)中,人工智能系統(tǒng)阿爾法圍棋以4比1戰(zhàn)勝韓國棋手李世石。澳大利亞新南威爾士大學(xué)人工智能教授沃爾什表示,阿爾法圍棋輸了一局,說明李世石還是發(fā)現(xiàn)了這個系統(tǒng)使用的“蒙特卡洛搜索樹”中的漏洞,這一局可以看作是2016年人工智能的一次失敗,人工智能還不完美。揚波利斯基則認為,李世石勝出的一局還是在正常操作的范圍內(nèi)。
5月,一輛開啟自動駕駛模式的特斯拉在美國佛羅里達州與一輛拖車相撞,導(dǎo)致司機死亡。事故發(fā)生后,特斯拉公司發(fā)布了自動駕駛軟件的重要更新,公司首席執(zhí)行官馬斯克稱,更新可以防止類似事故的發(fā)生。
7月,位于硅谷地區(qū)的斯坦福購物中心,一位母親稱,購物中心重約135公斤的“K5安保機器人”撞倒了自己16個月的孩子,并從孩子的腳上壓了過去。
而在11月舉行的中國深圳“中國國際高新技術(shù)成果交易會”上,一名網(wǎng)友在微信上發(fā)圖并配文稱,親眼看到隔壁展臺進化者小胖機器人沒人操縱,自己突然跑起來,把玻璃墻給撞倒了,砸傷旁邊一路人。圖片顯示,現(xiàn)場滿地玻璃,一位受傷觀眾被擔架抬走。這款機器人的生產(chǎn)方稱,這起事故是人為操作失誤所致,控制人員誤將前進鍵當作后退鍵。但也有專家指出,不能用“油門當剎車”的比喻來看待服務(wù)機器人問題。盡管是偶發(fā)事件,但其安全隱患絕不可掉以輕心。
揚波利斯基等人認為,這些案例說明保持機器學(xué)習(xí)數(shù)據(jù)的多樣性是防止人工智能產(chǎn)生“偏見”的關(guān)鍵,相關(guān)倫理研究更應(yīng)走在技術(shù)研究的前面。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!