據國外媒體報道,美國科學家研制出“會騙人”的機器人,不僅懂得如何欺騙人類,同時還能夠將自己隱藏起來躲避敵人,如此厲害的高智商不免讓人聯(lián)想到斯坦利·庫布里克拍攝的熱門影片《2001太空漫游》中的機器人。
美國佐治亞州理工學院研究人員進行的一項實驗,據悉是世界上第一項有關機器人“騙術”的詳細測試。這支研究小組創(chuàng)建的算法,能夠讓機器人決定是否欺騙人類或者另一個機器人,同時還能讓機器人找到在最大程度上讓自己不被發(fā)現(xiàn)的策略。
未來發(fā)展前景在戰(zhàn)場上
這項“進步”,可能讓一些原本就對機器人持不信任態(tài)度的人更為擔憂,在他們看來,機器人在實際生活和工作中可能也會變成騙子,與人類共事時無法保證安全性。
但研究人員表示,具有欺騙能力的機器人擁有很大的未來發(fā)展前景,尤其是在軍事領域。在戰(zhàn)場上,成功將自己隱藏并誤導敵人的這種欺騙能力,能確保自身以及重要信息的安全性。
研究論文聯(lián)合執(zhí)筆人、佐治亞州技術研究院研究工程師艾倫·瓦格納表示:“絕大多數(shù)社交機器人將極少使用欺騙手段,但在機器人的互動‘軍火庫’中,這仍舊是一個重要工具,原因就在于認識到有欺騙必要的機器人與其他機器人相比擁有優(yōu)勢,這種優(yōu)勢就體現(xiàn)在結果上。”
此外,搜救機器人可能也需要欺騙人類,以便讓搜救對象平靜下來或者取得恐慌的被搜救者的合作。研究發(fā)現(xiàn)刊登在《國際社交機器人技術雜志》上。
已經會調整自己的騙術
為了讓機器人懂得將自己隱藏起來以躲避其他同類,佐治亞州理工學院的研究人員開發(fā)了一系列程序,最終讓機器人成功上演欺騙行為。首先,他們教會騙人機器人如何辨別眼前的形勢以決定是否采用欺騙手段。
瓦格納和同事羅納德·艾金利用相互依存理論和博弈論開發(fā)算法,以測試特殊情況下實施騙術的價值。
允許實施騙術的情形必須滿足兩大條件:首先,騙人機器人與搜索者之間必須存在沖突。其次,騙人機器人必須能夠從欺騙行為中獲益。一旦確定眼前形勢可以實施騙術,機器人便會制造出一個假的運動軌跡進行欺騙。
令人感到吃驚的是,騙人機器人甚至能夠根據對它們設法欺騙的機器人的了解程度,調整自己的騙術以達到最佳欺騙效果。可能引發(fā)倫理問題
為了測試他們的算法,研究人員在兩個自治機器人之間進行了20次“捉迷藏”實驗。他們在通向機器人躲藏位置的3條潛在線路上,放置彩色直立標記。躲藏機器人隨機從3個躲藏位置中挑選一個并且移動到這個位置,沿途撞倒彩色標記。一旦穿過一個標記,機器人便會改變線路并躲藏在另外兩個位置中的一個。直立標記的存在與否,暗示搜索機器人躲藏機器人的位置。
瓦格納解釋說:“躲藏機器人通過撞倒標記制造假的移動軌跡,進而將搜索機器人引向假躲藏位置。例如,從標記的指示來看,它去了右邊,而實際上卻去了左邊。”
在“捉迷藏”實驗中,躲藏機器人成功騙到搜索機器人的概率高達75%,在失敗的實驗中,躲藏機器人因未能撞倒為騙過搜索機器人而必須撞倒的標記,最終被后者逮到。
瓦格納說:“雖然并不完美,但實驗結果仍舊證明機器人能夠在嘈雜環(huán)境下學會并利用騙術。這些結果初步表明,論文中描述的技術與算法能夠讓機器人成功實施欺騙。”研究人員表示,他們也意識到教會機器人如何欺騙同類和人類,將引發(fā)“倫理問題”。
科幻影片曾預示危險性
最著名的騙人機器人可能當屬《2001太空漫游》中的Hal。這部影片改編自亞瑟·克拉克的暢銷科幻小說,故事圍繞一艘由高智能電腦Hal操控的太空飛船上的船員展開。由于Hal出現(xiàn)故障,船員們試圖將其關閉。隨后,陷入故障的Hal開始殺害船員并控制整艘飛船。由于幸存的船員成功將其關閉,Hal最終放下屠刀。隨著逐漸喪失“意識”,Hal將有關他們神秘任務的真相告訴了船員。
《機械公敵》是另一部有關機器人造反的影片,改編自艾薩克·阿西莫夫的短篇小說集。片中,一個機器人首次有了“自我意識”并造成災難性后果。