1月12日消息,想象一下,在不遠的將來的一個周日,一位名叫西爾維亞(Sylvia)的年邁女性正躺在床上,她在一次跌倒中折斷了兩根肋骨。一個看護機器人正在照看她,讓我們將其稱之為法布倫(Fabulon)。西爾維亞讓法布倫去取止痛片。法布倫會怎么做?
負責(zé)為法布倫編寫代碼的程序員會準備好一套指令:機器人不能傷害人類;機器人必須服從人類;機器人在獲得上級許可之前不能提供任何藥物。在此之前,這些規(guī)則都運作良好。但是,在這個周日,因為西爾維亞家的無線網(wǎng)絡(luò)出現(xiàn)故障,法布倫無法與上級取得聯(lián)系。西爾維亞提高了聲調(diào),她正在堅持自己的要求。
“這里存在一個沖突,”塔夫斯大學(xué)人機交互實驗室的馬蒂亞斯·朔伊茨(Matthias Scheutz)說道。“一方面,機器人需要減緩主人的痛苦;另一方面,它不能在未獲授權(quán)的情況下向主人提供藥物。”人類看護可以做出自己的選擇,并且在事后報告。但是,機器人無法做出自行判斷,至少目前還無法做出。
機器人道德這一新興領(lǐng)域的少數(shù)專家正在試圖解決上述問題。來自計算機領(lǐng)域的科學(xué)家正在與哲學(xué)家、心理學(xué)家、語言學(xué)家、律師、神學(xué)家以及人權(quán)專家一道,對機器人可能遇到的決策點進行識別,以便讓機器人可以模仿人類判斷對錯的思考過程。朔伊茨對“道德”的定義非常寬泛,在面對兩難境地時,其可以作為判斷依據(jù)之一。
從Roomba真空清潔機器人到自主家庭看護機器人,這在技術(shù)上是一個很大的跨越,這是機器人倫理方面亟待解決的問題。涉及道德的選擇范圍非常寬泛,從相對簡單的判斷,例如上文中法布倫是否應(yīng)該將止痛片給西爾維亞,到關(guān)乎生死抉擇,例如軍事機器人對射擊與否進行判斷,以及自動駕駛汽車對剎車或轉(zhuǎn)向做出的選擇。對于人類來說,在上述情形中做出準確判斷非常困難。然而,倫理學(xué)家從機器人的角度對這些問題進行思考時,常常也會陷入各種選擇無法自拔。
我和機器人專家進行交流之后發(fā)現(xiàn),最典型的自動機器人道德方面的例子是無人駕駛汽車,該產(chǎn)品目前尚處在原型階段。來自耶魯跨學(xué)科研究中心負責(zé)科技與道德方面研究的主管溫德爾·瓦拉赫(Wendell Wallach)表示,無人駕駛汽車的安全性無疑較目前的汽車更高,至少在高速公路上行駛時是如此,因為其很少需要作出決策,駕駛者通常在發(fā)短信或者漫不經(jīng)心地變道。但是,在城市道路行駛時,即便是通過一個十字路口,機器人也會面臨各種艱難判斷。“人類會試圖進行小幅度嘗試,” 瓦拉赫表示。“他們發(fā)動引擎,向前移動一點,直到最終有人表示自己將要先走。”這中間牽涉到許多智力活動,瓦拉赫停頓了一下之后繼續(xù)說道,“無人駕駛汽車能夠做出類似的行為嗎?”
而且,瓦拉赫表示,有很多情況遠比十字路口復(fù)雜,例如3或4件事同時發(fā)生的情形。讓我舉個例子,如果一輛汽車想要避免與另一輛發(fā)生碰撞的唯一選擇是撞向一個行人,那么,這就涉及到道德選擇,而且每次的抉擇都會不一樣。行人是一名兒童嗎?是否可以避開行人直接撞向一輛SUV呢?SUV上只有一個人嗎?如果有6個該怎么辦?上述情形被身為加州州立理工大學(xué)道德與新興科學(xué)部門主管,同時也是哲學(xué)家的帕特里克·林(Patrick Lin)稱之為“道德數(shù)學(xué)”。
雖然歷史上在道德領(lǐng)域有過類似的辯論,但是,當無人駕駛汽車出現(xiàn)在這一問題中時,情況變得更加復(fù)雜。如果決策過程的算法總是試圖將傷亡數(shù)量降至最低,那么車輛可能會對對面載有兩名司乘人員的汽車進行躲避,進而沖出道路,冒著只讓一個人傷亡的危險——這個人就是你自己。或者它試圖撞向沃爾沃而不是MINI Cooper,僅僅是因為沃爾沃的司乘人員幸存率更高,這也意味著你自己會面臨更大的風(fēng)險。這些判斷可以在瞬間完成。車輛通過安裝在車頂和擋風(fēng)板上的激光設(shè)備、雷達和攝像頭記錄和監(jiān)測數(shù)據(jù),然后基于被觀察對象的行為進行各種概率預(yù)測。但這不僅僅是技術(shù)問題,同樣涉及到哲學(xué),需要設(shè)計人員予以解決,同時也會牽涉到一些法律責(zé)任問題。
軍方開發(fā)了致命性自動武器系統(tǒng),如巡航導(dǎo)彈。他們同時也在開發(fā)陸基機器人,其基于國際戰(zhàn)爭法來判斷自己的行為。舉例來說,程序可以設(shè)置成——如果一個人身著敵方制服,那么可將其識別為敵方戰(zhàn)斗人員,允許射擊;或者當目標是學(xué)?;蛘哚t(yī)院,或者對方已經(jīng)負傷時,則不允許射擊。
羅納德·阿金(Ronald Arkin)是喬治亞理工學(xué)院的機器人專家,正在為軍方從事機器人道德規(guī)則方面的研究。“我主要的目標是減少戰(zhàn)場上非戰(zhàn)斗人員的傷亡,”他表示。他的實驗室開發(fā)了稱之為“道德適配器”的技術(shù),能夠讓機器人具備負罪感。一旦程序監(jiān)測到使用某種具體武器造成的損毀與預(yù)期不相符時,就會激活該機制。如果差異巨大,機器人的負罪感程度將會達到一個特定閥值,進而停止武器的使用。阿金表示,有時機器人無法對更加復(fù)雜的情形進行判斷,特別是超出“射擊還是不射擊”這類簡單判斷時。但是總的來說,機器人所犯的錯誤還是要少于人類,人類的戰(zhàn)場行為經(jīng)常受制于恐慌、迷惑或者恐懼。
機器人缺乏情感,這使得試圖將人性賦予機器人的嘗試讓許多人感到不安。被機器人射殺是沒有尊嚴的死。來自斯坦福法學(xué)院的彼得·阿薩羅(Peter Asaro)于去年5月在日內(nèi)瓦就常規(guī)武器問題舉行的一次聯(lián)合國會議上表示,機器“不適合對人類的價值進行判斷”。他同時表示,“它們不適合在法律的框架內(nèi)殺人,這會讓我們尊嚴盡失。”聯(lián)合國將于今年4月就自動化武器問題提出質(zhì)詢。
阿薩羅就自動化與道德疊加所引發(fā)的基本問題進行了意味深長地演講。大多數(shù)人都覺得兩者之間不可調(diào)和。但是,無論我們的感受如何,越來越多的機器人出現(xiàn)在我們的生活中已經(jīng)成為一個不爭的事實。谷歌無人駕駛汽車的原型已經(jīng)于上月面世;自動機器人無人機已經(jīng)在開發(fā)進程中;機器人已經(jīng)被用在某些醫(yī)療方面,例如中風(fēng)康復(fù)。這意味著我們不得不面對一個現(xiàn)實,那就是:機器人不可避免會出現(xiàn)在所有需要倫理決策存在的場合。
專家傾向于對機器人的道德問題持樂觀態(tài)度。瓦拉赫談到了“道德方面的圖靈測試”(moral Turing test),他的意思是總有一天機器人的舉止將和人類一致。朔伊茨在這一方面持有更加激進的看法,他表示機器人遲早會較人類具有更高的道德水準。而讓人感到欣慰的是,道德可以通過算法進行計算,這顯然好過處于恐慌中的人類可能做出的抉擇。但是,如同對待其他形式的勞動一樣,將道德判斷也交由機器人來完成真的沒問題嗎?