Sara習(xí)得了人們用來建立社交關(guān)系的五種基本策略:自我表露,提到共同的經(jīng)歷,表示贊許,遵從社交規(guī)范(如聊天氣),違反社交規(guī)范(問私人問題,調(diào)侃,或者諷刺)。
正如來自Raytheon的克勞德用“他”來指代他的鸚鵡機(jī)器人,卡塞爾用“她”來指代Sara。但在卡塞爾的大多數(shù)機(jī)器人作品中,她都沒有將它們性別化或者種族化。
她所打造的其它的機(jī)器人都沒有明確的性別和種族。她說,許多設(shè)計(jì)師會(huì)采用男性聲音,因?yàn)樗麄冇X得男性聲音“聽上去有權(quán)威性”;他們采用女性聲音則是因?yàn)樗犐先タ尚?。卡塞爾則試圖用她的機(jī)器人來改變這種傳統(tǒng)觀念。
卡塞爾的機(jī)器人已經(jīng)為兒童群體所使用,他們有的來自條件設(shè)施匱乏的學(xué)校和社區(qū),有的患有自閉癥、阿斯伯格綜合征等疾玻那些機(jī)器人在教室里成了孩子們的“虛擬同學(xué)”,通過與他們直接互動(dòng),充當(dāng)溝通橋梁和可信賴的講解員,它們能夠幫助他們學(xué)習(xí),以及跟老師和同學(xué)相處溝通。“我致力于打造能夠與人協(xié)作的系統(tǒng),沒有人它們就無法存在。”卡塞爾說。
像Sara這樣的個(gè)人助手有朝一日可能會(huì)幫助整理衣服,又或者教數(shù)學(xué)課,從而讓人工照料者或者教師有更多的時(shí)間去進(jìn)行社交互動(dòng)。按照卡塞爾的設(shè)想,機(jī)器人將會(huì)承擔(dān)部分“費(fèi)力不討好的工作”,讓女性能夠追求她們真正喜歡或者覺得有價(jià)值的工作,“而不是被局限于枯燥乏味的看護(hù)類崗位”。她認(rèn)為,這對(duì)女性有利無弊,會(huì)使得她們能夠做她們想要做的工作,而不會(huì)削弱她們的就業(yè)選項(xiàng):“這會(huì)將她們從打上性別印記的崗位釋放出來。”
這聽上去令人期待。但在虛擬助手設(shè)計(jì)領(lǐng)域,卡塞爾對(duì)于性別的處理——完全消除其機(jī)器人的性別屬性——非常罕見。該領(lǐng)域鮮有其他人對(duì)于技術(shù)的性別有如此深刻的思考。時(shí)下的人工智能產(chǎn)品大多數(shù)都沒有體現(xiàn)這種社會(huì)覺悟。
女性缺乏行業(yè)影響力
跟很多從事科技或者安全領(lǐng)域的女性專業(yè)人士一樣,羅夫經(jīng)常是整張會(huì)議桌唯一的一名女性。
市場(chǎng)研究機(jī)構(gòu)Gartner 2014年的研究發(fā)現(xiàn),在歐洲、非洲和中東地區(qū),女性在科技領(lǐng)導(dǎo)崗位中的占比只有11.2%,亞洲是11.5%,拉丁美洲是13.4%,北美洲是18.1%。根據(jù)來自白宮和紐約大學(xué)信息法律學(xué)院舉辦的討論會(huì)的一份報(bào)告,在整個(gè)科技行業(yè),“女性占比非常低。”該報(bào)告還稱,“這種情況在AI領(lǐng)域甚至更加嚴(yán)重。”
對(duì)女性在該領(lǐng)域缺乏影響力的擔(dān)憂,部分因?yàn)楹苌倥赃M(jìn)入該行業(yè)。在計(jì)算機(jī)和信息科學(xué)碩士學(xué)位和博士學(xué)位的獲得者中,女性的占比分別約為18%和21%。埃森哲和Girls Who Code的聯(lián)合研究預(yù)計(jì),到2025年,女性在美國科技類崗位中的占比將達(dá)到五分之一。
目前已經(jīng)有一些項(xiàng)目在努力糾正修正這種現(xiàn)象。例如,2015年,斯坦福大學(xué)創(chuàng)立了一個(gè)面向高中女生的人工智能項(xiàng)目,以期解決科技行業(yè)女性從業(yè)人數(shù)較少的問題。
羅夫指出,女性還必須努力爭(zhēng)取代表出席人工智能方面的政策規(guī)劃會(huì)議的機(jī)會(huì)。
美國國家科學(xué)與技術(shù)委員會(huì)2016年10月的報(bào)告《準(zhǔn)備人工智能未來》稱,缺少女性和少數(shù)族裔,是“計(jì)算機(jī)科學(xué)和AI領(lǐng)域最重大和最亟待解決的挑戰(zhàn)之一。在《美國國家人工智能研發(fā)計(jì)劃》中,該委員會(huì)將“提高公平性、透明度和設(shè)計(jì)責(zé)任性”列為優(yōu)先事項(xiàng)。該報(bào)告警告稱,人類必須能夠清楚解釋和評(píng)估智能設(shè)計(jì),以實(shí)施監(jiān)控以及讓系統(tǒng)為偏見問題負(fù)責(zé)。該報(bào)告最后呼吁科學(xué)家們研究公平正義、社會(huì)規(guī)范和倫理道德,思考如何更責(zé)任地在人工智能的架構(gòu)和工程設(shè)計(jì)中加入對(duì)這些問題的考量。
像羅夫這樣的女性想要進(jìn)一步推動(dòng)這種呼吁行動(dòng)。在她看來,這是刻不容緩的事情。她認(rèn)為,女權(quán)主義倫理觀和理論必須要作出表率。她還說,“女權(quán)主義者會(huì)非常仔細(xì)地研究這些關(guān)系,”會(huì)提出種種有關(guān)未來技術(shù)的令人不安的問題,以及當(dāng)中所有的階層等級(jí)問題。