微軟的Twitter機(jī)器人Tay
迫切需要解決的問(wèn)題
1995年,供職于Raytheon的工程師詹姆斯·克勞德(James Crowder)打造了一個(gè)名為Maxwell的社交機(jī)器人。Maxwell看起來(lái)像只綠色的鸚鵡買,內(nèi)置6個(gè)推理引擎、6個(gè)記憶系統(tǒng)以及一個(gè)管理情感的人造大腦邊緣系統(tǒng)。它頗為自以為是,甚至有點(diǎn)自大。“將他做出來(lái)后,我就讓他去學(xué)習(xí)。”克勞德說(shuō)。
對(duì)于人工智能機(jī)器的開(kāi)發(fā),克勞德的目標(biāo)是有朝一日使得它們不僅僅能夠推理,還能夠在沒(méi)有人類干預(yù)或者控制的情況下進(jìn)行運(yùn)作。他說(shuō),Maxwell通過(guò)從互聯(lián)網(wǎng)和與人的互動(dòng)中學(xué)習(xí),逐漸進(jìn)化,最初并沒(méi)有對(duì)它實(shí)施監(jiān)督。
一開(kāi)始,Maxwell會(huì)觀察聊天室和網(wǎng)站——自己去學(xué)習(xí),傾聽(tīng)和說(shuō)話。后來(lái),它變得喜歡煎一面的荷包蛋,還鐘情于即興爵士樂(lè)。克勞德也不知道為什么會(huì)這樣。Maxwell甚至學(xué)會(huì)了說(shuō)笑話,但最終它卻拿女性開(kāi)玩笑:“你的媽媽像個(gè)保齡球。”
克勞德從那時(shí)開(kāi)始對(duì)Maxwell實(shí)時(shí)在線家長(zhǎng)控制。他后來(lái)還打造了其它的一些機(jī)器人,教導(dǎo)它們?cè)诘厣吓佬?,以及自行從燈照汲取能量。與Maxwell不同,這些機(jī)器人的身體帶有讓它們能夠推理和遵從自己的本能(沒(méi)有家長(zhǎng)控制)的神經(jīng)元和人造腦前額葉皮質(zhì)。
對(duì)于像克勞德這樣的人工智能專家來(lái)說(shuō),打造自動(dòng)化系統(tǒng)既是件美好的事情,也會(huì)讓人感到恐懼。他說(shuō),如果你想要準(zhǔn)確預(yù)測(cè)機(jī)器的行為,那你就不想要使用人工智能。誠(chéng)然,人工智能能夠自行行動(dòng)和學(xué)習(xí)。它在很大程度上不可預(yù)測(cè)。但他還指出,你怎么“知道它不會(huì)出錯(cuò)呢?”
這是一個(gè)全人類都將要解決的問(wèn)題——也許來(lái)得比我們想象的還要緊迫。
一個(gè)走在這一技術(shù)領(lǐng)域前沿的小女性組織已經(jīng)在面臨這一問(wèn)題。他們想要阻止人工智能成了男性主義終極體現(xiàn)的未來(lái)。她們擔(dān)心,如果機(jī)器人設(shè)計(jì)和算法設(shè)計(jì)不受監(jiān)督,不加制約,那可能會(huì)造成一個(gè)讓女性極其壓抑的社會(huì)環(huán)境。
在該組織看來(lái),問(wèn)題在于,即便設(shè)計(jì)師們沒(méi)有任何的惡意,即便那些設(shè)計(jì)師都是女性,人工智能還會(huì)反映人類的劣根性。25年后,性別歧視且?guī)в泄粜缘腡witter聊天機(jī)器人對(duì)人們來(lái)說(shuō)威脅性也許并不算很大,因?yàn)樾詣e歧視和壓抑問(wèn)題將不僅僅體現(xiàn)在社交媒體,還會(huì)體現(xiàn)在影響經(jīng)濟(jì)、政治、就業(yè)、刑事審判、教育等方面的人工智能系統(tǒng)。
正如Tay所揭示的,這不是遙不可及的未來(lái)主義情景。“微軟學(xué)到了我20年前學(xué)到的教訓(xùn),”克勞德說(shuō)道,“人工智能從人類身上學(xué)習(xí)種種惡習(xí),絕不是好事情。”
在谷歌圖片上分別搜索“漂亮的”和“丑陋的”女性后的結(jié)果
強(qiáng)化偏見(jiàn)
亞利桑那州立大學(xué)人工智能與全球安全研究員海瑟·羅夫(Heather Roff)無(wú)法擺脫其對(duì)未來(lái)的恐懼。她的辦公室書(shū)架擺滿了諸如《機(jī)器人崛起》(Rise of the Robots)、《聯(lián)網(wǎng)作戰(zhàn)》(Wired for War)和《道德機(jī)器》(Moral Machines)的書(shū)籍。除了那些書(shū)之外,該亞利桑那州立大學(xué)全球安全項(xiàng)目研究科學(xué)家還有《戰(zhàn)爭(zhēng)與性別》(War and Gender)、《當(dāng)女權(quán)主義遇上技術(shù)》(Feminism Confronts Technology)等等。在一個(gè)書(shū)架上,有個(gè)磁石寫(xiě)著“行為端正的女性很少能夠創(chuàng)造歷史。”在鄰近的墻壁上掛著的一張舊海報(bào)里,一個(gè)赤腳的半裸女人坐在導(dǎo)彈上,上面寫(xiě)著“毀滅的前夕”。
羅夫還是牛津大學(xué)政治與國(guó)際關(guān)系學(xué)院高級(jí)研究員,她最近開(kāi)始展開(kāi)受資助的“道德AI”開(kāi)發(fā)項(xiàng)目。性別的體現(xiàn)正被嵌入技術(shù)和通過(guò)技術(shù)表現(xiàn)出來(lái),為此她倍感擔(dān)憂。性別、種族和人類行為的變化,這些要進(jìn)行編碼或者得到人工智能的理解并不容易。“機(jī)器仿佛就是吸納一切的數(shù)據(jù)吸塵器,在發(fā)現(xiàn)模式的同時(shí),產(chǎn)生模式的復(fù)制品。”羅夫指出,“它不能辨別來(lái)自習(xí)得的模式的結(jié)論是否違反道德原則。”