2016 年,上海交通大學(xué)的一篇論文《基于面部圖像的自動(dòng)犯罪概率推斷》引起了極大的爭(zhēng)議,被貼上了「歧視」的標(biāo)簽。近日,斯坦福大學(xué)在《Journal of Personality and Social Psychology》上公布了一篇論文《Deep neural networks are more accurate than humans at detecting sexual orientation from facial images》,同樣引發(fā)了極大的爭(zhēng)議。
據(jù)《衛(wèi)報(bào)》報(bào)道,該研究發(fā)現(xiàn)計(jì)算機(jī)算法能夠準(zhǔn)確地區(qū)分直男與同性戀,準(zhǔn)確率高達(dá) 81%,對(duì)女性的性取向判別的準(zhǔn)確率為 74%。這一研究引發(fā)了對(duì)隱私、道德問(wèn)題的爭(zhēng)議。
人臉識(shí)別正隨著技術(shù)的發(fā)展不斷進(jìn)步。在美國(guó),人臉識(shí)別正被教會(huì)用于跟蹤禮拜者;在英國(guó),零售商店用它來(lái)識(shí)別偷竊者。今年,威爾士警方使用人臉識(shí)別技術(shù)在體育場(chǎng)外逮捕了一名嫌犯。而在中國(guó),人臉識(shí)別技術(shù)可以確認(rèn)司機(jī)身份,讓游客進(jìn)入景點(diǎn),并已成為付款方式的一種。蘋(píng)果今年 9 月即將推出的新一代 iPhone 也幾乎確定會(huì)使用人臉識(shí)別技術(shù)來(lái)解鎖屏幕。
這種技術(shù)的應(yīng)用場(chǎng)景顯然還在不斷增多??萍嫉陌l(fā)展,就像飛機(jī)和互聯(lián)網(wǎng),顯著地改變了人類(lèi)生活的面貌,而人臉識(shí)別技術(shù)正在編碼人類(lèi)的生活。雖然人的面孔屬于個(gè)體,但也是公開(kāi)的,技術(shù)從一開(kāi)始就繞過(guò)了隱私權(quán)的爭(zhēng)議。現(xiàn)在,面對(duì)人臉圖像數(shù)據(jù)的記錄、存儲(chǔ)與分析,我們對(duì)于隱私、公平和信任的觀念正在面臨挑戰(zhàn)。
人臉不僅是名字的標(biāo)簽,它也顯示了很多其他的信息——而它們也是機(jī)器可讀的。這意味著我們可以利用它來(lái)造福人類(lèi),一些科技公司正在開(kāi)發(fā)自動(dòng)人臉識(shí)別系統(tǒng),用于罕見(jiàn)遺傳病的診斷,例如 Hajdu-Cheney 綜合征——人工智能的方法比其他已有方法能夠更快提供診斷;測(cè)量情緒系統(tǒng)也可以讓人們掌握自閉癥患者難以捉摸的情緒信號(hào)。然而,技術(shù)也會(huì)引發(fā)困擾,來(lái)自斯坦福大學(xué)的研究者們最近的研究已經(jīng)證明,當(dāng)看到同性戀或異性戀的照片時(shí),算法可以準(zhǔn)確識(shí)別出照片中人物的性取向(準(zhǔn)確率可達(dá) 81%,而人類(lèi)只有 61%)。在同性戀違法的國(guó)家里,這種軟件識(shí)別的方法顯然具有可怕的前景。
這項(xiàng)研究已經(jīng)發(fā)表在了《Personality and Social Psychology》上,并被最新一期《經(jīng)濟(jì)學(xué)人》等媒體報(bào)道。它基于超過(guò) 35,000 張美國(guó)交友網(wǎng)站上男女的頭像圖片訓(xùn)練。論文作者 Michal Kosinski 與 Yilun Wang 利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,利用大量數(shù)據(jù)讓計(jì)算機(jī)學(xué)會(huì)識(shí)別人們的性取向。
研究發(fā)現(xiàn),同性戀男女傾向于具有「性別非典型」特征、表情和「打扮風(fēng)格」。理論上,男同性戀趨向于女性化,而女同反之。在研究中,人們還找到了一些其他的趨勢(shì),如同性戀男人有比直男更窄的下巴,更長(zhǎng)的鼻子以及更大的前額;而同性戀女性相比「直女」趨向于有更大的下巴、更小的前額。
在「識(shí)別同性戀」任務(wù)中,人類(lèi)的判斷表現(xiàn)要低于算法,其準(zhǔn)確率為在男性中 61%,在女性中 54%。當(dāng)軟件識(shí)別被測(cè)試者的圖片(每人五張圖片)時(shí),準(zhǔn)確率則顯著不同:男性 91% 準(zhǔn)確率,女性 83% 準(zhǔn)確率。研究人員在論文中寫(xiě)道,廣義上,這意味著「人類(lèi)面孔包含了比人類(lèi)大腦可以感知和解釋的更多的性取向信息」。
論文指出,研究提供了有關(guān)性取向源于出生前暴露于某些激素的「強(qiáng)烈支持」,這意味著同性戀并不是一個(gè)可以被自己控制的選擇。而機(jī)器對(duì)于女性性取向識(shí)別成功率較低的現(xiàn)象則支持了女性對(duì)于性取向更加靈活的觀點(diǎn)。
雖然研究結(jié)果局限于性別——和性還有一些區(qū)別,有色人種沒(méi)有被納入研究,而變性者和雙性戀也沒(méi)有納入考量——但這項(xiàng)研究對(duì)于人工智能的影響敲響了警鐘。研究人員認(rèn)為,數(shù)十億存儲(chǔ)在社交網(wǎng)絡(luò)和政府?dāng)?shù)據(jù)庫(kù)中的公共數(shù)據(jù)都可以被用來(lái)進(jìn)行性取向識(shí)別,而無(wú)需本人的同意。
可想而知,一旦這種技術(shù)推廣開(kāi)來(lái),夫妻一方會(huì)使用這種技術(shù)來(lái)調(diào)查自己是否被欺騙,青少年使用這種算法來(lái)識(shí)別自己的同齡人,在 LGBT 非法的國(guó)家里會(huì)發(fā)生什么則更加難以想象。這意味著構(gòu)建一種具有爭(zhēng)議的軟件,并鼓勵(lì)人們利用它做出危害他人的事。
但該論文的作者表示,這些技術(shù)已經(jīng)存在,公開(kāi)以便政府和公司對(duì)其慎重考慮,并制定法規(guī)加以約束非常重要。
「這當(dāng)然是令人不安的,它就像任何新工具一樣,如果被錯(cuò)誤地使用,就會(huì)造成危險(xiǎn),」多倫多大學(xué)心理學(xué)教授 Nick Rule 表示。「如果我們開(kāi)始以外表來(lái)判定人的好壞,那么結(jié)果將會(huì)是災(zāi)難性的?!?p align="center" class="pageLink"> 1/2 1 2 下一頁(yè) 尾頁(yè)