不過,Rule 認(rèn)為開發(fā)和測試這項(xiàng)技術(shù)的重要性不言而喻:「研究者們證明了這種方法非常強(qiáng)大……現(xiàn)在我們明白了我們需要做點(diǎn)什么了?!?/p>
Kosinski 目前拒絕接受采訪,斯坦福大學(xué)表示,這位教授以在劍橋大學(xué)時(shí)期進(jìn)行的心理學(xué)研究而聞名,其中包括使用 Facebook 數(shù)據(jù)識別人格。有趣的是,在 2016 年美國大選,以及英國脫歐投票時(shí)期,數(shù)據(jù)分析機(jī)構(gòu)也使用了類似的分析方法來試圖影響投票者,這種技術(shù)引發(fā)了人們的擔(dān)憂。
在斯坦福大學(xué)的研究中,作者同時(shí)指出,人工智能可以被用于探索面部特征與其他很多特性之間的聯(lián)系,如政治觀點(diǎn)、心理狀況和個性。
這一類型的研究進(jìn)一步引起了人們對于類似電影《少數(shù)派報(bào)告》中危險(xiǎn)的擔(dān)憂,在電影中,警察可以預(yù)測犯罪的發(fā)生,并對其進(jìn)行阻止。
「如果有了足夠的數(shù)據(jù),人工智能可以告訴你任何人的任何事,」人臉識別科技公司 Kairos 首席執(zhí)行官 Brian Brackeen 說道?!竼栴}是對于社會來說,我們需要知道嗎?」
Brackeen 表示,斯坦福大學(xué)研究人員有關(guān)性取向的研究「非常正確」,人們需要對于隱私和機(jī)器學(xué)習(xí)新技術(shù)持有更加慎重的態(tài)度,這樣才能阻止危險(xiǎn)發(fā)生。
Rule 對于人工智能,特別是人臉識別的未來也表示擔(dān)憂:「我們都需要對此保持關(guān)注?!?/p>
論文:Deep neural networks are more accurate than humans at detecting sexual orientation from facial images.
鏈接:https://osf.io/zn79k/
摘要:我們展示了人臉包含很多有關(guān)性取向的信息,可被人類大腦感知并解讀。我們使用深度神經(jīng)網(wǎng)絡(luò)從 35326 張面部圖像中提取特征。這些特征被輸入到一個 logistic 回歸算法中,來分類性取向。給定一張面部圖像,分類器能夠準(zhǔn)確的區(qū)分同性戀與直男,準(zhǔn)確率高達(dá) 81%,女性準(zhǔn)確率為 74%。而人類在這方面的準(zhǔn)確率更低:男、女性準(zhǔn)確率分別為 61% 與 54%。如果給定某個人的 5 張面部圖像,算法判定是否為同性戀的準(zhǔn)確率增長到 91% 與 83%。分類器采用的面部特征包括固定的(例如鼻子形狀)與暫時(shí)的面部特征(如裝飾風(fēng)格)。與性取向產(chǎn)前激素理論一致,同性戀傾向于擁有性別非典型面部形態(tài)、表達(dá)與裝飾風(fēng)格。針對單性別的預(yù)測模型檢測男性同性戀的準(zhǔn)確率為 57%,女性同性戀的準(zhǔn)確率為 58%。這些發(fā)現(xiàn)推進(jìn)了我們對性取向以及人類認(rèn)知缺陷的理解。此外,在公司與政府越來越多地使用計(jì)算機(jī)視覺算法探測人的私密特征,我們的研究暴露出男、女性同性戀的隱私與安全問題。
圖 4:通過把普通人臉分類為最可能是同性戀與最不可能是同性戀而建立的合成人臉與普通人臉標(biāo)志