研究者們還發(fā)現(xiàn),機器學習程序更容易讓非洲裔美國人的名字和不愉快的詞語產生關聯(lián);這種事情就不怎么會發(fā)生在歐洲裔美國人名字上。同樣地,這些偏見在人類中也大規(guī)模存在。芝加哥大學的Marianne Bertrand和哈佛大學的Sendhil Mullainatha在2004年合作發(fā)表過一篇著名論文,其中他們向1300個招聘職位發(fā)送了接近5000封簡歷,而這些簡歷間的區(qū)別僅僅在于求職者的名字是傳統(tǒng)歐洲裔美國人的還是傳統(tǒng)非洲裔美國人的。結果是驚人的,前者得到面試邀請的概率要比后者高50%。
通過給底層的AI系統(tǒng)和機器學習程序開發(fā)明確的、數(shù)學性的指導規(guī)范,有可能可以避免讓電腦程序把人類文化中的刻板性別觀念一直延續(xù)下去。就像爸爸媽媽或者老師們給小孩逐漸灌輸公平公正的觀念一樣,人工智能的設計者們也可以努力讓人工智能更多地反映出人性中更好的那一面。
Narayanan最后總結說:“我們在這篇文章中研究的偏見確實很容易在人工智能系統(tǒng)的設計過程被忽視,這些社會中的偏見和刻板印象以復雜的方式反映在我們語言中,而且難以去除。相比于減少甚至完全消除這些偏見,我覺得更好的方式是先接受這些偏見是我們語言習慣的一部分,然后在機器學習方面建立明確的標準來區(qū)分哪些偏見是我們可以接受的,哪些是不允許出現(xiàn)的。”