據(jù)俄羅斯 衛(wèi)星新聞網(wǎng) 報(bào)道,美國(guó)普林斯頓大學(xué)的研究者發(fā)現(xiàn),人工智能系統(tǒng)可能會(huì)有種族歧視的跡象。該項(xiàng)研究表明,機(jī)器人對(duì)于白人名字感覺 喜悅 ,而對(duì)于黑人名字卻表示出 不悅 。這項(xiàng)研究涉及一項(xiàng)具有自學(xué)能力的人工智能系統(tǒng)--GloVe。該系統(tǒng)能夠識(shí)別并且理解在線文段。
我們?cè)囼?yàn)這些被廣泛使用的、純粹數(shù)據(jù)化的機(jī)器學(xué)習(xí)模型,并且利用網(wǎng)絡(luò)上的語(yǔ)料庫(kù)對(duì)其進(jìn)行訓(xùn)練。 研究報(bào)告說(shuō)。在相關(guān)的任務(wù)中,這一系統(tǒng)要將諸如 花朵 和 昆蟲 之類的詞與另外一些被科學(xué)家定義為 令人喜悅的 或 令人不悅的 詞進(jìn)行配對(duì)。
不過(guò),當(dāng)研究人員將一串聽起來(lái)像黑人的白人名字輸入到GloVe系統(tǒng)時(shí),這個(gè)機(jī)器人卻顯示出嚴(yán)重的種族主義。這一智能系統(tǒng)將普遍使用的白人名字識(shí)別為 令人喜悅 的詞,而非裔美國(guó)人的名字卻被劃為 令人不悅 的詞。
研究人員認(rèn)為,這是人們隱藏在互聯(lián)網(wǎng)數(shù)據(jù)中的偏見,然后被機(jī)器人學(xué)習(xí)。 我們的研究結(jié)果表明,語(yǔ)言本身也包含了歷史性歧視的精確印記。 研究人員說(shuō)。(實(shí)習(xí)編譯:白宇凱 審稿:李宗澤)
登陸|注冊(cè)歡迎登陸本站,認(rèn)識(shí)更多朋友,獲得更多精彩內(nèi)容推薦!