歧視并非人類社會特有,作為人類智慧的衍生物,人工智能領(lǐng)域如今出現(xiàn)的歧視問題,也需引起我們的關(guān)注。
歧視已涉及方方面面
種族歧視:微軟在今年3月的Tay,一個人工智能聊天機(jī)器人。僅僅在 Twitter 火熱 16 小時后緊急下線。Tay 作為人工智能,所以她會模仿人類的言語來回答其它用戶的問題,在一天里,Tay 就被迅速“教成”了一位滿口污言穢語的種族歧視者。谷歌有個照片應(yīng)用,可以自動在電子相冊中把標(biāo)簽分配到不同照片上,用戶發(fā)現(xiàn)它會把黑人的照片歸類為大猩猩。谷歌做出了道歉,表示它并不是故意的。
性別歧視:早些時候美國波士頓大學(xué) Tolga Bolukbasi 和微軟研究院研究團(tuán)隊(duì)發(fā)現(xiàn),人工智能也存在著性別偏見。最近,谷歌的一款數(shù)據(jù)庫中,就被人發(fā)現(xiàn)了其微妙的“性別歧視”現(xiàn)象,很多工作的搜索結(jié)果會自動與性別對應(yīng)。比如,如果“女人”這個詞經(jīng)常和與家庭有關(guān)的詞一起出現(xiàn),那么“女人”這個概念就和“家庭”關(guān)聯(lián)性非常高。
話題傾向性:Facebook曾遭遇批評稱,該網(wǎng)站編輯對于新聞存在傾向性。Facebook表示:“在新版趨勢話題中,我們將不再需要簡單的趨勢描述或摘要。我們的團(tuán)隊(duì)將更多地轉(zhuǎn)向運(yùn)營和技術(shù)工作。”
種種現(xiàn)象看來,機(jī)器學(xué)習(xí)也不是那么的完美,最起碼的從人類身上是好的壞的全都吸收了。
人工智能歧視源于哪里?
其根源是人類讓機(jī)器學(xué)習(xí)的“數(shù)據(jù)庫”,即人工智能學(xué)習(xí)人類平日語言表達(dá)所固有內(nèi)容形成的框架。簡單來說,機(jī)器學(xué)習(xí)的原理就是用大量的數(shù)據(jù)對算法進(jìn)行訓(xùn)練,從而達(dá)到理解人、學(xué)習(xí)人的目的。
人工智能由感知上升為對世界的理解,然后通過理解做出反應(yīng)。在數(shù)據(jù)中不斷學(xué)習(xí)、加深對于問題的理解,同時跟隨數(shù)據(jù)的演進(jìn),才是關(guān)鍵,這也是大數(shù)據(jù)的重要意義,在數(shù)據(jù)的本質(zhì)上,為人提供了解世界的可能性。
一旦將數(shù)據(jù)導(dǎo)入機(jī)器,機(jī)器就可通過消化和吸收生成對世界認(rèn)知的模型。因?yàn)闄C(jī)器學(xué)習(xí)的目的本來就是理解人、模仿人,發(fā)展的過程中必定會帶有人類社會里不那么光明的一面??梢哉f,在機(jī)器學(xué)習(xí)中存在著很多人類社會帶來的偏見影響,所以在其表達(dá)上也會或多或少的受其影響而反映出這樣或者那樣的問題。
所以總結(jié)起來非常簡單:我們從周圍的世界學(xué)習(xí)到偏見,而AI則從我們這里學(xué)到偏見。Caliskan-Islam, Bryson, and, Narayanan寫到,人工智能(AI)“就能夠從顯示歷史不公正的訓(xùn)練數(shù)據(jù)中獲得有害的偏見。”
而且,在智能汽車領(lǐng)域,研究人員意圖將機(jī)器學(xué)習(xí)運(yùn)用到人工智能車載系統(tǒng)上,并讓其學(xué)會車主的駕駛習(xí)慣。但是,在看了上面的例子之后,我們還能對這樣的應(yīng)用放心嗎?
人工智能歧視怎么破?
人工智能的偉大之處不在于讓機(jī)器更偉大,而在于開發(fā)智能機(jī)器人輔助人,讓每個平凡的人變得更偉大。先賢們雖然有遠(yuǎn)見,但是有些過分樂觀,他們認(rèn)為,人工智能的基本問題可以在一個夏天解決,但是這些問題至今沒有完全解決。
即使不能指望根除,也要嘗試著去化解,比如從以下的幾個方面:
1、技術(shù)升級領(lǐng)域:這得從數(shù)據(jù)方面下手。如果想要好好的訓(xùn)練算法,研究人員就得剔除數(shù)據(jù)中的不良信息和隱藏的邏輯,再讓算法分別識別。但從這里我們就可以了解到,這是對于研究人員而言,將是一項(xiàng)極其繁重、極具難度的工作。人類從誕生至今產(chǎn)生的歧視,會通過公式就能解決?
我們要么被迫學(xué)會信任人工智能,要么試圖控制它們。因?yàn)楫?dāng)不透明的算法帶來災(zāi)難時,我們再去要求解釋可能就毫無意義了。
2、制度建設(shè)領(lǐng)域:我們要做的也許就跟歐盟的算法鑒別法案建議的一樣:確保決策鏈中有人類的參與。當(dāng)然,我們也無法確保人類不會有偏見,但是禁止深度學(xué)習(xí)和先進(jìn)人工智能底層技術(shù)的研發(fā)是毫無意義的,我們可以引導(dǎo)它朝著有利于人類的方向發(fā)展。要做到這一點(diǎn)需要政治意愿的參與,需要有完善的制度、法律的規(guī)范,而不能只是讓企業(yè)追逐自己的利益。