看到網(wǎng)上有人用這個形象的例子來形容大數(shù)據(jù)時代無所不在的歧視和偏見:如果LV專賣店門口掛一個牌子,寫著“窮人與狗不得入內(nèi)”,這是不是會被無數(shù)人唾罵,甚至告上法院。但是互聯(lián)網(wǎng)信息時代,人工智能加上五花八門的大數(shù)據(jù)算法,卻可以堂而皇之地把人分成三六九等,然后把不招待見的客人剔除在門外。
比如微信上的定向廣告,收到寶馬廣告的客戶在大數(shù)據(jù)和算法的邏輯里就應該比收到小米廣告的用戶要高端,這不就是大數(shù)據(jù)時代的“窮人與狗不得入內(nèi)”么。
當然,你可以說這是個性化精準推送,不會騷擾到對寶馬不感興趣(應該是買不起寶馬)的那些用戶,還會覺得這種大數(shù)據(jù)算法還是不錯的商業(yè)模式。那么當你知道全球最大的職業(yè)社交網(wǎng)站LinkedIn,它的算法里會默認把職位更高、薪水更高的工作推薦給男性用戶,而把職位更低、薪水更少的工作推薦給女性用戶的時候,你會怎么想?
LinkedIn全球擁有5億注冊用戶,無數(shù)公司的HR視LinkedIn為發(fā)布招聘信息的最重要渠道之一。如此多的招聘信息通過LinkedIn帶有“偏見”的算法處理之后,“歧視性”地把更好的工作推送給帶有男性、白人等關鍵詞信息的用戶,而將較差的職位推送給女性、有色人群等,而且是在完全不公開、不透明的過程中進行。長此以往,對于整個商業(yè)社會帶來的負面影響,將無法估算。
之所以存在這些歧視和偏見,其中一個原因是這些程序的設計者、機器學習專家們都是男性,甚至是白人居多。所以在全球第一屆人工智能當評委的選美大賽里,皮膚黑的美女都落榜了,上榜的都是膚白腿長、社會上普遍認為的美女。足以見得,這個人工智能的算法背后,肯定是一群“直男”工程師的審美標準。
無獨有偶,全球算法最牛的公司Google也存在著類似的歧視。Google在推出人臉識別的時候,能夠很容易辨別白人,但是黑人等有色人種的識別率就非常差,黑人有時甚至會被機器自動識別成為黑猩猩。問題出現(xiàn)之后,Google雖然第一時間出來道歉,表示這是無意為之,以及承諾未來會更加注意對數(shù)據(jù)的選取和算法的設計。但是大數(shù)據(jù)算法里反映著人類普遍存在的“鄙視鏈”,這一點卻毋庸置疑。
當然,還有更多的算法,其背后邏輯不公開、不透明,我們作為局外人也沒有辦法了解,設計者存在的偏見和歧視、各種商業(yè)利益都會被反應到算法之中。被大數(shù)據(jù)算法貼上了什么標簽,就相當于是被劃上了不同的階層,很可能會決定這個人一生。而這也會引發(fā)一系列全新的道德問題。
窮人只配買廉價的商品,好東西都留給上等人
大數(shù)據(jù)時代,各家公司都在拼盡全力搜羅數(shù)據(jù)、盡可能地詳盡了解自己的用戶,并且通過自己設計的算法將其分類,并且標簽化。一旦貼上標簽,就直接將這個客戶圈定在了一個固定的階層。比如,招聘網(wǎng)站的算法推測你目前的年薪是30萬元,而你交際的圈子也差不多是這個水準,那么它會在很大概率上給你推薦年薪在50萬元以內(nèi)的工作,盡管你可能更加勝任那個70萬年薪的工作。你在根本不知道年薪70萬的工作的時候,你怎么可能獲得它呢?
甚至連移動電話公司都會“看人下菜碟”:他們對你標簽化之后,會根據(jù)你所在的檔次向你推薦這個檔次的電話號碼。也就是說你如果是“窮人”這檔,都沒有機會獲得數(shù)字好一點的電話號碼。而電話號碼,又會在很多時候決定你在其他地方的階層,比如一位在銀行的貸款經(jīng)理朋友就告訴我,139、138等好的手機號碼在他們系統(tǒng)里的授信分值就是比其他的手機號碼要高,可能獲得貸款的金額、信用卡的額度都要更高。
電子商務平臺的“鄙視鏈”就更加赤裸裸:你的每一次點擊、每一張頁面的瀏覽、每一次下單都會被記錄在電商網(wǎng)站的大數(shù)據(jù)之中,這些都是為你打分、貼標簽和劃分等級的重要維度。如果你是一個精打細算的用戶,“價格敏感型”就是你的標簽,那么網(wǎng)站給你推送商品的時候,自然是優(yōu)先選擇價格低的,那么為了用足夠低的價格吸引你,算法可以忽略掉質(zhì)量。所以,在給你的產(chǎn)品推薦的前幾頁,大多都是廉價而質(zhì)量也不太好的產(chǎn)品;那么對價格不那么敏感的用戶,自然可以獲得高質(zhì)量產(chǎn)品的推薦。其實有時候,兩者的價格真的不會差距很大,但是出現(xiàn)在價格敏感型客戶推薦頁上的產(chǎn)品真的跟價格不敏感型客戶推薦頁上的不一樣,長期下來,兩者獲得的服務和生活質(zhì)量還是會有差別的。