我們?cè)谝黄瑢?duì)18歲照片的花樣贊美中,迎來(lái)了又一個(gè)新年。
按說(shuō)新年應(yīng)該是開(kāi)心的時(shí)候,但是剛剛跨年結(jié)束,抬頭一看居然要上班了!不由得悲從心來(lái)……所以今天我們打算說(shuō)點(diǎn)不那么開(kāi)心的事。
最近幾天,各種對(duì)2018年的科技預(yù)測(cè)層出不窮,其中對(duì)AI的暢想占了大頭,內(nèi)容差不多是一片喜慶祥和。
但事有兩來(lái),當(dāng)我們開(kāi)始從AI中收獲價(jià)值的時(shí)候,技術(shù)升級(jí)后帶來(lái)的潛在風(fēng)險(xiǎn)也在升溫。這就像汽車當(dāng)然好過(guò)牛車,但汽車也會(huì)帶來(lái)各種各樣的交通事故。我們當(dāng)然不能因此禁止汽車上路,但是也不能對(duì)交通問(wèn)題視而不見(jiàn)。
今天我們來(lái)預(yù)測(cè)幾個(gè),很可能在2018年進(jìn)入我們眼簾的“人工智能負(fù)能量”。
畢竟做好準(zhǔn)備,是解決問(wèn)題的前提條件。
一、人工智能倫理問(wèn)題開(kāi)始出現(xiàn)個(gè)案
2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial Al會(huì)議上,近千名人工智能相關(guān)領(lǐng)域的專家,聯(lián)合簽署了著名的《阿西洛馬人工智能23條原則》。
隨后,各種關(guān)于人工智能倫理道德的討論、會(huì)議,以及相關(guān)協(xié)會(huì)和科技組織開(kāi)始出現(xiàn)在公眾視野里。
《23條原則》的主要內(nèi)容,就是呼吁人工智能不能損害人類的利益和安全,同時(shí)人工智能必須可以被人類控制,同時(shí)人類要盡量尊重人工智能和機(jī)器人的安全。
聽(tīng)起來(lái)頗有點(diǎn)科幻的味道,但是在各行各業(yè)開(kāi)始部署AI,尤其開(kāi)始利用AI進(jìn)行自動(dòng)化決策的時(shí)候,人工智能的倫理與道德問(wèn)題或許真的會(huì)浮出水面。
比如說(shuō),自動(dòng)駕駛車輛在馬上要發(fā)生事故時(shí),是優(yōu)先保護(hù)路人還是乘客?假如AI診斷系統(tǒng),給出的建議是安樂(lè)死,那么它算是殺人嗎?為了避免更大損失,AI系統(tǒng)是否能打破規(guī)則,自行其是?
這其中最著名的,大概就是去年谷歌批評(píng)上海交大某團(tuán)隊(duì)進(jìn)行的“看臉定罪犯”研究。引發(fā)了媒體對(duì)于AI價(jià)值觀的大量討論。
在各個(gè)產(chǎn)業(yè)場(chǎng)景開(kāi)始使用AI技術(shù)時(shí),隨之而來(lái)的邊界問(wèn)題、責(zé)權(quán)問(wèn)題、道德選擇問(wèn)題這些在實(shí)驗(yàn)室中不會(huì)出現(xiàn)的矛盾將很可能被引發(fā)。
人類還從未真正討論過(guò)這些。假如2018年人工智能的落地化足夠快,倫理問(wèn)題的苗頭或許會(huì)臨近。
二、難以根治的的算法歧視
記得2016年,微軟推出過(guò)聊天機(jī)器人Tay,卻因?yàn)橛脩艚探o它大量種族歧視和臟話,一天內(nèi)就被暫時(shí)下線。這引出了一個(gè)極具爭(zhēng)議的話題:機(jī)器學(xué)習(xí)會(huì)吸收人類的知識(shí)和信息來(lái)塑造自己,那么假如它吸收的信息含有大量“不那么純良”的東西呢?
2017年,算法歧視問(wèn)題非但沒(méi)有被解決,各種各樣新的問(wèn)題還應(yīng)運(yùn)而生。比如谷歌大腦會(huì)給女性圖片打上很多關(guān)于家庭、弱勢(shì)的標(biāo)簽,顯然有悖于女權(quán)主義精神;而把黑人識(shí)別為大猩猩,則點(diǎn)燃了AI種族歧視的話題關(guān)注度。
所謂的算法歧視,對(duì)于普通消費(fèi)者來(lái)說(shuō),最有可能在內(nèi)容推薦和電商推薦兩個(gè)地方感覺(jué)到。
比如說(shuō)消費(fèi)者剛看過(guò)寬大的衣服,電商就推薦減肥藥,很可能讓消費(fèi)者聯(lián)想到算法在歧視自己胖;再比如打開(kāi)今日頭條這類軟件的時(shí)候,大家可能都出現(xiàn)過(guò)這種情況:偶爾點(diǎn)了一個(gè)推薦來(lái)的獵奇或者偽色情內(nèi)容,然后再一刷新。
好嘛,蜂擁而至的類似內(nèi)容啊,你本來(lái)想看的興趣內(nèi)容和專業(yè)內(nèi)容瞬時(shí)間化為烏有。甚至你怎么點(diǎn)我不關(guān)心不喜歡,平臺(tái)還是給你推薦。這就是因?yàn)樗惴ǖ臍w類方式給你貼上了標(biāo)簽。這種歧視感也蠻嚴(yán)重的,好像背后有個(gè)人奸笑著對(duì)你說(shuō):“承認(rèn)吧,你就是這么低俗……”
這類問(wèn)題的根源,是機(jī)器學(xué)習(xí)技術(shù)進(jìn)行個(gè)性推薦,今天還必須建立在兩個(gè)邏輯的基礎(chǔ)上:以過(guò)去算將來(lái),以群體算個(gè)體。算法會(huì)吸收以前有過(guò)的經(jīng)驗(yàn)來(lái)給你特定的某些東西,但很有可能歧視信息就包含在機(jī)器吸收的經(jīng)驗(yàn)里。
在個(gè)性推薦系統(tǒng)越來(lái)越多場(chǎng)景應(yīng)用可能的今天,我們恐怕短期內(nèi)還難以根治算法的歧視。
三、私人數(shù)據(jù)與機(jī)器學(xué)習(xí)的矛盾日益凸顯
人工智能和個(gè)人隱私,似乎從來(lái)都是一對(duì)天敵。
因?yàn)槿斯ぶ悄芗夹g(shù)假如想要提供個(gè)性化、完全符合個(gè)人習(xí)慣的服務(wù),那么就必然要學(xué)習(xí)和理解用戶本身。而這其中,就涉及對(duì)用戶私人數(shù)據(jù)的學(xué)習(xí)。