數(shù)據(jù)泄露事件,擊潰了Facebook的商業(yè)運作邏輯
最近,創(chuàng)建14年的美國社交網(wǎng)絡(luò)公司Facebook,正遭受自創(chuàng)建以來最大的危機,媒體甚至將“滅頂之災(zāi)”冠之頭上。
上周五,F(xiàn)acebook承認(rèn),曾在2016年幫助特朗普贏得美國總統(tǒng)大選的數(shù)據(jù)分析公司Cambridge Analytica(劍橋分析),違規(guī)獲得了5000萬Facebook用戶的信息。與此同時,F(xiàn)acebook也始終在強調(diào),這次事件并非數(shù)據(jù)泄密,因為Facebook并沒有遭遇任何攻擊或系統(tǒng)滲透,對方所獲得的5000萬用戶數(shù)據(jù)來源于第三方。
但不管如何,于公眾而言,F(xiàn)acebook才是這次事件的最大禍?zhǔn)住?/p>
若僅僅是因為卷入2016年的美國總統(tǒng)大選,對于Facebook來說尚可應(yīng)付,畢竟,自當(dāng)年大選以來,F(xiàn)acebook就一直與之糾纏不清。
問題是,此次事件的爆發(fā),從根本上打擊了Facebook的商業(yè)運作邏輯,即通過用戶的行為偏好進行特征分析,完成用戶畫像,進而借助相應(yīng)的算法模型,來向用戶精準(zhǔn)投放廣告。過去Facebook可以依靠用戶的不斷增長實現(xiàn)業(yè)績紅利,現(xiàn)在卻不得不依靠更高質(zhì)量的廣告投放來獲得客戶青睞。
可顯然,當(dāng)下“數(shù)據(jù)泄密”事件的爆發(fā),動搖了用戶對Facebook的信任。很多美國用戶在事件爆發(fā)后就以卸載Facebook App來表達其憤怒。
Facebook旗下的Whatsapp則公開與之切割,表示在確保數(shù)據(jù)安全前不會與之共享數(shù)據(jù)。
數(shù)據(jù)的濫用,正在使其成為“有毒資產(chǎn)”
自移動互聯(lián)網(wǎng)爆發(fā),大數(shù)據(jù)、人工智能等技術(shù)大行其道以來,數(shù)據(jù)似乎成為一座巨大的財富礦山?,F(xiàn)在看來,數(shù)據(jù)的濫用卻正在使其成為個人的有毒資產(chǎn)。雖然說任何新興技術(shù)的出現(xiàn)、進化都需要一個過程,在任何時代也不可能做到絕對的安全,但類似的數(shù)據(jù)泄密事件,還是應(yīng)該引起人類的反思,尤其是保護數(shù)據(jù)的方法和原則。
當(dāng)前,許多數(shù)據(jù)保護的方法,局限于數(shù)據(jù)采集的方式和目的限制。即使是將于5月25日生效的歐盟《統(tǒng)一數(shù)據(jù)保護條例》(GDRR)也是如此。
從全球范圍內(nèi)來看,《統(tǒng)一數(shù)據(jù)保護條例》對數(shù)據(jù)隱私的強調(diào)更加嚴(yán)格,更加強化對自然人數(shù)據(jù)的保護。比如在將數(shù)據(jù)運用于智能決策方面上,它要求將關(guān)鍵數(shù)據(jù)排除在智能決策之外。該條例所列舉的敏感數(shù)據(jù)包括種族、政治傾向、宗教信仰、健康、性生活、性取向的數(shù)據(jù),或者可唯一性識別自然人的基因數(shù)據(jù)、生物數(shù)據(jù)。
同時,該條例也要求增加進行采集數(shù)據(jù)時的透明度,即明確數(shù)據(jù)采集的范圍、使用的目的等,并且要求數(shù)據(jù)進行分析的過程必須是可被理解的。
因此,目前廣泛應(yīng)用于人工智能技術(shù)的深度學(xué)習(xí)算法,在5月25日之后的歐盟地區(qū),將成為“非法”的,因為它并不能被解釋。
雖然GDRR對數(shù)據(jù)保護進行了強化,但其邏輯并沒有改變,仍然局限于對數(shù)據(jù)采集的許可及其使用目的的限制。
數(shù)據(jù)的處理和使用,應(yīng)納入監(jiān)管
而Facebook這次的“泄密”事件卻告訴我們,僅僅局限于此恐怕遠不足夠,還需要從數(shù)據(jù)的使用及處理等方面加強。
首先,隨著移動設(shè)備的更加普及,以及諸如數(shù)字建筑等的出現(xiàn),未來人類社會必然需要不斷與數(shù)據(jù)打交道。甚至可以明確地說,未來必定存在一個物理實體的人類社會,與一個數(shù)字化的虛擬人類社會。兩者是為共生的孿生體。人類無法避免數(shù)據(jù)被收集的可能。
更何況,隨著技術(shù)的進化,更多的數(shù)據(jù)未必直接來自物理現(xiàn)實,而是基于物理現(xiàn)實推測、觀察出來的數(shù)據(jù)。從這一角度上講,這類數(shù)據(jù)將是上述歐盟法律條例無法監(jiān)管的范圍。
再者,誠如此次Facebook事件所呈現(xiàn)的,Cambridge Analytica的數(shù)據(jù)并非直接來自Facebook,而是第三方的轉(zhuǎn)售。因此,基于采集的許可及目的限制等保護數(shù)據(jù)原則,對此將束手無策。
因此,需要轉(zhuǎn)向基于以合法利益受損的影響及危害等原則進行評估,拓展到對數(shù)據(jù)的使用及處理層面的監(jiān)管。這也是防止數(shù)據(jù)被濫用,或是惡意使用算法所必然要求的。在這層意義上,歐盟《統(tǒng)一數(shù)據(jù)保護條例》要求算法可被理解,具有相當(dāng)?shù)倪M步意義。
在此,我們必須意識到,大數(shù)據(jù)本身并不中立,它反映的是人類真實的社會。一個并不真正平等、存在偏見和歧視的不完美社會,必然導(dǎo)致不完美的大數(shù)據(jù)分析結(jié)果。同樣,作為最能反映創(chuàng)造者特征的人工智能技術(shù),也勢必同樣充滿價值觀,其算法可能被惡意使用。為了確保數(shù)據(jù)不淪為人的有毒資產(chǎn),數(shù)據(jù)保護的原則與思路,需要進行與時俱進,從處理和使用環(huán)節(jié)上著手。