傳統(tǒng)媒體正陷入困境中,它們不再是新聞和信息的唯一來源,互聯(lián)網(wǎng)和社交媒體已經成為新聞分享的主要平臺。皮尤研究中心的報告顯示,62%的美國人從社交媒體上獲取新聞。社交媒體的興起也意味著任何人都可以創(chuàng)造和分享新聞故事,不管它們是真的還是假的。消費者受到大量新聞故事的“炮轟”,卻不知道這些內容是否真實。
在社交媒體上,重要的是情感,而不是事實。正如Facebook前產品管理副總裁薩姆萊辛(Sam Lessin)接受《連線》雜志采訪所說的那樣:“為了獲得市場份額,你需要更加激進,理性不會幫你得分。”
為了真正地吸引讀者的情感,新聞出版商為了在新聞市場上保持吸引力,不得不出版扭曲的真相。如今,新聞必須是可分享的,新聞越激進,它在社交媒體上被分享得越多。發(fā)布假新聞的成本接近于零,因此,維持值得信賴的新聞發(fā)行商聲譽的動機越來越少。
谷歌正通過在新聞網(wǎng)站news.google.com以及手機和平板電腦上的Google News and Weather應用程序中引入事實核查功能在與虛假新聞作斗爭。Android Headlines援引杜克大學記者實驗室的報道稱,目前有100多家活躍的事實核查網(wǎng)站。然而,正如他們指出的那樣,由于共享信息的成本較低和更多的運營商參與了新聞傳播,幾乎不可能對所有的虛假新聞來源進行檢查和監(jiān)管。
幸運的是,我們也不再生活在一個需要由人類完成所有工作的時代。西維吉尼亞大學正在開發(fā)人工智能(AI)系統(tǒng),以檢測新聞是否真實。這所大學計算機科學系的成員們正與WVU Reed大學合作創(chuàng)建一個假新聞檢測系統(tǒng),其中一種方法是使用機器學習來分析文本,并給它打分,分數(shù)可指示它可能屬于假新聞。
為了提高透明度,這些分數(shù)被分解成幾個能夠解釋評級標準的成分。西維吉尼亞大學計算機科學系學生史蒂芬沃爾納(Stephan Woerner)表示:“AI可以像人類那樣擁有同樣的信息,但它可以應對大量新聞,并破譯其有效性而不會感到疲憊。人們往往有政治或情感傾向,但AI則不然。它只用于解決被訓練用來對抗的問題。”
這些AI的工作屬于跨學科努力,因為解決假新聞危機不僅依賴AI,而且還需要社會和政治投入。欺詐監(jiān)測公司DataVisor的產品經理凱瑟琳盧(Catherine Lu)對AI檢測假新聞的可能性非常樂觀。她說,AI可以通過分析標題、主題、地理位置和主體文本來檢測出網(wǎng)絡故事背后的語義含義。自然語言處理引擎可以查看這些因素,以確定一個網(wǎng)站的覆蓋范圍與其他網(wǎng)站如何報道同樣的事實,以及主流媒體是如何處理它的。
Fake News Challenge是另一個對抗虛假新聞的平臺。這個研究項目主要關注AI的潛力,特別是機器學習和自然語言處理,以識別假新聞故事。它從一個立Stance Detection過程開始,這個過程會檢查新聞文章的視角,并與其他報道進行對比。例如,它可以檢測兩大標題是否一致或相互矛盾。
德國網(wǎng)絡安全公司ESNC的首席執(zhí)行官阿薩爾(Ertunga Arsal)告訴??怂剐侣劸W(wǎng),互聯(lián)網(wǎng)上假新聞泛濫實際上有利于AI檢測假新聞,這是因為大量的信息為機器學習和自然語言處理系統(tǒng)提供了大量可供學習的數(shù)據(jù)。然而,AI還不能完全勝任這項工作。盡管像Fake News Challenge這樣的工具可以在特定范圍縮小假新聞比例,比如“奧巴馬時代美國失業(yè)率上升”,但更復雜的標題,比如“普京治下的俄羅斯人干涉美國總統(tǒng)選舉”,仍然超出了AI和機器學習可以應對的虛假或正確新聞的范疇。
Fake News Challenge表示:“除非我們已經擁有達到了人類水平的AI,能夠理解微妙而復雜的人際互動,并進行調查性新聞報道,那時我們才有可能自動檢查。”然而,自動化系統(tǒng)無疑會讓工作的某些部分變得更容易、更高效。
并非所有人都這么樂觀。安全公司Guidance Software的高級技術經理保羅肖莫(Paul Shomo)告訴??怂剐侣劸W(wǎng)說,假新聞的生產商可以使用AI算法來操縱他們的作品分析,而假陽性可以識別真實的新聞故事。
紐約大學斯特恩商學院的兼職教授達倫坎普(Darren Campo)也對利用AI發(fā)現(xiàn)假新聞的后果表示謹慎。他在接受采訪時說,人們關心的是新聞是否與他們自己的世界觀相匹配,而不是它是否是假的。假新聞主要是基于讀者的情緒反應。根據(jù)坎普的說法:“AI無法理解人們準備享受謊言的背景。”