因此,期望Conversation AI在開放的網(wǎng)站(例如Twitter)中有良好的表現(xiàn),幾乎是癡人說夢。
Conversation AI如何檢測那些發(fā)送給猶太記者的辱罵性言論中關(guān)于大屠殺的暗示?對這些辱罵性言論的檢測是建立在機器學(xué)習(xí)算法能夠檢測的歷史知識和文化背景基礎(chǔ)之上的,而這些只有在機器學(xué)習(xí)算法接受過類似的訓(xùn)練之后才能實現(xiàn)。
即便如此,如果有人發(fā)送“如果特朗普贏了,我就會買這個”并附上相同的圖片,Conversation AI又如何能夠?qū)⑵渑c辱罵性言論進行區(qū)分?
事實上,這個過程所需要的語義和實踐知識,甚至已經(jīng)超出了目前機器學(xué)習(xí)所希望達到的目標。
因此,毫無疑問,專門的引戰(zhàn)帖將會找到一種新的方法來發(fā)布辱罵性言論,而這種方式可以避開類似于Conversation AI這樣的系統(tǒng)。如果目標是阻止評論者用侮辱性稱呼例如“同志”等稱呼對方的話,那么機器學(xué)習(xí)通過屏蔽一些評論可以很好地實現(xiàn)這一點。但是機器學(xué)習(xí)無法識別隱喻,例如說某人是“彎”的來隱喻某人不正常。
換句話說,對于那些已經(jīng)非常規(guī)范的社區(qū)來說,Conversation AI將會使得審核任務(wù)完成得更有效率。
但如果想要根除那些我們聽到的最糟糕的辱罵性言論 (這些言論通常出現(xiàn)在那些審核標準最低的網(wǎng)站上),Conversation AI則顯得無能為力。
除非改變Twitter和Reddit這些平臺的性質(zhì),否則想要管理存在于這些網(wǎng)站的辱罵性言論幾乎不可能。
本文作者:David Auerbach曾作為軟件工程師在谷歌和微軟供職11年,主要工作領(lǐng)域為服務(wù)器基礎(chǔ)設(shè)施。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!