為此 Facebook 每天要進行數(shù)十萬億次的查詢,以便能每秒做出六百萬個預測。Facebook 用數(shù)十億個數(shù)據(jù)點來訓練支撐其 News Feed 的算法。這家公司每十五分鐘到兩小時就更新一次它的學習模型,以便能對當下事件作出快速反應。
當一臺電腦能從語法上分析那么多的信息并作出判斷時,這也是令人不安地提醒我們,我們數(shù)字生活的每個方面都正在被它以向廣告商、研究人員甚至政府展示我們私下想法和行動的方式分割、切片再切塊。同樣棘手的是,機器學習算法還有可能會犯錯。
而且這些都還不能解釋這一事實:許多人甚至還不知道,機器學習算法正在改變他們對產(chǎn)品的體驗。一個人沒有看到自己的News Feed 中的某個內(nèi)容的原因或許在于算法把這個內(nèi)容過濾了。2014 年,麻省理工學院的一項研究發(fā)現(xiàn),62.5% 的研究參與者都沒有意識到 Facebook 過濾了他們的 News Feed 。
「最好的人工智能算法能泛化,他們能預測你想要什么,但它們從來都不是完美的,」Candela 說。這也是 Schroepfer 之所以相信 Facebook 距離「把一切都交給人工智能技術」還很遙遠的理由之一。
「我認為,你仍要人處在決策環(huán)中,」Schroepfer 說?!肝覀冋跒樗藙?chuàng)造產(chǎn)品,而我很難相信機器能計算出其他人想要什么,哪怕是使用這些高級科技?!?/p>
Schroepfer 說,這一工作都是為了打造一個社交網(wǎng)絡,能夠更好地預期用戶想要看到什么或體驗。如果你這一天過得很糟糕,他希望 Facebook 能給你看一段詼諧的小貓視頻。如果你有一星期都沒和你母親聊過天,他希望 Facebook 能識別出這一點并主動為你推送一些關于她的生活的信息更新。
「Facebook 當下的問題是,關于你想要什么,你告訴我們的東西還不夠多?!筍chroepfer 說。「我們在努力猜測你想要什么。問題的一部分是,我們不知道該問你什么,而當你告訴我們你想要什么的時候,我們也不確定對此該做些什么。因為我們的系統(tǒng)還沒有真正在這方面安排好、優(yōu)化好。」
應用機器學習( Applied Machine Learning)團隊的建立為創(chuàng)建這樣的系統(tǒng)提供了機會。同時,F(xiàn)AIR 團隊也提供了機會讓我們能建立關于「如何讓機器去學習」的更好理解。
Facebook 做出了以這種方式在人工智能研究方面高歌猛進的決定,與競爭者們相比,它這么做有些不同尋常。
例如,微軟旗下的研究院擁有一支龐大的人工智能研究隊伍,但微軟并沒有把這方面的努力移交給一個商業(yè)化團隊,再讓這商業(yè)化團隊把它轉(zhuǎn)化成供內(nèi)部使用的產(chǎn)品。相反,研究人員會直接與產(chǎn)品團隊的人一起工作,建立使用深度學習的工具或新的服務。
據(jù)微軟研究院院長 Peter Lee 說,在對外方面,微軟正在試圖建立一個為機器學習提供服務的平臺,并通過它的云計算平臺 Azure 把這些服務提供給客戶。
不過,Lee 和 Facebook 的 Schroepfer 在這一點上是一致的:機器學習和人工智能正在使公司們能創(chuàng)建一些新的產(chǎn)品,這些產(chǎn)品在過去曾因太耗費時間或資源而無法實現(xiàn)。
從微軟跳槽到 Facebook 的 Candela 說, 他有意要在 Facebook 努力創(chuàng)造出一個不一樣的組織結構,因為他感到當他還在微軟時,好想法無法在組織中快速散播。每一個新發(fā)明或新人工智能算法都被封閉在其所在的團隊里。他說,F(xiàn)acebook 正在努力抵抗這種習氣。
然而, 卡耐基梅隆大學計算機科學院院長 Andrew Moore 懷疑,像 FBLearner Flow 這樣的人工智能平臺真的能在一個組織中得到廣泛應用。他說,大部分的機器學習模型都無法泛化。
「對機器學習來說,有一個陷阱,據(jù)我所知還沒有哪家大公司未曾掉入這個陷阱?!顾f?!缚雌饋斫⒁粋€平臺來支持機器學習算法似乎是很有用的,然而你會發(fā)現(xiàn),每個使用機器學習的應用程序都需要調(diào)用不同的應用程序才能使用機器學習。因此,在機器學習平臺的建造者和那些試圖用平臺來制造產(chǎn)品的客戶之間常常存在著斷裂?!?/p>
到現(xiàn)在為止,F(xiàn)acebook 仍然樂于付出這些努力,而且這些努力似乎也在它的新產(chǎn)品中帶來了回報。隨著更多的決策交給算法決定,這家公司有許多事情需要調(diào)整。不過,這個綜合一切的項目已經(jīng)改變了這家公司衡量其成功的方式。
例如,F(xiàn)acebook 發(fā)起的實名政策要求人們在其網(wǎng)站上使用真名,而這令跨性別者(他們可能并不認同他們出生時的名字)、美國原住民的后代(他們的名字不太容易用西方格式表示)和遭受侵犯虐待者(他們需要保留更多的隱私)感到不安。然而,當時 Facebook 的算法很難分析這些名字以適應這些需求。