7月份,在經(jīng)歷了長(zhǎng)達(dá)幾個(gè)月外界對(duì)蘋果AI技術(shù)落后的質(zhì)疑后,蘋果又有了一些新動(dòng)作,首先是在7月20日上線了蘋果機(jī)器學(xué)習(xí)官方博客(Apple Machine Learning Journal),并發(fā)表了第一篇博文;其次提交的論文被CVPR 2017收錄,獲最佳論文。
蘋果CEO庫(kù)克面對(duì)外界對(duì)蘋果AI技術(shù)落后的質(zhì)疑,曾向媒體回應(yīng)說(shuō),蘋果精神是“just work ”(實(shí)干精神),之所以外界看不到蘋果AI技術(shù)的進(jìn)展,是因?yàn)樘O果只喜歡談?wù)摷磳⑸暇€的產(chǎn)品功能。這么來(lái)看,公眾最多只能通過(guò)公開的博客和學(xué)術(shù)論文中了解到蘋果在AI領(lǐng)域研究的大方向,而關(guān)于這些研究的應(yīng)用以及進(jìn)度,只能靠猜測(cè)了。
不過(guò)編輯在網(wǎng)上找到了一些PPT。這些PPT是在去年的12月6日,一個(gè)僅面向受邀者參加的行業(yè)AI大會(huì)的午餐會(huì)上,蘋果公司機(jī)器學(xué)習(xí)負(fù)責(zé)人羅斯·薩拉克丁諾夫(Russ Salakhutdinov)和其他蘋果員工進(jìn)行的議題討論,詳細(xì)介紹了蘋果公司在AI領(lǐng)域的一些進(jìn)展。
無(wú)人駕駛領(lǐng)域
根據(jù)參會(huì)者的描繪:
會(huì)上一張幻燈片上有兩張非常有特色的汽車圖片,該幻燈片匯總了蘋果公司的研究,說(shuō)明了“LiDAR的體積檢測(cè)”和“結(jié)構(gòu)化輸出預(yù)測(cè)”。
對(duì)于現(xiàn)如今的無(wú)人駕駛技術(shù)而言,LiDAR或光感測(cè)距(和雷達(dá)類似,但借助激光)以及物理事件預(yù)測(cè)都是非常重要的組成部分。不過(guò),鑒于所介紹的內(nèi)容比較敏感,兩名不愿透露姓名的參會(huì)者強(qiáng)調(diào),蘋果公司并沒有提及他們的造車?yán)硐搿?/p>
今年6月份,庫(kù)克首次公開談?wù)摿苏陂_發(fā)的代號(hào)為Project Titan 無(wú)人駕駛項(xiàng)目。但只是聲稱在做無(wú)人駕駛技術(shù)的研發(fā),對(duì)是否會(huì)自主制造汽車,庫(kù)克并沒有給出答案。
而英國(guó)《每日郵報(bào)》7月21日有文爆料,蘋果正與一家中國(guó)公司合作研發(fā)汽車電池, 這家公司名字叫時(shí)代新能源科技有限公司(CATL)。CATL曾經(jīng)隸屬新能源技術(shù)有限公司,為蘋果產(chǎn)品供應(yīng)電池,但后來(lái)脫離后者成為一個(gè)獨(dú)立實(shí)體。CATL目前為電動(dòng)巴士、電動(dòng)客車、電動(dòng)卡車和固定能量?jī)?chǔ)存供應(yīng)電池組。
由此可見,蘋果的野心并不只是研發(fā)自動(dòng)駕駛系統(tǒng)那么簡(jiǎn)單。
AI專用芯片
對(duì)于算法在圖形處理單元或GPU(常用于服務(wù)器端加速深度學(xué)習(xí)的處理速度)上的運(yùn)行效率,蘋果還是非常自豪的。一張幻燈片指出,蘋果的圖像識(shí)別算法每秒鐘處理的照片是谷歌的兩倍,谷歌每秒處理1500張,而他們每秒可以處理3000張,而且大體上只需要1/3的GPU。這種比較是基于在Amazon Web Services(一個(gè)云計(jì)算的標(biāo)準(zhǔn))上運(yùn)行算法做出的。
雖然其他公司正開始基于專用芯片來(lái)加速AI工作,如谷歌的TPU(張量處理單元)和微軟的FPGA(現(xiàn)場(chǎng)可編程邏輯閘陣列),值得注意的是,蘋果是基于標(biāo)準(zhǔn)的GPU。不過(guò),蘋果是否為了匹配其客制化客戶硬件而構(gòu)建了自己的客制化GPU,還是從像英偉達(dá)這樣的大型制造商購(gòu)買,并沒有詳細(xì)介紹。
另外,蘋果用來(lái)訓(xùn)練其神經(jīng)網(wǎng)絡(luò)識(shí)別圖像的圖片庫(kù)似乎是專有的,其規(guī)模幾乎是標(biāo)準(zhǔn)ImageNet數(shù)據(jù)庫(kù)的兩倍。
神經(jīng)網(wǎng)絡(luò)工具Core ML
神經(jīng)網(wǎng)絡(luò)工具Core ML, 它構(gòu)建的神經(jīng)網(wǎng)絡(luò)比原始神經(jīng)網(wǎng)絡(luò)小4.5倍,精度卻沒有損失,速度比原先快兩倍。在AI研究領(lǐng)域,這項(xiàng)技術(shù)使用更強(qiáng)大的神經(jīng)網(wǎng)絡(luò)訓(xùn)練另一個(gè)網(wǎng)絡(luò),使其知道在各種情況下做什么決策。然后,這位“學(xué)生”(student)網(wǎng)絡(luò)就會(huì)具備“老師”(teacher)網(wǎng)絡(luò)知識(shí)的精簡(jiǎn)版本。本質(zhì)上,對(duì)于給定的照片或音頻樣本,它能做出更大網(wǎng)絡(luò)的預(yù)測(cè)。通過(guò)精簡(jiǎn)神經(jīng)網(wǎng)絡(luò),iPhone和iPad可以識(shí)別照片中的人臉和位置,或者了解用戶的心率變化,并且不需要依賴遠(yuǎn)程服務(wù)器。將這些處理過(guò)程封裝在手機(jī)里可以讓這項(xiàng)功能隨處可用,而且,這還使得數(shù)據(jù)無(wú)需加密,也無(wú)需通過(guò)無(wú)線網(wǎng)絡(luò)傳輸。
Core ML
對(duì)于希望將AI構(gòu)建到自己的iOS應(yīng)用的開發(fā)人員而言,蘋果構(gòu)建的這一套機(jī)器學(xué)習(xí)模型和應(yīng)用程序協(xié)議接口(API),即Core ML,非常有幫助。開發(fā)人員可以使用這些工具將圖像識(shí)別構(gòu)建到照片應(yīng)用中,或者引入自然語(yǔ)言處理技術(shù)到一個(gè)聊天機(jī)器人中,可以理解用戶所說(shuō)的內(nèi)容。