退一步說(shuō),即便計(jì)算力仍是必需的引擎,那么是否一定就是基于GPU?我們知道,CPU和FPGA已經(jīng)顯示出深度學(xué)習(xí)負(fù)載上的能力,而IBM主導(dǎo)的SyNAPSE巨型神經(jīng)網(wǎng)絡(luò)芯片(類人腦芯片),在70毫瓦的功率上提供100萬(wàn)個(gè)“神經(jīng)元”內(nèi)核、2.56億個(gè)“突觸”內(nèi)核以及4096個(gè)“神經(jīng)突觸”內(nèi)核,甚至允許神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)負(fù)載超越了馮·諾依曼架構(gòu),二者的能耗和性能,都足以成為GPU潛在的挑戰(zhàn)者。例如,科大訊飛為打造“訊飛超腦”,除了GPU,還考慮借助深度定制的人工神經(jīng)網(wǎng)絡(luò)專屬芯片來(lái)打造更大規(guī)模的超算平臺(tái)集群。
不過(guò),在二者尚未產(chǎn)品化的今天,NVIDIA并不擔(dān)憂GPU會(huì)在深度學(xué)習(xí)領(lǐng)域失寵。首先,NVIDIA認(rèn)為,GPU作為底層平臺(tái),起到的是加速的作用,幫助深度學(xué)習(xí)的研發(fā)人員更快地訓(xùn)練出更大的模型,不會(huì)受到深度學(xué)習(xí)模型實(shí)現(xiàn)方式的影響。其次,NVIDIA表示,用戶可以根據(jù)需求選擇不同的平臺(tái),但深度學(xué)習(xí)研發(fā)人員需要在算法、統(tǒng)計(jì)方面精益求精,都需要一個(gè)生態(tài)環(huán)境的支持,GPU已經(jīng)構(gòu)建了CUDA、cuDNN及DIGITS等工具,支持各種主流開(kāi)源框架,提供友好的界面和可視化的方式,并得到了合作伙伴的支持,例如浪潮開(kāi)發(fā)了一個(gè)支持多GPU的Caffe,曙光也研發(fā)了基于PCI總線的多GPU的技術(shù),對(duì)熟悉串行程序設(shè)計(jì)的開(kāi)發(fā)者更加友好。相比之下,F(xiàn)PGA可編程芯片或者是人工神經(jīng)網(wǎng)絡(luò)專屬芯片對(duì)于植入服務(wù)器以及編程環(huán)境、編程能力要求更高,還缺乏通用的潛力,不適合普及。