其對(duì)業(yè)界會(huì)有什么影響?會(huì)有很多人開(kāi)始仿效制造嗎?
谷歌以論文的形式,圖文并茂地將TPU的架構(gòu)、核心部件都描述地清清楚楚,那么會(huì)不會(huì)有后來(lái)者群起而仿效之呢?對(duì)于這一點(diǎn),姚頌表示谷歌公布的技術(shù)雖然通常不是其最新的研究進(jìn)展,但也往往是非常先進(jìn)和新穎的,肯定會(huì)有人仿效,但仿效的話,也只會(huì)把自己起點(diǎn)放在谷歌4年前的起點(diǎn)罷了。
“我想一定會(huì)有很多人去追著TPU的思路設(shè)計(jì)自己的深度學(xué)習(xí)芯片,因?yàn)門(mén)PU已經(jīng)批量在實(shí)際業(yè)務(wù)中應(yīng)用并展示了它的威力。但是其實(shí),TPU是個(gè)四年前左右開(kāi)始研發(fā)的項(xiàng)目,仿效它只會(huì)把自己起點(diǎn)放在別人4年前起點(diǎn)。當(dāng)做出來(lái)仿效的產(chǎn)品,很可能Google第3代TPU都已經(jīng)出來(lái)了。并且,TPU強(qiáng)大的地方不完全在于芯片,而在于結(jié)合TensorFlow的軟件生態(tài),這使得開(kāi)發(fā)更為簡(jiǎn)單——這一點(diǎn)不是可以效仿的。
業(yè)界領(lǐng)先的公司還是需要更多地看到未來(lái),比如在TPU論文中提到‘Sparsity will have priority in future designs’,比如TPU的硬件與軟件生態(tài)一起做,那么,如何高效支持稀疏性,如何提供讓用戶簡(jiǎn)單得到稀疏化神經(jīng)網(wǎng)絡(luò)的軟件工具,其實(shí)更為重要,而這其實(shí)也是我們一直在做的。像我們與搜狗合作的語(yǔ)音識(shí)別加速,就是沿著Sparsity這條路線更進(jìn)一步,而本次TPU論文也引用了3篇深鑒團(tuán)隊(duì)以往論文作為未來(lái)發(fā)展的參考。”
而陳天石從架構(gòu)的角度給出了另一個(gè)看法,他認(rèn)為與TPU類(lèi)似的方案之前已經(jīng)存在了。
“TPU在架構(gòu)方面走了一條保守但穩(wěn)健的道路。在TPU架構(gòu)正式公開(kāi)之前,在學(xué)術(shù)界其實(shí)已經(jīng)有一些類(lèi)似的方案(將脈動(dòng)陣列機(jī)用于處理深度學(xué)習(xí))。脈動(dòng)陣列架構(gòu)本身是個(gè)傳統(tǒng)技術(shù),早在1980年代初,中科院計(jì)算所的夏培肅院士和李國(guó)杰院士就曾將脈動(dòng)陣列架構(gòu)用于石油勘探。將其用于深度學(xué)習(xí),其實(shí)是近年來(lái)DSP和硬件加速領(lǐng)域的舊瓶裝新酒。”
總結(jié)
從這篇論文里,谷歌的TPU細(xì)節(jié)一覽無(wú)余,然而TPU是為了TensorFlow定制的,對(duì)于一些AI芯片廠商來(lái)說(shuō),或許能從這篇論文里獲得一些靈感,但一味仿效可能得不償失。
TPU并不是全能的,只是用于數(shù)據(jù)中心的推理階段。深度學(xué)習(xí)模型的前期訓(xùn)練,也還是要依靠高精度的GPU。而且TPU通用性差,谷歌也曾在多種場(chǎng)合表示自己并不會(huì)售賣(mài)TPU。所以對(duì)于英偉達(dá)一類(lèi)的通用芯片廠商來(lái)說(shuō),并沒(méi)有直接的競(jìng)爭(zhēng)威脅。然而,谷歌帶頭追求特定領(lǐng)域應(yīng)用的極致效率,對(duì)于很多走定制化路線的AI芯片廠商來(lái)說(shuō),這是一種強(qiáng)大的鼓舞。
陳天石和姚頌兩位CEO各自帶領(lǐng)的AI芯片公司,在進(jìn)行不同種類(lèi)的AI芯片研發(fā)和商用工作,寒武紀(jì)科技偏通用,深鑒科技偏行業(yè)定制。兩位CEO也都彼此惺惺相惜,就像陳天石曾經(jīng)對(duì)姚頌說(shuō)的那樣,這個(gè)市場(chǎng)需要多種芯片的,有偏通用,也有更專(zhuān)用更注重特定領(lǐng)域的,共同進(jìn)步的同時(shí)未來(lái)也一定有機(jī)會(huì)合作。
如今的AI芯片產(chǎn)業(yè)處在一個(gè)“大航海時(shí)代”,真正的寶藏,需要更多的人去開(kāi)拓。
登陸|注冊(cè)歡迎登陸本站,認(rèn)識(shí)更多朋友,獲得更多精彩內(nèi)容推薦!