在與李世石大戰(zhàn)之后,AlphaGo全新升級,并把下一個目標(biāo)鎖定為九段棋手柯潔,這注定又將是一場劃時代大戰(zhàn)。在這里,“升級”可以理解為深度學(xué)習(xí)的成果,而深度學(xué)習(xí)已經(jīng)成為人工智能時代的入口。
谷歌DeepMind旗下全新升級的AlphaGo,F(xiàn)acebook的人工智能計算服務(wù)器Big Sur,越來越“聰明”的IBM人工智能Watson,微軟的“深度殘差學(xué)習(xí)”,科大訊飛的“語音深度學(xué)習(xí)”——國內(nèi)外行業(yè)巨頭步伐異常統(tǒng)一,紛紛在語音識別、圖像識別、自然語言處理等領(lǐng)域拓展深度學(xué)習(xí)版圖。
簡單地說,深度學(xué)習(xí)通過構(gòu)建深層神經(jīng)網(wǎng)絡(luò),模擬人類大腦的工作原理。如圖所示,深層神經(jīng)網(wǎng)絡(luò)由一個輸入層,數(shù)個隱層,以及一個輸出層構(gòu)成。每層有若干個神經(jīng)元,每個神經(jīng)元模擬人類的神經(jīng)細(xì)胞,而結(jié)點之間的連接模擬神經(jīng)細(xì)胞之間的連接。

深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)
可以將深度學(xué)習(xí)理解為大腦的“構(gòu)建”,雖然潛力無限,但是門檻不可謂不高。
首先,深度學(xué)習(xí)網(wǎng)絡(luò)模型復(fù)雜,計算量大。以DNN(深度神經(jīng)網(wǎng)絡(luò))為例,它需要模擬人腦的計算能力,而人腦包含100多億個神經(jīng)細(xì)胞,這要求DNN中神經(jīng)元多,神經(jīng)元間連接數(shù)量也相當(dāng)驚人,如此龐大的計算量需要高性能的硬件以及軟件系統(tǒng)提供支撐。
一方面,在深度學(xué)習(xí)系統(tǒng)中,GPU是提升計算性能的關(guān)鍵選擇,代碼寫入并讀取變量、執(zhí)行指令、啟動函數(shù)調(diào)用等都是GPU把控之事。當(dāng)前CPU只有4核或者6核,模擬出8個或者12個處理線程來進(jìn)行運算,但是普通級別的GPU就包含了成百上千個處理單元,這對于多媒體計算中大量的重復(fù)處理過程有著天生的優(yōu)勢。即使如此,并不表示所有GPU都適合深度學(xué)習(xí),開發(fā)人員需要根據(jù)項目需求做出GPU選擇。