什么是深度增強(qiáng)學(xué)習(xí)
深度學(xué)習(xí)
深度學(xué)習(xí)(deep learning)是機(jī)器學(xué)習(xí)拉出的分支,它試圖使用包含復(fù)雜結(jié)構(gòu)或由多重非線性變換構(gòu)成的多個(gè)處理層對(duì)數(shù)據(jù)進(jìn)行高層抽象的算法。 – 維基百科
根據(jù)維基百科的解釋,深度學(xué)習(xí)是一種利用多層非線性變換處理網(wǎng)絡(luò)結(jié)構(gòu)來進(jìn)行表征學(xué)習(xí)的通用框架。得益于計(jì)算機(jī)性能的提升,深度學(xué)習(xí)重新對(duì)人工神經(jīng)網(wǎng)絡(luò)方法進(jìn)行品牌重塑。其核心解決問題是,如何用盡可能少的領(lǐng)域知識(shí),給定輸入 和輸出 ,來學(xué)習(xí)從輸入到輸出的 映射
,其中 是需要優(yōu)化的參數(shù), 在深度學(xué)習(xí)里由多層非線性網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行表示(不同機(jī)器學(xué)習(xí)方法會(huì)有不同的刻畫,比如隨機(jī)森林、支持向量機(jī)等等),常見的架構(gòu)方式包括深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks),深度信念網(wǎng)絡(luò)(Deep Belief Networks)、卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks)、遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent/Recursice Neural Network)等等。下圖直觀的給出了這種逐層嵌套的網(wǎng)絡(luò)結(jié)構(gòu),
(點(diǎn)擊放大圖像)
具體而言,映射學(xué)習(xí)的過程是尋找最優(yōu)的參數(shù)來最小化 損失函數(shù)
。這個(gè)損失函數(shù)衡量了真實(shí)和預(yù)測(cè)輸出值之間的差異,常見的比如說對(duì)數(shù)損失函數(shù)、平方損失函數(shù)、指數(shù)損失函數(shù)、Hinge損失函數(shù)、各類Norm的損失函數(shù)等等 [2] 。 同時(shí)為了提高模型的泛化能力,往往需要對(duì)損失函數(shù)進(jìn)行 正則化
( regularization )處理。一般需要盡量把損失函數(shù)轉(zhuǎn)化為凸函數(shù),如果函數(shù)不夠光滑的話可以利用 Moreau-Yoshida regularization 進(jìn)行處理以方便梯度的計(jì)算,最終利用 梯度下降法
來進(jìn)行優(yōu)化而得到 ,然后就可以利用 來進(jìn)行預(yù)測(cè)了。下圖展示了神經(jīng)網(wǎng)絡(luò)的一種架構(gòu),以及各個(gè)隱含層所學(xué)習(xí)到的表征,可以看到不同隱含層有不同層次的抽象學(xué)習(xí)。比如說,有的負(fù)責(zé)顏色,有的負(fù)責(zé)形狀,有的負(fù)責(zé)部件等等。