最后,再看一個空間變換后的案例,左邊的紅綠是原始空間,右側(cè)是轉(zhuǎn)化后的高緯空間的扭曲圖,這個時候,所有的紅綠點都被扭曲到了一側(cè),驚奇的發(fā)現(xiàn)可以線性可分了:

那么,再問一個深度的問題,當然這個是術的問題,為什么深度學習是深度,而不是寬度? 比如:

有以下論文用實驗數(shù)據(jù)證明了為什么深度學習網(wǎng)絡應該是高個子,而不是矮胖子:

為什么要分那么多層,除了激活函數(shù)更多,空間變換能力更強,還有啥奧妙?
因為,如果層數(shù)太少,可能樣本也太少,如下圖:

分了層后,每一層會有更多的樣本,如下圖:
最后,如何系統(tǒng)的進行深度學習的使用,下面一張圖已經(jīng)概括了,TensorFlow+theano+keras:

深度學習的介紹就到這里了,希望你能看到這里,遺憾的是筆者也僅僅是紙上談兵,沒有實操的經(jīng)驗,看得再多,也沒有實際做過一個深度學習項目來得實在。
阿爾法狗采用的是卷積神經(jīng)網(wǎng)絡,如果要深入學習,可以看看其實現(xiàn)過程,有很多的技巧,當然,這要付出很大的代價,但道理是相通的。
希望于你有所啟發(fā)。