深度學習是個復雜的概念,其中每項因素都不簡單。即使您身為已經熟練掌握人工神經網絡基礎知識的數據科學家,大家也需要時間了解加速卷積、復發(fā)、生成以及其它與多層深度學習算法規(guī)范相關的復雜概念。而隨著深度學習創(chuàng)新態(tài)勢的升溫,這一技術開始面臨新的風險——對于普通開發(fā)者而言,其過度復雜的特性導致我們即使深入研究也很難加以了解。
但我個人對此倒是頗有信心,在我看來在這個十年結束時,深度學習業(yè)界將大大簡化其功能交付方式,意味著普通開發(fā)者也能夠理解并加以采用。下面,我將與大家一同探討關于深度學習未來發(fā)展方向的六項預測。
1.深度學習業(yè)界將采用一組核心標準化工具
到這個十年結束時,深度學習業(yè)界將建立起一組核心標準化工具框架。就目前而言,深度學習專家已經選定了一部分工具選項,其中大部分為開源項目。最具人氣的成果包括TensorFlow、BigDL、OpenDeep、Caffe、Theano、Torch以及MXNet。
2.深度學習將在Spark之內實現原生支持
Spark社區(qū)將在未來一到兩年內增強該平臺的原生深度學習能力。通過本屆Spark峰會的發(fā)言來看,整個技術社區(qū)似乎正將努力方向明確指向TensorFLow,而BigDL、Caffe與Torch也至少會被納入支持范疇。
3.深度學習將在開放分析生態(tài)系統(tǒng)中找到堅實的利基平臺
大多數深度學習部署方案立足于Spark、Hadoop、Kafka以及其它開源數據分析平臺。愈發(fā)明確的趨勢指出,我們將無法在缺少由這些平臺提供的完整大數據分析能力的前提下實現深度學習算法的訓練、管理與部署。具體來講,Spark將成為實現深度學習算法在各類工具內規(guī)?;c加速建立的基礎性平臺。可以肯定的是,多數深度學習開發(fā)者正在利用Spark集群以實現超參數優(yōu)化、快速內存數據訓練、數據清理以及預處理等特定任務。