在此提一個(gè)書中提到的例子,非常有意思:兩個(gè)團(tuán)隊(duì)被派去設(shè)計(jì)一個(gè)能夠在場(chǎng)上接住拋過(guò)來(lái)的棒球的機(jī)器人。第一組做了詳細(xì)的數(shù)學(xué)分析,建立了一個(gè)相當(dāng)復(fù)雜的拋物線近似模型(因?yàn)檫€要考慮空氣阻力之類的原因,所以并非嚴(yán)格拋物線),用于計(jì)算球的落點(diǎn),以便正確地接到球。顯然這個(gè)方案耗資巨大,而且實(shí)際運(yùn)算也需要時(shí)間,大家都知道生物的神經(jīng)網(wǎng)絡(luò)中生物電流傳輸只有百米每秒之內(nèi),所以 computational complexity 對(duì)于生物來(lái)說(shuō)是個(gè)寶貴資源,所以這個(gè)方案雖然可行,但不夠好。第二組則采訪了真正的運(yùn)動(dòng)員,聽(tīng)取他們總結(jié)自己到底是如何接球的感受,然后他們做了這樣一個(gè)機(jī)器人:這個(gè)機(jī)器人在球拋出的一開(kāi)始一半路程啥也不做,等到比較近了才開(kāi)始跑動(dòng),并在跑動(dòng)中一直保持眼睛于球之間的視角不變,后者就保證了機(jī)器人的跑動(dòng)路線一定會(huì)和球的軌跡有交點(diǎn);整個(gè)過(guò)程中這個(gè)機(jī)器人只做非常粗糙的軌跡估算。體會(huì)一下你接球的時(shí)候是不是眼睛一直都盯著球,然后根據(jù)視線角度來(lái)調(diào)整跑動(dòng)方向?實(shí)際上人類就是這么干的,這就是 heuristics 的力量。
相對(duì)于偏向于心理學(xué)以及科普的《決策與判斷》來(lái)說(shuō),這本書的理論性更強(qiáng),引用文獻(xiàn)也很多而經(jīng)典,而且與人工智能和機(jī)器學(xué)習(xí)都有交叉,里面也有不少數(shù)學(xué)內(nèi)容,全書由十幾個(gè)章節(jié)構(gòu)成,每個(gè)章節(jié)都是由不同的作者寫的,類似于 paper 一樣的,很嚴(yán)謹(jǐn),也沒(méi)啥廢話,跟《Psychology of Problem Solving》類似。比較適合 geeks 閱讀哈。
另外,對(duì)理論的技術(shù)細(xì)節(jié)看不下去的也建議看看《決策與判斷》這類書(以及像《別做正常的傻瓜》這樣的傻瓜科普讀本),對(duì)自己在生活中做決策有莫大的好處。人類決策與判斷中使用了很多的 heuristics ,很不幸的是,其中許多都是在適應(yīng)幾十萬(wàn)年前的社會(huì)環(huán)境中建立起來(lái)的,并不適合于現(xiàn)代社會(huì),所以了解這些思維中的缺點(diǎn)、盲點(diǎn),對(duì)自己成為一個(gè)良好的決策者有很大的好處,而且這本身也是一個(gè)非常有趣的領(lǐng)域。
統(tǒng)計(jì)學(xué)習(xí)理論與支持向量機(jī)
統(tǒng)計(jì)學(xué)習(xí)理論(Statistical Learning Theory,SLT)是一種專門研究有限樣本情況下的統(tǒng)計(jì)理論[1,2]。該理論針對(duì)有限樣本統(tǒng)計(jì)問(wèn)題建立了一套新的理論體系,在這種體系下的統(tǒng)計(jì)推理規(guī)則不僅考慮了對(duì)漸近性能的要求,而且追求在現(xiàn)有有限信息的條件下得到最優(yōu)結(jié)果。V. Vapnik等人從20世紀(jì)70年代開(kāi)始致力于此方面研究,到20世紀(jì)90年代中期,隨著其理論的不斷發(fā)展和成熟,也由于神經(jīng)網(wǎng)絡(luò)等方法在理論上缺乏實(shí)質(zhì)性進(jìn)展,統(tǒng)計(jì)學(xué)習(xí)理論開(kāi)始受到越來(lái)越廣泛的重視。統(tǒng)計(jì)學(xué)習(xí)理論是建立在一套較堅(jiān)實(shí)的理論基礎(chǔ)之上的,為解決有限樣本學(xué)習(xí)問(wèn)題提供了一個(gè)統(tǒng)一的框架。
同時(shí),在統(tǒng)計(jì)學(xué)習(xí)理論基礎(chǔ)上發(fā)展了一種新的通用預(yù)測(cè)方法——支持向量機(jī)(Support Vector Machines,SVM),已初步表現(xiàn)出很多優(yōu)于已有方法的性能[3,4],它能將很多現(xiàn)有方法(比如多項(xiàng)式逼近、徑向基函數(shù)方法、多層感知器網(wǎng)絡(luò))納入其中,有望幫助解決許多原來(lái)難以解決的問(wèn)題(比如神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇問(wèn)題、局部極值問(wèn)題等)。SLT和SVM正在成為繼神經(jīng)網(wǎng)絡(luò)研究之后新的研究熱點(diǎn),并將推動(dòng)數(shù)據(jù)挖掘與機(jī)器學(xué)習(xí)理論和技術(shù)的重大發(fā)展[5]。
參考文獻(xiàn):
1. V. Vapnik. The nature of statistical learning theory. Springer-Verlag, 1995.
2. V. Vapnik. Statistical learning theory. John Wiley and Sons, Inc., 1998.
3. B. E. Boser, I. Guyon, V. Vapnik. A training algorithm for optimal margin classifiers. In: D. Haussler, Editor, Proceedings of the Fifth Annual ACM Workshop of Computational Learning Theory, 144-152, ACM Press, 1992.
登陸|注冊(cè)歡迎登陸本站,認(rèn)識(shí)更多朋友,獲得更多精彩內(nèi)容推薦!