未來展望
計(jì)算機(jī)最擅長的是計(jì)算和存儲(chǔ),其強(qiáng)大的計(jì)算能力已經(jīng)在現(xiàn)實(shí)中展現(xiàn)出巨大的威力,但是其強(qiáng)大的存儲(chǔ)能力并沒有得到充分的發(fā)揮,通常存儲(chǔ)的是數(shù)據(jù),而不是信息和知識(shí)。計(jì)算機(jī)還不能自動(dòng)地對數(shù)據(jù)進(jìn)行篩選和提煉,抽取信息和知識(shí),并把它們關(guān)聯(lián)起來,存儲(chǔ)在長期記憶里,為人類服務(wù)。
可以預(yù)見,未來會(huì)有這樣的智能信息和知識(shí)管理系統(tǒng)出現(xiàn),它能夠自動(dòng)獲取信息和知識(shí),如對之進(jìn)行有效的管理,能準(zhǔn)確地回答各種問題,成為每一個(gè)人的智能助手。人工智能技術(shù),特別是神經(jīng)符號(hào)處理技術(shù),有望幫助我們實(shí)現(xiàn)這樣的夢想。期盼這一天的到來!
致謝
感謝呂正東、蔣欣、尚利峰、牟力立、殷鵬程等,本文中的很多想法是在與他們合作的工作中產(chǎn)生的。
作者簡介
李航
CCF高級會(huì)員,CCCF特邀專欄作家
今日頭條人工智能實(shí)驗(yàn)室主任
研究方向:自然語言處理、信息檢索、機(jī)器學(xué)習(xí)等
腳注
¹互聯(lián)網(wǎng)上有文章和視頻介紹克萊夫·韋爾林的生平。
²LISP是 List Processing 的縮寫,是一種早期開發(fā)的、具有重大意義的表處理語言。它適用于符號(hào)處理、自動(dòng)推理、硬件描述和超大規(guī)模集成電路設(shè)計(jì)等。
參考文獻(xiàn)
[1] Frank L. Learning and Memory: How It Works and When It Fails. Stanford Lecture, 2010.
[2] Michio K. Consciousness Can be Quantified. Big Think, Youtube, 2014.
[3] Percy L. Learning Executable Semantic Parsers for Natural Language Understanding [J]. Communications of the ACM, 2016.
[4] Weston J, Chopra S, Bordes A. Memory Networks[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2015.
[5] Graves A, Wayne G, Reynolds M, et al. Hybrid computing using a neural network with dynamic external memory [J]. Nature, 2016, 538(7626):471.
[6] Neelakantan A, Le Q V, Sutskever I. Programmer: Inducing Latent Programs with Gradient Descent[C]// Proceedings of the International Conference on Learning Representations (ICLR), 2016.
[7] Liang C, Berant J, Le Q, et al. Neural Symbolic Machines: Learning Semantic Parsers on Freebase with Weak Supervision[C]// Proceedings of the 55th Annual Meeting of Association for Computational Linguistics (ACL’17), 2017.
[8] Yin P, Lu Z, Li H, Kao B. Neural Enquirer: Learning to Query Tables with Natural Language[C]// Proceedings of the 25th International Joint Conference on Artificial Intelligence (IJCAI’16), 2016:2308-2314.
[9] Mou L, Lu Z, Li H, Jin Z, Coupling Distributed and Symbolic Execution for Natural Language Queries[C]// Proceedings of the 34th International Conference on Machine Learning (ICML’17), 2017:2518-2526.