除了馬斯克外,一向語出驚人的科學(xué)家霍金,在對待AI方面同樣持保守態(tài)度。
在今年4月底的GMIC北京2017上,霍金就通過視頻演講,表示AI的崛起可能是人類文明的終結(jié)。實際上,從三年前霍金就反復(fù)強(qiáng)調(diào):人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件。
或許,洞見性遠(yuǎn)超多數(shù)人類的霍金,對于AI的落地應(yīng)用很早就做出了判斷,我們看一下三年前他為《獨立》雜志撰寫的內(nèi)容:“截至目前,基礎(chǔ)性的人工智能技術(shù)已經(jīng)取得一定成果,很有實用價值。“霍金在肯定了AI的成果后表示了對未來的擔(dān)憂,”人工智能也許會在將來的某一天趕上甚至超過人類。它自己就會行動起來,還能以前所未有的超快速度重新設(shè)計自己。人類呢,就要受到緩慢的生物進(jìn)化的限制,根本沒有競爭力,會被超越的。”
霍金對于人們熱衷于科幻小說和電影情節(jié)提出了忠告,表示所謂科幻的魅力會蒙蔽人們的雙眼,它有時會掩蓋住一個重要的問題,即最終的結(jié)果有可能引發(fā)一場浩劫。“人工智能技術(shù)發(fā)展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。”
一直到今天,霍金對于AI的擔(dān)憂和警惕依舊沒有絲毫變化。
這一切顧慮,似乎和《機(jī)械公敵》、《西部世界》等影視劇中描繪的場景如出一轍,一旦AI有了屬于自己的智慧,能夠獨立思考之后,將開始威脅人類的生活……
AI本中立 好與壞的結(jié)果取決于人
如果將馬斯克與霍金對于AI的擔(dān)憂進(jìn)行總結(jié),幾乎都是聚焦在AI發(fā)展到極致之后是否能夠擁有自主意識,甚至超越人類。
對此,原騰訊副總裁、著名風(fēng)險投資人吳軍,在前不久發(fā)布的《硅谷來信》中提出了自己的看法,他的結(jié)論是:這件事情不會發(fā)生。
吳軍認(rèn)為,人類之所以能夠跟黑猩猩不同,成為今天這樣的高等動物,是因為在進(jìn)化的過程中不斷地出錯的結(jié)果。其中一個決定性因素就是,人類擁有很好的語言能力,而語言能力的出現(xiàn)就是一次基因在進(jìn)化過程中出錯的結(jié)果。而今天的人工智能看似能解決一些問題,但從本質(zhì)上來講它的操作還是可以確定的,是可預(yù)知的。
實際上,無論是正方還是反方,預(yù)測的都是一個未知的世界,這種情形,也許會在多年后,如同我們現(xiàn)在談?wù)撈鹫羝麢C(jī)車的出現(xiàn)對一些人產(chǎn)生的驚擾。
人類對于未知,永遠(yuǎn)是好奇和心懷畏懼的,因為未知是否將威脅人類,還是幫助人類,誰都無法確定。就如同F(xiàn)acebook實驗室中那兩個聊天機(jī)器人所衍生出的新的語言一樣,那是只屬于它們自己的東西。它會有害還是有益?工程師的第一個反應(yīng),只能是拔掉插頭、關(guān)閉電源。
無論是谷歌還是Facebook甚至是百度,這些科技巨頭們都正在不斷地完善人工智能,開拓其應(yīng)用落地的新時代。毫無疑問,隨著人工智能的發(fā)展,機(jī)器將越來越多的取代人類的工作。人工智能的成長確實迅速,或許未來在不斷地深度學(xué)習(xí)中,機(jī)器會進(jìn)化出自我意識,這或許需要上百年,也可能僅需數(shù)年時間。如何在其成長學(xué)習(xí)的過程中做好監(jiān)管,正確的引導(dǎo)人工智能的發(fā)展方向,正是目前馬斯克一直在努力的。
“AI既是個好的工具也可以被用來作惡。我對人工智能不會有具體的立場,因為它本身是中立的,它最后到底是好是壞,取決于人類對它的應(yīng)用。”8月15日,世界頂級黑客米特尼克現(xiàn)身北京時,留下了這一段話語。
或許,一個新事物在發(fā)展的過程中總會伴隨著各種質(zhì)疑,不過這并不是壞事,這些“善意的提醒”總是在告誡我們:創(chuàng)造和毀滅世界,往往就在一念之間。