據(jù)外媒報(bào)道,微軟聯(lián)合創(chuàng)始人比爾·蓋茨今日通過Reddit的“Ask Me Anything”上發(fā)表了自己對(duì)于人工智能的看法,他稱,人類應(yīng)該敬畏人工智能的崛起。
蓋茨:對(duì)人工智能要有敬畏之心(圖片來自網(wǎng)易)
蓋茨解釋道,人工智能將最終構(gòu)成一個(gè)現(xiàn)實(shí)性的威脅,但它在此之前會(huì)使我們的生活更輕松。“我正在關(guān)注超級(jí)智能。首先,在開始的時(shí)候機(jī)器會(huì)為我們做很多工作,這些機(jī)器并不是超級(jí)智能。如果我們處理得很好的話,這應(yīng)該是具有積極意義的。那之后的幾十年,人工智能會(huì)強(qiáng)大到足以引起人們的關(guān)注。我同意伊隆·馬斯克和其他一些人的說法,不明白為什么有些人并不關(guān)心。”
不過有趣的是,微軟的研發(fā)董事總經(jīng)理埃里克·霍維茨持相反觀點(diǎn),認(rèn)為世界末日的場景純屬“科幻”?;艟S茨說“人工智能末日景象更多屬于科幻小說,不是什么科學(xué)事實(shí)。” 所以看來那些直接負(fù)責(zé)產(chǎn)品研發(fā)的人并不擔(dān)心。
其實(shí)關(guān)于人工智能是福還是禍,一直以來分歧較大。一方面著名物理學(xué)家史蒂芬·霍金曾表示,人工智能若利用不好將會(huì)導(dǎo)致人類滅亡。對(duì)此,特斯拉創(chuàng)始人伊隆·馬斯克(Elon Musk)也表達(dá)了類似觀點(diǎn),稱人類需要非常謹(jǐn)慎地對(duì)待人工智能,而人工智能有可能比核技術(shù)更危險(xiǎn)。
另一方面,則認(rèn)為人工智能可以收到人給的控制。受雇于谷歌的未來學(xué)家和人工智能專家雷伊·庫茲維爾(Ray Kurzweil)表示:“我認(rèn)為,人類不可能被人工智能超越,因?yàn)槲覀兛梢岳萌斯ぶ悄軄砑訌?qiáng)自己。不會(huì)出現(xiàn)我們和機(jī)器對(duì)抗的局面,相反地,通過融合我們的智能產(chǎn)物,我們可以加強(qiáng)我們的能力。”