英國(guó)理論物理學(xué)家斯蒂芬·霍金日前說(shuō),人工智能科技在初級(jí)發(fā)展階段的確為人類生活帶來(lái)便利,不過(guò)要警惕其過(guò)度發(fā)展,因?yàn)榈玫匠浞职l(fā)展的人工智能或許預(yù)示著人類最終被超越。
由于患有運(yùn)動(dòng)神經(jīng)元疾病,霍金需利用一臺(tái)機(jī)器與外界交流。受智能手機(jī)輸入法啟發(fā),美英兩家科技公司合作,為霍金的電腦“量身定制”出一款新的打字軟件,使這位科學(xué)家的“說(shuō)話”速度提升一倍。這種軟件就利用了基礎(chǔ)的人工智能技術(shù),可“猜測(cè)”使用者的思維,推薦下一個(gè)可能用到的字詞。
當(dāng)天在這款新軟件的發(fā)布會(huì)上,霍金坦承人工智能的初步發(fā)展已證明了其有用性,但他擔(dān)心這類技術(shù)最終會(huì)發(fā)展出與人類智慧相當(dāng)甚至超越人類的機(jī)器。“到時(shí)它(機(jī)器)將可能以不斷加快的速度重新設(shè)計(jì)自己。而人類則受制于生物進(jìn)化速度,無(wú)法與其競(jìng)爭(zhēng),最終被超越。”
今年5月,霍金曾與另外幾位科學(xué)家為英國(guó)《獨(dú)立報(bào)》撰文,稱人們目前對(duì)待人工智能的潛在威脅“不夠認(rèn)真”。“短期來(lái)看,人工智能產(chǎn)生何種影響取決于誰(shuí)在控制它。而長(zhǎng)期來(lái)看,這種影響將取決于我們還能否控制它。”如何趨利避害是所有人都需要考慮的問(wèn)題。
不過(guò)也有科學(xué)家認(rèn)為,霍金對(duì)于人工智能的未來(lái)過(guò)于悲觀。他們指出,至少在相當(dāng)長(zhǎng)的時(shí)間里,人類會(huì)完全掌控這類技術(shù)的發(fā)展,利用它來(lái)解決許多現(xiàn)實(shí)問(wèn)題,而要讓人工智能技術(shù)得到“充分發(fā)展”,還有很長(zhǎng)的路要走。
登陸|注冊(cè)歡迎登陸本站,認(rèn)識(shí)更多朋友,獲得更多精彩內(nèi)容推薦!