當(dāng)下正在熱映的兩部好萊塢大片《復(fù)仇者聯(lián)盟2》和《超能查派》,其中都出現(xiàn)了機(jī)器人主角:奧創(chuàng)與查派,它們雖然在人設(shè)上大有不同,可歸根結(jié)底,都是人工智能主導(dǎo)的生命體。
但你可不要以為電影里的場(chǎng)景距離你遙不可及,其實(shí)“人工智能”這一概念早在世界上第一臺(tái)計(jì)算機(jī)埃尼阿克問(wèn)世后不到十年就被提出了,而在當(dāng)下,人工智能更是早已已經(jīng)布滿在你的身邊——遠(yuǎn)一些像IBM研發(fā)出的超級(jí)國(guó)際象棋電腦“深藍(lán)”,近一點(diǎn)像翻譯軟件、Siri和無(wú)人駕駛,其實(shí)都是人工智能,只不過(guò)大部分人工智能在實(shí)現(xiàn)和普及以后,人們就只稱(chēng)呼它為“智能”而已。
不過(guò),相比較普通人對(duì)于人工智能的好奇和期待,一些科學(xué)家和行業(yè)巨頭們卻對(duì)于人工智能的未來(lái)發(fā)展抱以擔(dān)憂,其中,包括史蒂夫·霍金、比爾·蓋茨和埃隆·馬斯克。比如霍金很早之前就表示,人工智能是人類(lèi)歷史上出現(xiàn)過(guò)的最可怕的事物;而馬斯克也在麻省理工的演講中提到,人工智能將成為人類(lèi)“最大的生存威脅”。
這似乎很難以理解,因?yàn)闊o(wú)論是“深藍(lán)”還是Siri,或是無(wú)人駕駛等等,看上去似乎滿滿都是利好的一面,是科技進(jìn)步的體現(xiàn),那為什么我們還是恐懼它們呢?
人工智能的分類(lèi)
要回答這一問(wèn)題,先要搞清楚人工智能的分類(lèi)。人工智能分為弱人工智能、強(qiáng)人工智能、超人工智能三種,而它們本身也是循序漸進(jìn)的發(fā)展路線關(guān)系。包括“深藍(lán)”和Siri,其實(shí)只屬于弱人工智能,而真正令巨頭們感到憂慮的,主要是后兩者。
弱人工智能目前在生活中已經(jīng)非常普遍,其特點(diǎn)是可以執(zhí)行某種單獨(dú)的能力,比如檢索信息、生產(chǎn)操作等等。人們對(duì)于弱人工智能的關(guān)注點(diǎn)主要在于,它存在一定的替代效應(yīng),比如生產(chǎn)用的機(jī)器人,在其可以于部分生產(chǎn)環(huán)節(jié)里代替人力資源之后,就可能會(huì)造成人類(lèi)的工作流失;
而強(qiáng)人工智能,是指達(dá)到人類(lèi)腦力活動(dòng)級(jí)別的智能,它不僅可以執(zhí)行指令,還可以思考、學(xué)習(xí)、理解,乃至進(jìn)行抽象思維,比起弱人工智能,強(qiáng)人工智能實(shí)現(xiàn)起來(lái)的難度非常之大,關(guān)鍵就在于它需要具備 “自我意識(shí)”——這意味著它和其它被人類(lèi)研發(fā)出來(lái)的技術(shù),比如核武和克隆不同,因?yàn)樗赡軙?huì)自己做點(diǎn)什么;不過(guò)目前,人工智能雖然已經(jīng)在多數(shù)需要思考(主要是計(jì)算)的領(lǐng)域上超過(guò)人類(lèi),但在一些人類(lèi)不需要思考就能完成的事情上(比如下意識(shí)躲避飛來(lái)的球),它們還差的很遠(yuǎn);
而超人工智能顧名思義,就是超出人類(lèi)自身能力的人工智能,包括在科研、社交、生產(chǎn)領(lǐng)域等等,超人工智能都將比人類(lèi)本身要更加聰明強(qiáng)大——而這一點(diǎn),也是最令人擔(dān)憂的,因?yàn)槿绻热祟?lèi)更強(qiáng)大的超人工智能普世之后,人類(lèi)自身,還有存在的必要和可能嗎?
對(duì)超人工智能的恐懼,來(lái)源于人類(lèi)的無(wú)法預(yù)知
在霍金、蓋茨和馬斯克這些悲觀派眼中,強(qiáng)人工智能尚有一定可控性,但超人工智能則不一樣,因?yàn)楹笳吡钊撕ε碌牡胤?,在于人們?duì)其一無(wú)所知——是的,人類(lèi)最多能用目前已有的東西,去預(yù)測(cè)將來(lái)可能發(fā)生的事情,但是,超人工智能的能力是超過(guò)人類(lèi)的,這意味著許多人類(lèi)目前無(wú)法解決,甚至無(wú)法預(yù)知的東西,對(duì)超人工智能來(lái)說(shuō)則可能不是問(wèn)題,換言之,人類(lèi)也無(wú)法預(yù)知超人工智能。
而現(xiàn)階段那些表示人工智能不值得擔(dān)心的人,包括百度人工智能負(fù)責(zé)人吳恩達(dá),都是基于人工智能還有很長(zhǎng)的發(fā)展時(shí)間這個(gè)點(diǎn)——換言之,他們并非是否認(rèn)人工智能可能帶來(lái)毀滅,而是對(duì)于這中間的時(shí)間,以及這段時(shí)間內(nèi)人類(lèi)自身技術(shù)的發(fā)展表示樂(lè)觀,他們認(rèn)為人類(lèi)有能力在超人工智能引起災(zāi)難之前,把一切隱患環(huán)節(jié)都鎖死和控制住,就像現(xiàn)在斷電斷網(wǎng),就能遏制弱人工智能的“生命”一樣。
也就是說(shuō),時(shí)間是一個(gè)關(guān)鍵,它既關(guān)系著人工智能的發(fā)展程度,也決定著人類(lèi)是否有足夠的應(yīng)對(duì)和控制時(shí)間,那么,在時(shí)間上我們能樂(lè)觀嗎?
寧愿杞人憂天,不可自欺欺人
霍金給出的預(yù)計(jì)是100年以內(nèi),而馬斯克則激進(jìn)的表示在5年之內(nèi)人類(lèi)就會(huì)有危險(xiǎn)——掐頭去尾之后,這個(gè)難以確定的時(shí)間,可能就是當(dāng)代人的有生之年。而很多人都知道一個(gè)道理,科技越發(fā)達(dá),科技本身的發(fā)展速度就會(huì)越快,它既體現(xiàn)在社會(huì)環(huán)境中,也體現(xiàn)在具體產(chǎn)品至上,比如智能手機(jī)的處理能力,以及互聯(lián)網(wǎng)本身的發(fā)展,就是呈指數(shù)級(jí)遞增的,從之前到現(xiàn)在需要100年發(fā)展的東西,從現(xiàn)在到下一個(gè)節(jié)點(diǎn)可能只需要50年,再來(lái)就是25年。
這就是為何看似非常遙遠(yuǎn)的超人工智能,會(huì)在這個(gè)強(qiáng)人工智能都還難以實(shí)現(xiàn)的當(dāng)下就讓人感到恐懼的原因——因?yàn)樗拈_(kāi)端可能很慢,但是之后會(huì)越來(lái)越快,包括動(dòng)物本身的進(jìn)化就是如此,現(xiàn)在所擁有的一些習(xí)性,其實(shí)是經(jīng)過(guò)了漫長(zhǎng)時(shí)間的適應(yīng)與培養(yǎng),最終沿襲下來(lái)的,然而,猿人和人類(lèi)之間的差距很漫長(zhǎng),但普通人與高智商人群之間的距離,則就要被縮小N多倍。
也就是說(shuō),人工智能的發(fā)展,在時(shí)間和效率上,都會(huì)比人類(lèi)自身的發(fā)展要快的多(除非人類(lèi)控制人工智能的發(fā)展始終保持在一個(gè)相對(duì)間平衡狀態(tài)下,但這并不容易)。而就像人類(lèi)不會(huì)停止自身的進(jìn)步一樣,人工智能也不會(huì)停留在強(qiáng)人工智能階段,一旦它們達(dá)到了強(qiáng)人工智能,那么下一秒就會(huì)開(kāi)始像超人工智能的目標(biāo)飛奔過(guò)去。像阿西莫夫所向往的以人類(lèi)為代表的“碳文明”與機(jī)器人為代表的“硅文明”的共存共生的局面可能發(fā)生,但可能只是一段時(shí)間而已。
而在實(shí)現(xiàn)了超人工智能之后,它們看待人類(lèi),就像人類(lèi)現(xiàn)在看待動(dòng)物一樣,有足夠的資本睥睨后者的低能,而屆時(shí),人類(lèi)也就像動(dòng)物一樣,不再能理解超人工智能的世界了。不夸張的說(shuō),現(xiàn)階段我們預(yù)言的“背叛”(指機(jī)械可能會(huì)在沒(méi)有人為干預(yù)的條件下自主采取任何行動(dòng)),到時(shí)候可能就會(huì)成為一種自然法則,而人類(lèi)的社會(huì)結(jié)構(gòu),將有可能會(huì)因此而遭到毀滅。
小結(jié)
正是這種在當(dāng)前有限的認(rèn)知中所能試想出來(lái)的悲觀結(jié)果,才會(huì)使大佬們連番發(fā)話號(hào)召人們警惕人工智能,這同時(shí)也是作為行業(yè)領(lǐng)導(dǎo)者的他們所擁有的責(zé)任。
不過(guò)換過(guò)一面看,也許超人工智能實(shí)現(xiàn)以后,會(huì)把人類(lèi)帶到一個(gè)新紀(jì)元中去——甚至是再一次進(jìn)化也不是不可能。只是無(wú)論好與壞,人類(lèi)都不會(huì)再是現(xiàn)在這個(gè)樣子了。這也就是為什么有人會(huì)說(shuō),超人工智能將會(huì)是人類(lèi)最后一項(xiàng)發(fā)明的原因。