2013年,英國牛津大學(xué)人類未來研究院院長、哲學(xué)教授尼克·博斯特羅姆做了一個調(diào)查問卷,被調(diào)查者是數(shù)百位人工智能領(lǐng)域的專家。問卷的統(tǒng)計令他本人都非常吃驚,如果說我們?nèi)祟惸壳疤幱谌跞斯ぶ悄軙r代,那么最悲觀的(最晚的)估計是有90%的可能在2075年人類迎來強人工智能時代的到來。他也因此寫下下面這段話:
人類可能毀于自己之手,因為人類科技的發(fā)展而帶來的危險,人類正陷于滅絕的危險之中。而最為糟糕的是,目前人類對此知之甚少,而且大大低估了這種風(fēng)險。
而當(dāng)這些技術(shù)的門坎被逐一攻破,我們將不得不接受這樣的現(xiàn)實:在未來的幾十到一百年間,超級運算、存儲和識別的計算機系統(tǒng),設(shè)計出超智能生物的模型,在超級生命合成科技的指導(dǎo)下,干預(yù)和重組細胞核(DNA),由(納米)3D打印機(應(yīng)該叫生物制造機了),復(fù)制出等同于人類智能的“人工智能生物”,然后他們開始自我進化和生產(chǎn),并在很短時間創(chuàng)造出高出人類智商數(shù)萬倍的“強人工智能生物”。并且,他們具有獨立思維和獨立行為,但沒有情感、道德和法律。他們將開啟“人工智能”的“后人工智能時代”,而他們的母親——人類——將被他們無情的踢下物種的舞臺!
如果你今年20歲,也許你會親眼看到這一天的到來!
愛因斯坦的求助信
2013年美國《財富》雜志年度商業(yè)人物,特斯拉汽車CEO埃隆·馬斯克曾經(jīng)說過這樣一句話:人工智能可能比核武器還危險。而斯蒂芬·霍金教授則更直截了當(dāng):“強人工智能會是人類歷史上最重大的事件,不幸的是,它也可能是最后一個大事件。”
當(dāng)人工智能即將來臨前的幾十年,我們?nèi)祟愃坪踹€沒有對強人工智能的到來做好準(zhǔn)備,甚至很多人都不知道它是什么。但我們知道核武器,知道目前全球擁有的核武器足以毀滅地球。那就讓我們回過頭來,看看馬斯克眼中,比起人工智能還不算最危險的核武器的發(fā)展歷程。
1939年8月2日,愛因斯坦給時任美國總統(tǒng)羅斯福寫了封求助信,信中,他主要向羅斯福說了以下幾個問題:
1、德國正在研制核武器,美國必須搶在德國之前研制出來。
2、由此引發(fā)的許多問題,我們要提高警覺性,建議羅斯福派一位最信任的人來領(lǐng)導(dǎo)美國的核武器研制工作。以便美國政府隨時掌握核武器研制的進程。
3、請求提供經(jīng)費。
羅斯福接到愛因斯坦的信后,反復(fù)思量,舉棋不定。最終在1942年,決定使用軍隊管理的最優(yōu)先級,全面開啟美國研制核武器的計劃,這就是后來載入史冊的“曼哈頓計劃”。
1945年8月6日和9日,當(dāng)愛因斯坦聽到美國在日本的廣島和長崎投下兩枚原子彈,對平民造成巨大的毀滅性傷亡之后極度震驚,他不無遺憾的說:
“我現(xiàn)在最大的感想就是后悔,后悔當(dāng)初不該給羅斯福寫那封信……我當(dāng)時是想把原子彈這一罪惡的殺人工具從瘋子希特勒手里搶過來,想不到又將它送到另一個瘋子手里。”
當(dāng)然,歷史證明,“瘋子”羅斯福手里有了原子彈,比瘋子希特勒要好10000倍。
歷史過去了70年,站在2015年的我們,回首核武器的發(fā)展歷程,至少有7次,它威脅到人類生存的安全,甚至差一點毀滅地球。
1、假如納粹德國先行研制出原子彈(事實上,德國1928年就啟動了核武器研制)。美國、前蘇聯(lián),中國、歐洲大部分土地將陷于沉寂。
2、假如當(dāng)時投放日本的原子彈加大了威力(當(dāng)時并不知道它有多大的威力)。將徹底摧毀東亞乃至太平洋國家。
3、冷戰(zhàn)時期,1962年古巴“導(dǎo)彈危機”。美蘇雙方在核按鈕旁徘徊不定,差點毀滅地球。
4、1986年4月26日,前蘇聯(lián)(烏克蘭)切爾諾貝利核泄漏。造成4000人死亡,輻射塵飄至歐洲大部分地區(qū),在此之后的數(shù)十年間(2065年前),將有幾十萬人因此患癌死亡。