圍棋人機(jī)大戰(zhàn)讓人工智能的話題熱度居高不下。每一次新進(jìn)展的橫空出世,都讓期待這項技術(shù)的人變得更樂觀,不過,人們對其影響力的顧慮也在明顯上升。越來越多的組織、機(jī)構(gòu)開始研究智能機(jī)器衍生的倫理問題。雖然人們無法保證今天的思考、策略完全有效,但在沒有作任何準(zhǔn)備的情況下,就必然無法將其控制。
郭剛制圖
永恒的恐懼
對于人工智能的憂慮,最早可以追溯到200年前。但這不是對一項技術(shù)的反思,而是展示了造物者與被造物之間的內(nèi)在關(guān)系。
“亞當(dāng)”是英國19世紀(jì)女作家瑪麗雪萊筆下作品《弗蘭肯斯坦》中的合成生命體,科學(xué)家弗蘭肯斯坦創(chuàng)造了他。亞當(dāng)天性善良,渴望感情,渴望受到尊重,但世界并沒有像他所期待的那樣接納他,他始終是個異類。
于是,他被迫反抗,作出極端行為,脅迫弗蘭肯斯坦為他造一個“夏娃”。弗蘭肯斯坦擔(dān)心“亞當(dāng)”和“夏娃”會衍生出無數(shù)新的怪物,在即將成功時將“夏娃”銷毀。“亞當(dāng)”開始了復(fù)仇殺戮,弗蘭肯斯坦只能與之決斗。
《弗蘭肯斯坦》在多年以后,依然能夠成為英美文化的熱點。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院院長江曉原認(rèn)為,這是源于人類與被造物之間天然的永恒恐懼與不安。“歷史證明,即便同是人類,異族之間想要獲得融合,也需付出巨大代價。”這可以解釋為什么人類與人工智能的實現(xiàn)越近,恐懼與不安會更深。
不過,科學(xué)家一向反對將人工智能過度擬人化,他們認(rèn)為目前沒有確切證據(jù)證明它們在未來會帶來像作品中的災(zāi)難性后果。
倫理學(xué)家、哲學(xué)家則堅持對人工智能的憂慮,至少可以理解為對科學(xué)技術(shù)的人文關(guān)懷。江曉原說:“要打消這個擔(dān)憂,就必須論證‘人工智能不會危害人類’或者‘人工智能的危害是可控的’。”
人造機(jī)器會不會超越人
對于人工智能的警惕最初的焦點在于“人造的機(jī)器會超越人”。庫茲韋爾在《奇點臨近》中表示,一旦強(qiáng)人工智能實現(xiàn),它可以很輕易地獲得提高,其能力也會增倍,這是機(jī)器能力的根本特質(zhì)。而這種自我強(qiáng)化的智能最終會超過人類智能水平。
世界通用人工智能學(xué)會副主席、《通用人工智能》雜志主編、美國天普大學(xué)計算機(jī)與信息科學(xué)系副教授王培認(rèn)為,首先需要理清人工智能的概念。他告訴《中國科學(xué)報》記者,目前主流認(rèn)知是,“人工智能”就是要在計算機(jī)上再現(xiàn)“全部的”人類智力功能。
雖然人們不斷嘗試設(shè)計和構(gòu)建“思維機(jī)器”,但是往往都以失敗而告終。因此,科學(xué)家轉(zhuǎn)而研發(fā)只在某個特定問題的解決上可以達(dá)到人類水平的計算機(jī)系統(tǒng)。
在王培看來,這種研究方向的根本問題是這類系統(tǒng)的能力完全由人設(shè)計決定,系統(tǒng)本身基本上沒有適應(yīng)性、靈活性和創(chuàng)造性。因此,這類系統(tǒng)不是真正的智能。
一種非主流認(rèn)識是,“智能”代表著某種理性原則,人類的智能從來不是全知全能,但人類總是能在任意環(huán)境中找到最優(yōu)解。因此,真正的智能的定義可以抽象為“在知識和資源相對不足的條件下的適應(yīng)能力”。
所謂“適應(yīng)能力”是指,系統(tǒng)面臨的問題是實時發(fā)生的,對系統(tǒng)作出反應(yīng)的時間是有要求的;同時,相對于所要解決的問題來說,系統(tǒng)只有有限的信息加工能力,比如記憶的容量、計算的速度;其次,系統(tǒng)必須是開放的,不對面臨的問題內(nèi)容加以限制。
如此一來,目前人們所了解的人工智能系統(tǒng)都不滿足這種能力。但王培認(rèn)為,這才是更接近公眾心目中的人工智能觀念,是靈活的、有創(chuàng)造力的。
這類系統(tǒng)是一個自適應(yīng)系統(tǒng),元程序設(shè)計會賦予其自主應(yīng)對問題的能力,但是它所面臨的每一個問題本身并沒有程序可以依靠,而是全憑自己在環(huán)境中學(xué)習(xí)和積累經(jīng)驗。