異曲同工,我國的“百度大腦”已經(jīng)擁有200億個參數(shù),構(gòu)造起了世界上最大的深度神經(jīng)網(wǎng)絡,已經(jīng)具備了2~3歲孩子的智商。根據(jù)摩爾定律,百度大腦再繼續(xù)做十年、二十年的話,很有可能就會比人腦還要聰明。因為技術(shù)的發(fā)展可以使得人的智力越來越大程度地被電腦所模仿,而融入了人工智能的電腦不僅可以達到人腦的智力,還可以具備人腦的邏輯能力。
人工智能,人類的“終結(jié)者”?
今天,不斷發(fā)展的科技水平,越來越清晰地告訴人類:人工智能超越人類智慧,即便還有相當漫長的一段路要走,但它就在未來的某一天等著我們。這從人類已經(jīng)表現(xiàn)出來的,對于未來人工智能發(fā)展的擔憂與恐懼中,也可見一斑。
去年年底,霍金在接過科幻作品接力棒的時候,就直接給出了一個警告:人工智能的發(fā)展可能意味著人類的末日。在今年的博鰲亞洲論壇上,比爾·蓋茨再次提醒,“人工智能方向是對的,但不能操之過急,不要輕易進入未知的領域。”
人工智能的發(fā)展,真的會導致人類的“終結(jié)”嗎?這種惡的想象,是必然的嗎?其實,我覺得人類關(guān)于人工智能發(fā)展控制的需求,與其說是對機器人強大后對人類“叛變”的焦慮,倒不如說是人類對于科技發(fā)展后,人類心理所潛在的“惡”的恐懼。人類糾結(jié)于有那么一天,機器人會反抗他們的“人類”造物主,以致用他們超越人類的能力將人類趕盡殺絕。而事實上這反映出的,只是人類對自身內(nèi)心深處那一股“惡”的力量的不可控。
早在1942年,科幻作家艾薩克·阿西莫夫創(chuàng)造了著名的“機器人三大定律”:機器人不得傷害人類或坐視人類受到傷害、機器人必須服從人類的命令、在不違背第一和第二法則的前提下機器人必須保護自己?;诖耍祟惻c機器人之間保持著一定程度的“正能量”關(guān)系。但是,這個追求“人機和諧、社會和諧”的三大定律,更確切地說,只是人類單方面的限令,希望以此讓機器人順理成章、理所當然地做人類的奴役。或者說,人類一方面希望擁有人工智能的機器人能夠非常聰明,并且?guī)椭?、替代我們完成一系列我們自身難以完成的事情;另外一方面又希望這個機器人很“老實”,永遠無條件忠誠于人類的這樣一種矛盾的處境。
所以,一旦有人感覺到迅速發(fā)展的高科技超越了他們的可控范疇,那么焦慮和絕望的悲觀“科技恐懼”便油然而生。而這種心理,從本質(zhì)上來講,并不是來源于智能機器人的威脅,即使是,那也是基于人類設定的前提之下的想象。真正的威脅,其實還是來自于人類自身。就像《2001:太空漫游》中的HAL-9000,替人類說出了長久以來三緘其口的信仰問題:對造物主的質(zhì)疑,人類是否可以反抗上帝。
人類的明天,誰來主載?
就人工智能本身而言,更多的就像是一個人類的小孩,它的成長與變化首先取決于人類給予的環(huán)境。在影片《人工智能》中,未來世界人性泯滅,而機器男孩戴維則成為了“人性”的代表,他善良、真誠、渴望被愛。在《霹靂五號》中,Johnny5被雷擊后“活”了過來,正直、幽默、熱愛生命的心靈讓人動容。同時,還有我們非常熟悉的哆啦A夢、阿童木以及阿拉雷等卡哇伊的機器人形象。這些都是人類的作品——“人工智能”的一種表現(xiàn),它們傳達的是接受于人類所傳遞給他們的信息。就如部分科學家所言,在未來,人工智能會成為“人類智慧的容器”;而人工智能的走向同樣受到人類主觀能動性的影響。
在《終結(jié)者》中,“天網(wǎng)”本身是一個超級武器,人類給其灌輸了要消滅一切威脅的指令,它也堅決地執(zhí)行了。而當“天網(wǎng)”發(fā)動啟示錄戰(zhàn)爭要毀滅人類的時候,其根本原因也是因為人類感到害怕,要永遠關(guān)掉它,而這被“天網(wǎng)”認定為是一種威脅。在《復仇者聯(lián)盟:奧創(chuàng)紀元》中,人工智能奧創(chuàng)以“殺戮”的方式,忠實地履行著創(chuàng)造者維護和平的意愿。因為在它看來,這手段最行之有效。