人們對于人工智能這個熱點話題仍說法各異。
像史蒂芬·霍金、伊隆·馬斯克、比爾·蓋茨這樣的專家,最近越發(fā)看重它的潛力和威脅。在讀完尼克·博斯特倫《超級人工智能》一書后,馬斯克大聲質(zhì)問,人工智能是否是“我們現(xiàn)在最大的威脅”。
我們對于人工智能流行的說法被人類倫理所扭曲了。人們對于人工智能的分歧不僅僅體現(xiàn)在它的威脅上,對于強(qiáng)人工智能是否會出現(xiàn)也有不同的看法。一些人認(rèn)為具備人類相當(dāng)水平的“強(qiáng)人工智能”(hard A.I。)永遠(yuǎn)不可能存在,但也有人認(rèn)為這種趨勢將勢不可擋。但在很多情況下,這些爭論可能偏離了真正的含義:人工智能在存在和思想上,可能和人類自身形式有很大的不同。
簡而言之,這種觀點表明,一種成熟的人工智能不一定是仿人的智能,或者由我們支配。如果我們以錯誤的方式去尋找人工智能,它出現(xiàn)的形式可能就會是:難以識別、風(fēng)險擴(kuò)大并且延遲收益。
這不僅僅是對于未來的擔(dān)憂。人工智能早已走出實驗室,并且深入日常生活。“弱人工智能”(Soft A.I。),比如蘋果的Siri和亞馬遜的推薦引擎,以及人工智能基礎(chǔ)設(shè)施,比如高頻算法交易,智能汽車和工業(yè)機(jī)器人已成為日常生活的一部分,與我們的工具使用、城市發(fā)展、經(jīng)濟(jì)建設(shè)和商品貿(mào)易息息相關(guān)。
不幸的是,人工智能的主流觀點,起碼在無數(shù)的電影、游戲和書籍中描述的,依然假定那些與人相似的特征(憤怒、嫉妒、困惑、貪婪、驕傲、欲望,更不用說冷漠疏遠(yuǎn))是人工智能最重要的部分。這種錯誤的人類中心主義也許和現(xiàn)在的人工智能研究相去甚遠(yuǎn),但這也側(cè)面反映了我們的文化如何看待自我和高級合成認(rèn)知(advanced syntheticcognition)。
在斯蒂文·斯皮爾伯格2001年的電影《A.I. Artificial Intelligence》中,那個小男孩機(jī)器人想要成為真正的男孩,雖然他只有一顆小金屬心靈,而天網(wǎng)在電影《Terminator》中則沉迷于人類毀滅。我們不假思索的假定,斯坦利·庫布里克和亞瑟·查理斯·克拉克1968年的電影《2001: A Space Odyssey》里的巨石Monoliths是在和人類主人公大衛(wèi)交流,而不是他宇宙飛船上的人工智能:HAL 9000。
我認(rèn)為我們應(yīng)該停止這樣的想法:真正的人工智能必須深切考慮到人類,尤其是以人作為它的關(guān)注點和動機(jī)。也許我們真正害怕的,并非是一臺殺死我們的大機(jī)器,而是它認(rèn)為我們無關(guān)緊要。這比被視作敵人更加糟糕。
除非我們假設(shè),類人智能代表了所有可能的智能形式(這當(dāng)然是自欺欺人),否則為什么要根據(jù)和我們的相似性來定義先進(jìn)的人工智能?畢竟“智能”非常難以定義,而人類智能又無法簡單地包含所有可能性。即便在實驗室它具有實用的價值,但從文化角度,它還是適得其反,是不道德甚至是危險的。
我們不需要如此狹隘和自戀的人工智能觀念,所以不能僅僅把我們自身的特性映射到機(jī)器的版本中。如果把這種狹隘的觀念作為人類和人工智能溝通的基礎(chǔ),這個前提就已經(jīng)是錯誤的了。更不用說,歷史上不同群體的“第一次接觸”,即使是在人類之間,也往往是不愉快的經(jīng)歷。
從雷德利·斯科特的《銀翼殺手》到斯派克·瓊斯的《她》,這些無數(shù)的科幻電影在測試人工智能的能力的時候,都要看它是否能被“以人相待”。這種觀點從人工智能研究開始一直伴隨到現(xiàn)在。這最早可以回溯到1950 年,英國數(shù)學(xué)家阿蘭·圖靈發(fā)表了論文《計算機(jī)器與智能》,那時候他提出了“模仿游戲”測試,也就是我們今天說的“圖靈測試”。雖然版本有所不同,但它揭示了我們研究人工智能文化和道德的方法論定義了人工智能本身:無論是好的還是壞的。
最讓人熟悉的版本是:提問者向兩個隱藏的參賽者提問,一個是人,另一個是計算機(jī)。圖靈認(rèn)為,如果提問者不能區(qū)分兩者的身份,并且計算機(jī)能成功假扮成人,那么就成功通過測試。從實踐目的來說,計算機(jī)不就是“智能”的嗎?