計算機需要假裝成人以通過人類的測試,而圖靈需要隱藏同性戀傾向以通過“直男測試”,這真是有趣的巧合。
遺憾的是,更多的人僅僅“知道”圖靈測試,而沒有真正閱讀過。圖靈的文本是非凡、奇妙而令人驚訝的。圖靈說他的測試是一種流行客廳游戲的變種:有兩個藏在幕后的參賽者,一位女性(參賽者A)和一位男性(參賽者B),他們需要努力說服,讓第三個人認為自己是一名女性,通過手寫回答問題的方式。為了獲勝,一個參賽者必須令人信服的扮演自己,而另一方需要假扮成另一種性別。圖靈用計算機取代了玩家A,在字面上你可以理解為,計算機不僅僅要扮演一個人,而且得扮演成女性才能通過測試。
在其他版本的測試中,參賽者B可以是男性,也可以是女性。游戲里可以一個人假裝、或者兩人假裝、抑或兩人都不假裝,也可以是完全不同的游戲。既然我們讓計算機參賽,我們可以讓它假扮成女性或男性,這個角色假扮成女性,讓詢問者分不清男女。也可以玩的更加復雜,計算機假扮成試圖假裝女人的男人,同時還有一個真的人也在這么做。甚至說,讓計算機假扮成為這樣的女性,她假扮成試圖假裝女人的男人。畢竟在現(xiàn)實生活中,這些情況都有可能發(fā)生。
莫騰·泰杜姆導演的《模仿游戲》獲得了2014年奧斯卡大獎。在那個同性戀被視作犯罪的年代,即便是身為數(shù)學家的圖靈也得假扮成“直男”。而當他的性傾向暴露時,不得不接受可怕的“化學閹割”治療。最終,在巨大的身體和精神痛楚下,圖靈自殺了。這是歷史上荒誕的插曲,當時他對擊敗希特勒軍隊的貢獻還是一個國家機密。直到最近,圖靈才得到了英女王的皇家豁免,然而類似法律下被懲處的其他成千上萬的英國男子卻未被豁免。
計算機被要求通過測試來證明智力,和圖靈被要求假扮成直男來通過測試,這里面有著諷刺的對應,既嘩眾取寵也極度不公平。
無論是以白人或黑人、男人或女人的身份通過測試,基本上都取決于他人的觀察和解釋。因為其他人都已經(jīng)習慣于傳統(tǒng)的暗示(種族,性,性別,物種等),所以無論誰想通過測試,都只有和觀察者進行共謀。至于人工智能是否愿意這么做,或者僅僅被拖過來完成測試,那就是另一個問題了。無論如何,通過與否更多關(guān)乎觀眾,而非被測試者的表現(xiàn)。
我們最好這樣假定,在宇宙中思考是多樣化的行為,即便是外星人也會思考,人類并非是特殊的個案。相對于人類教育機器如何思考,人工智能真正的哲學問題是,機器如何教育人類在一個更完整和真實的維度里思考。
過去我們總是根據(jù)模擬人類思維的能力來定義人工智能存在,在未來看來,這種想法其實只是一種奇怪的物種偏見。在這種想法下,早期人工智能研究者試圖在機器中重建人類思維,但這根本行不通。相反,現(xiàn)代的研究者認為,如果機器能在特定領(lǐng)域里把事情做好,就可以被稱作“智能的”,而不是它能在多大程度反映出人類思想。Stuart Russell和PeterNorvig(現(xiàn)任谷歌研究院主任)在他們重要的著作《人工智能》中就指出了,對生物形態(tài)的簡單模仿并不足以應用于復雜精巧的現(xiàn)代科技:飛機并不以鳥類的方式飛行,我們在測試飛機是否是“真正的”飛行器時,當然也不會去看看鳥類是否會把飛機與同類混淆。既然如此,為什么人們對人工智能采用了這樣的判斷標準呢?現(xiàn)代務實的人工智能研究并不會把圖靈測試作為成功的標準,然而在流行文化中,這種人類中心主義的測試卻在長期受到重視。人們對于人工智能的想象大多數(shù)還停留在迪士尼電影中會說話的動物這一層次上,而這其實不過是一種幼稚的口技而已。
有人會說:把模仿人類形態(tài)作為人工智能的先決條件不夠科學,是一種“前哥白尼”時代的觀點。那么這種觀點真正的問題在哪里呢?如果在未來,我們?nèi)粘K姷娜斯ぶ悄芏季哂心撤N人性,情形會怎么樣呢?好的方面是我們會與機器智慧建立一種更為真誠而清醒的關(guān)系,而壞的方面是,如果我們對生命體抱有這樣的幻想,將會損失更多可能性。有些哲學家已經(jīng)思考賦予有感情的機器以倫理權(quán)利了,但我想要說的不是這個,事實上,我們在思考這些人工智能體的時候,應該尋找更為真實的視角。