由此,也誕生了“強人工智能”和“弱人工智能”的區(qū)分,即機器的思考和推理就像人的思維完全一樣,就是強人工智能,而如果機器只是部分擁有人的思維、推理、情感、行動能力,就算是弱人工智能。我們前面提到的騰訊的“夢幻寫手”、百度的“度秘”、微軟的“小冰”、軟銀“pep-per”以及蘋果iO S系統(tǒng)的“siri”,都只是在思維上部分擁有人類的推理、情感或其他能力,所以都屬于弱人工智能。目前流行的智能家具、智能汽車、無人機、智能手機,也都是弱人工智能的體現(xiàn)。
人工智能的倫理陷阱
接續(xù)上文的論述,所以,倫理的討論也分為強人工智能和弱人工智能兩部分。
首先,按照強人工智能的定義,我們可以得出該機器人獲得了人類完全的思維能力,他(暫且用“他”)擁有我們相同的思維、情感、創(chuàng)造力乃至不可預(yù)測性。那么,問題來了,他到底是機器人還是我們所認為的人類?
疑問1:他身體構(gòu)成的材料與我們完全不一樣,也許是硅膠,或者是別的東西,總之不是我們這樣的血肉之軀。那么,他還是人類嗎?
回答:關(guān)于人的定義,核心在于身體還是具備人的思維意識,這一點需要考慮清楚。安裝假肢的殘障人士也有非血肉材料,只是比例較校然而,伴隨3D打印器官的投入使用,人體越來越多的部分都可能不是血肉之軀,但我們不會認為他們就不是人類范疇了。所以,只要思維一致或者更加抽象地說,擁有自由意志,那么不管他是什么做的,就已經(jīng)屬于人類范疇了。
疑問2:他并非人類繁衍的產(chǎn)物,他沒有生理學(xué)意義上的父母,更像是一個怪物,所以還是人類嗎?
回答:試管嬰兒在今天已經(jīng)非常普遍,克隆如果不被禁止,克隆出的產(chǎn)物也會被認為是人類,正如“多利”不會被認為不是羊。未來,人工智能無論通過什么方法,如果最終能夠制造出具有人類思維的機器人,那么應(yīng)該賦予其基本的“人權(quán)”,承認其人類的身份。
所以,在是否該賦予強人工智能制造的機器人“人權(quán)”這一點上,不該存有疑慮。既然承認他是“人類的成員”,那么人類現(xiàn)有的價值判斷原則就沒有遭受沖擊的可能,因為我們只需要用人的方式對待他即可。無故傷人也好,破壞公共秩序也罷,之前如何對待人類,現(xiàn)在也就照樣對待。
當然,對于社會關(guān)系,例如家庭組織、親屬關(guān)系的沖擊是顯而易見的,但這并不影響整個世界最基本的制度規(guī)范。千百年來,婚戀的變遷、審美的流變,都差距奇大,但這些變化也都在歷史長河中被“合理化”。也許就像50年前的人無法想象如今極為普遍的婚前性行為或同性戀合法化一樣,今天的我們也無法去設(shè)想智能機器人加入我們之后產(chǎn)生的變化會如何消除爭議。
所以,強人工智能的機器,并非新的物種,他就是歸屬于人類,他帶來的倫理沖擊并不能上升到宏觀價值。況且,我們距離強人工智能時代還很遙遠,關(guān)于倫理,弱人工智能反而更加值得討論。
弱人工智能的倫理問題存在已久,討論最典型的即無人轟炸機的倫理問題。一個自動轟炸的機器人,成為了戰(zhàn)爭的幫兇,萬一失控,造成對平民的傷害如何界定。對此,我們需要明白,人類從制造勞動工具和武器開始,工具就已經(jīng)變成了自己的延伸。工具本身的智能水平有限,并不能擁有完全的自主性,所以無人機無論造成什么后果,責(zé)任主體依舊沒有變,就是控制機器人的人。由此可以推出,智能汽車失控,或者智能導(dǎo)航帶你進湖,這些都屬于擁有明確責(zé)任主體的機器。
其次,則是隱私問題。每一個智能機器人(設(shè)備)都是一個收集數(shù)據(jù)的終端,無數(shù)數(shù)據(jù)的匯集最終可能出現(xiàn)有價值的商業(yè)模式,前提之一必然是個人隱私的被販賣。對于隱私的邊界,人們并非不可接受,但是要認同讓渡的隱私權(quán)和獲得的便利比是有價值的。目前來看,大數(shù)據(jù)產(chǎn)生的隱私濫用問題已經(jīng)非常嚴重,斯諾登的出現(xiàn)表明企業(yè)和政府形成了“同謀”,鐵幕遍地,并非危言聳聽。