你可能覺得達沃斯是一個政治家,經濟學家和企業(yè)家的地盤?不過,今年除了這些人還多了一種“人”:機器人。在國際會議中心三層最明顯的展區(qū),達沃斯非常有限的展區(qū)就被各式各樣的機器人占據(jù)了。而早上第一個時段的主題論壇的話題也和機器人緊密相關,人工智能會不會比人類更聰明?
這個論壇上,主持人拋出的三個關于人工智能的用戶問題非常有意思,現(xiàn)場觀眾也參與了舉手投票。(大家可以先琢磨一下自己的答案,再來看綜合調查的結果)
1.如果你作為犯罪嫌疑人出現(xiàn)在法庭上,你希望人類當法官,還是機器人當法官?
2.如果你被診斷出可能影響你生命的疾病,你是相信人類給你出一個診斷方案,還是機器出一個診斷方案?
3.第三個問題比較嚴肅,如果國家之間爆發(fā)戰(zhàn)爭。你希望人類當士兵?還是用機器人作為士兵?
對這三個問題,綜合調查的結果是這樣的。
對于第三個問題,絕大多數(shù)人希望人類做法官來宣判,但是對第一,二個問題,受訪者希望機器人來做醫(yī)療診斷和當士兵為人類作戰(zhàn)。
我們可以分析一下這個答案。關于醫(yī)生診斷,可以理解為多數(shù)人已經覺得對于已知疾病的知識消化理解,人工智能已經可能做的比單獨醫(yī)生做的更好了。(IBM的Watson就是這樣一種可以從事醫(yī)療診斷的技術);而當法官這件事,則說明人類本能的認為人類的行為還是同類更能理解,機器人大概理解不了人類作為犯罪嫌疑人的犯罪“苦衷”;士兵作戰(zhàn)這件事則最簡單,所有人都認為人的生命比機器更為寶貴。
而來自Carnegie Mellon University的E. Fredkin教授也多少支持了公眾的意見。他認為,未來5-10年,在三個方面,人工智能,可能會取得突飛猛進的進步。
第一個是自動駕駛,無人汽車會比人類司機的駕駛安全的多。
第二個是文本理解,人工智能將能夠理解文本信息,并真正理解文本的含義進行分析。
第三個是醫(yī)療領域,人工智能在獲得大量生命數(shù)據(jù)之后,在醫(yī)療領域會有相當程度的智慧。
其中第三個醫(yī)療,和公眾希望人工智能做醫(yī)療診斷的結果不謀而合。實際上,人工智能介入醫(yī)療,也離不開第二點對人類已有知識的學習。
不過關于人工智能最讓人感興趣的話題,顯然還是關于“終結者”的問題。也就是人工智能達到一定程度會不會威脅到人類的存在。這個問題在論壇上有所討論,而且也能夠從上述觀點得出我們的結果。
對于一個有明顯規(guī)則的事務,比如駕駛汽車,那么人工智能會做的很好,而且做起來可能會比人類還安全,也就談不到對人類的威脅。但如果是規(guī)則不明顯的事物,比如是否應該發(fā)動戰(zhàn)爭,是否會在戰(zhàn)場上傷及無辜的第三方,最終變成《終結者》電影里的SKYNET,問題就變得復雜了。因為戰(zhàn)爭沒有明顯的邊界,也沒有明確的規(guī)則可言。那么人工智能在對待此類問題的處理,只能來自于對人類知識本身的消化。從這個角度而言,人工智能顯然是存在威脅的。
首先,人工智能理解文本的技術進步可能非???;其次人工智能所看到的文本充滿了不確定性。因為人類的歷史就是一部不斷進行戰(zhàn)爭與的歷史。所以人工智能到底是不是一個威脅,既是一個嚴肅的命題,也是一個偽命題。因為人工智能是否產生威脅,實際上與人工智能本身無關,而與人類的行為相關。如果人類歷史記錄的都是people fight people,天天讀戰(zhàn)爭史的人工智能恐怕也不會成為喜歡鴿子的和平主義者。這樣看來,如果要消除人工智能的威脅,像《三體》這種宣揚“消滅你,與你無關”的論調,更是要成為人工智能的禁書才行。
不妨總結一下,對于這個人工智能與人類對決這個終極問題,答案非常簡單:家長是孩子最好的老師,上行下效,人工智能是否存在威脅,是否暴力,實際上取決于人類自身的行為,而與人工智能本身無關,因為人工智能的思考邏輯實際上來自于人類的,否則也不會稱之為“人工”智能。