AI會(huì)取代人類嗎?
一些科學(xué)界人士擔(dān)心AI是個(gè)“潘多拉盒子”,會(huì)導(dǎo)致危險(xiǎn)的后果。早在1993年,計(jì)算機(jī)科學(xué)家Vernon Vinge推廣了技術(shù)新概念:AI驅(qū)動(dòng)的計(jì)算機(jī)或機(jī)器人能重新設(shè)計(jì)并改進(jìn)自身,或者能設(shè)計(jì)比自身更先進(jìn)的AI。
自然有人認(rèn)為,這將導(dǎo)致AI超出人類智慧、理解和控制,從而導(dǎo)致人類時(shí)代的終結(jié)。近來,史蒂芬·霍金和其他權(quán)威科學(xué)家,包括Stuart Russell,Max Tegmark,和Frank Wilczek同樣警告過,AI太過“聰明”的潛在后果。
這個(gè)令人憂慮的想法給好萊塢電影提供了素材,從60年代的《2001太空漫游》,到80年代的《終結(jié)者》系列及近期的《超驗(yàn)駭客》,所有電影都選擇描述各種失去控制的AI主導(dǎo)的反烏托邦世界。
但在我們太過擔(dān)憂之前,需要說明一下人工智能當(dāng)前的水平。如果實(shí)現(xiàn),首先“全能AI”必須實(shí)現(xiàn)重大進(jìn)展,即可以AI機(jī)器人可以成功勝任所有人類勝任的智能任務(wù)。而現(xiàn)在,該AI技術(shù)根本還未實(shí)現(xiàn)。通用AI不同于我們大多數(shù)人熟悉的“領(lǐng)域特定AI”。
這些領(lǐng)域特定AI專注于一件事情——例如,掌握國(guó)際象棋(Deep Blue或Giraffe),或者Go(谷歌的Deep Mind)、駕駛汽車(谷歌的自動(dòng)駕駛)、或護(hù)照照片人臉識(shí)別。即使是知名的AI倡導(dǎo)者也認(rèn)為,Vernon Vinge提出的新觀點(diǎn)在未來某天終會(huì)到來,通常在他們寫出程序后的三十年左右。
然而,AI越來越發(fā)達(dá),它已經(jīng)對(duì)我們的經(jīng)濟(jì)產(chǎn)生了深遠(yuǎn)影響。在2013年的一項(xiàng)研究中,經(jīng)濟(jì)學(xué)家Frey和Osborne使用AI技術(shù)探索自動(dòng)化對(duì)職業(yè)影響的研究。基于他們的預(yù)測(cè),美國(guó)職場(chǎng)上約47%的職位面臨極大的風(fēng)險(xiǎn),可能在接下來的十年或二十年將會(huì)被機(jī)器取代。迄今為止,中等收入職位受到的影響最大,也體現(xiàn)了當(dāng)下最易受自動(dòng)化影響的工作內(nèi)容。
對(duì)于過去經(jīng)濟(jì)發(fā)展過程中出現(xiàn)的重大變革(例如,從農(nóng)業(yè)為主的經(jīng)濟(jì)轉(zhuǎn)變成工業(yè)經(jīng)濟(jì)),人們通過改變教育和學(xué)習(xí)的范圍和內(nèi)容逐漸適應(yīng)。這種觀點(diǎn)是,如果“工人有靈活的技能,如果教育基礎(chǔ)設(shè)施得到充分發(fā)展,那么...技術(shù)和教育之間的競(jìng)爭(zhēng)沒有勝利者,成果將會(huì)被更多人共享”。
在快速發(fā)展的AI面前,這種方法是否適用值得商榷。歷史證明,技術(shù)的改變通常會(huì)帶來很多無法預(yù)料的新角色。而其他人,如Martin Ford認(rèn)為隨著自動(dòng)化承接越來越復(fù)雜的任務(wù),工作機(jī)會(huì)會(huì)減少,無法保持當(dāng)前的就業(yè)率。
AIEd的倫理問題
人工智能(AI)的發(fā)展正在加速,滲透到我們生活的每一方面。問題在于,我們是否已準(zhǔn)備好可控制的情況下讓此發(fā)生?正如牛津大學(xué)的哲學(xué)家Nick Bostrum所論述的,需特別謹(jǐn)慎地關(guān)注AI的倫理問題:“責(zé)任、透明性、可審計(jì)性、防破壞性、可預(yù)測(cè)性(...);必須在旨在取代人類社會(huì)功能判斷的算法中考慮這些標(biāo)準(zhǔn)”。
例如,如果AI“出錯(cuò)”(比如,可參見2010年金融界“閃電崩盤”事件中算法起到的作用)由誰來承擔(dān)責(zé)任,是最終用戶還是程序員?如果交通事故涉及自動(dòng)駕駛車輛,該怎么處理?能否知曉它是如何做出決定并對(duì)其進(jìn)行修正來防止問題的?如果AI使用的是神經(jīng)網(wǎng)絡(luò),這已變得非常困難。而且,AI是否開放操控?我們都非常清楚電腦黑客行為的后果。如果出于犯罪目的開發(fā)或修改AI,會(huì)發(fā)生什么?
對(duì)于AIEd,同樣存在這些倫理問題。例如,我們知道共享數(shù)據(jù)對(duì)AIEd系統(tǒng)的集成至關(guān)重要,而且,匿名化數(shù)據(jù)的共享,通過削減浪費(fèi)、重復(fù)性工作,可促成該領(lǐng)域的飛躍式進(jìn)步。但這種共享帶來了從個(gè)人隱私到專有知識(shí)產(chǎn)權(quán)的大量問題。
的確,AIEd系統(tǒng)所生成的數(shù)據(jù)越來越多,同時(shí)更加多樣化,這讓現(xiàn)有的教育數(shù)據(jù)倫理問題風(fēng)險(xiǎn)加倍。AIEd系統(tǒng)數(shù)據(jù)生成、分析、解釋和使用有什么影響意義?誰持有數(shù)據(jù)、誰可使用數(shù)據(jù),出于何種目的使用數(shù)據(jù)、誰負(fù)最終責(zé)任?
另一個(gè)需考慮的問題是,AIEd旨在影響用戶的長(zhǎng)期行為并對(duì)其進(jìn)行改變。例如,系統(tǒng)可作出建議、進(jìn)行勸說或提供反饋,使人機(jī)之間建立關(guān)系。行為改變毫無疑問是一種可能,但這仍沒有經(jīng)過嚴(yán)肅的倫理考慮。
其他擔(dān)憂則與學(xué)習(xí)伙伴相關(guān),雖然它們被設(shè)計(jì)出來的原意是支持學(xué)習(xí)者學(xué)習(xí),但恐怕“跟隨”您的伙伴反而會(huì)永久性地記錄下學(xué)習(xí)失敗經(jīng)歷,不利于未來的發(fā)展。