而北卡羅來納州杜克大學人類和自動化實驗室主任Missy Cummings則發(fā)問,“我們?nèi)绾未_保這些系統(tǒng)是絕對安全的?”其曾是一名海軍女飛行員,而現(xiàn)在則是無人機專家。
現(xiàn)在業(yè)內(nèi)普遍意識到人工智能需要進行監(jiān)督,但沒有人清楚該怎么做。Cummings坦言,“目前我們還沒有一種行之有效的普遍方法。沒有類似測試人工智能系統(tǒng)的行業(yè)標準,類似的技術(shù)難以被廣泛實施。”
“沒有類似測試人工智能系統(tǒng)的行業(yè)標準,類似的技術(shù)難以被廣泛實施。”——Missy Cummings,杜克大學人類和自動化實驗室主任
當然,在一個快速發(fā)展的社會中,監(jiān)管機構(gòu)往往都在扮演者一個追趕者的角色。在刑事司法系統(tǒng)以及醫(yī)療保健等關(guān)鍵領(lǐng)域,很多公司已經(jīng)在探索使用人工智能來進行決策,譬如做出是否假釋的決定或者是診斷疾玻但是這樣問題來了,如果將決策權(quán)交給機器,我們就有可能失去控制。誰能保證系統(tǒng)在各種情況下一定是正確的?
微軟研究院的主要研究員Danah Boyd則認為。不少寫入人工智能系統(tǒng)的價值觀存在諸多問題,而恰恰是這部分人如何對系統(tǒng)負責。很多監(jiān)管機構(gòu)、社會大眾以及社會學者都希望人工智能技術(shù)能夠?qū)崿F(xiàn)公平,具備倫理道德,但這種希望都是虛無縹緲的。
如何應(yīng)對工作替代?
此外,人工智能普及也會對人類自己的本職工作產(chǎn)生根本影響。人工智能能夠讓機器人從事更加復(fù)雜的工作,從而取代更多的人類勞動者。譬如蘋果和三星手機代工廠商去年就宣布,將使用機器人代替6萬名工人,這在當時引起了軒然大波,惹得人人自危。無獨有偶,福特的德國科隆工廠也讓機器和人在一起工作。機器人的廣泛使用會導(dǎo)致人類對人工智能技術(shù)會產(chǎn)生過分依賴性。
例如現(xiàn)在很多醫(yī)療機構(gòu)已經(jīng)在診斷和手術(shù)中引入更多的機器人,特別是機器人在疑難手術(shù)中能夠表現(xiàn)出更精湛的醫(yī)術(shù),這就可能使經(jīng)由歷史積累的醫(yī)學技能和知識裹足不前,進而使社會變得更為脆弱。而據(jù)麥肯錫的全球研究報告,到2025年,30%的公司審計工作將由人工智能完成。人工智能將取代許多人的工作,其中也包括醫(yī)師、財務(wù)經(jīng)理以及公司高管等收入較高的中產(chǎn)職業(yè)。
在很多工廠,人類已經(jīng)開始和機器一道工作——有人認為這種被取代感會對工人精神產(chǎn)生影響。
此外,自動化程度的加大不僅影響到人類就業(yè),也會對人類心理健康產(chǎn)生連鎖反應(yīng)。生化倫理學家、奧巴馬前醫(yī)療顧問伊澤克爾·伊曼紐爾(Ezekiel Emanuel)指出,“如果說什么能賦予人們生活的意義,主要有三個方面:有意義的關(guān)系,熱情高漲的興趣以及有意義的工作。其中有意義的工作是一個人建立身份認同的重要因素。”而失業(yè)率高的地區(qū),民眾自殺、濫用藥物以及罹患抑郁癥的風險也會成倍增加。
如果有效進行監(jiān)督?
人工智能的迅猛發(fā)展勢必會產(chǎn)生各類社會問題。很多行業(yè)內(nèi)人士已經(jīng)意識到,相關(guān)問題的出現(xiàn)會導(dǎo)致對人工智能倫理方面的需求越來越多。麻省理工學院技術(shù)部專門從事法律道德的專家凱特·達林(Kate Darling)指出,“公司肯定會遵循市場規(guī)律,這并不是壞事。但我們不能為了市場利益而放棄道德。”
達林指出,諸如谷歌等大公司已經(jīng)成立了道德委員會,專門監(jiān)督人工智能系統(tǒng)的開發(fā)和部署。這源于三年前,當時谷歌以6.5億美元的價格收購了英國的人工智能創(chuàng)業(yè)公司DeepMind。DeepMind創(chuàng)始人提出的交易條件之一就是谷歌要成立一個人工智能道德委員會。這似乎標志著負責任的人工智能研發(fā)新時代正在到來。但事實上,谷歌對于道德委員會成員組成諱莫至深,實際上該委員會發(fā)揮的作用也相當有限。
同樣,去年9月份,F(xiàn)acebook、谷歌以及亞馬遜還成立了一個聯(lián)盟,旨在開發(fā)解決人工智能相關(guān)的安全隱私問題。該聯(lián)盟近日還宣布蘋果也將加入其中。此外,OpenAI還致力于推動人工智能開源,從而讓利益為全社會所共享。谷歌研究主管Norvig認為,“機器學習必須要公開,我們所有人只有通過開源代碼才能夠普遍受益。”