“我們制定了一些規(guī)則,限制了影響人們以特定的方式進(jìn)行投票的可花費(fèi)的數(shù)量。我覺(jué)得我們會(huì)有新的限制規(guī)則,限制你可以利用多少技術(shù)來(lái)影響人們。”
即便是在規(guī)模較小的情況下,操縱行為也會(huì)造成問(wèn)題。馬克·沃爾伯特說(shuō):“從某種程度上來(lái)說(shuō),我們的日常生活被人工智能解決方案所操縱”。他是前政府首席科學(xué)家,現(xiàn)在領(lǐng)導(dǎo)著英國(guó)新的超級(jí)研究委員會(huì)——英國(guó)研究和創(chuàng)新委員會(huì)(UK Research and Innovation)。“在某種程度上,如果組織的行為讓大量公眾感到不安,它可能會(huì)引發(fā)人們的強(qiáng)烈反對(duì)。”
主要的人工智能研究人員向英國(guó)上議院人工智能委員會(huì)表達(dá)了類似的擔(dān)憂,該委員會(huì)正在對(duì)人工智能的經(jīng)濟(jì)、倫理和社會(huì)影響進(jìn)行調(diào)查。作為人工智能研究的主要大學(xué)之一,倫敦帝國(guó)理工學(xué)院提交的證據(jù)警告說(shuō),對(duì)該技術(shù)的監(jiān)管不足“可能會(huì)引起社會(huì)的強(qiáng)烈反響,如果發(fā)生嚴(yán)重的事故或過(guò)程失控,可能會(huì)出現(xiàn)類似于反轉(zhuǎn)基因食品的狀況”。
倫敦大學(xué)學(xué)院的科學(xué)家們也對(duì)可能出現(xiàn)類似于之前強(qiáng)烈抵制反轉(zhuǎn)基因食物的狀況表示擔(dān)憂,他們?cè)趯?shí)證中對(duì)同行們說(shuō):“如果大量人工智能的案例發(fā)展得很糟糕,可能會(huì)引起公眾的強(qiáng)烈反對(duì),就像曾發(fā)生的轉(zhuǎn)基因生物事件那樣。”
但科學(xué)家告訴《衛(wèi)報(bào)》,對(duì)社會(huì)影響最大的可能是人工智能。英國(guó)央行首席經(jīng)濟(jì)學(xué)家警告稱,到2035年,英國(guó)將有15個(gè)工作崗位實(shí)現(xiàn)自動(dòng)化,這意味著英國(guó)政府需要進(jìn)行大規(guī)模的員工再培訓(xùn),以避免失業(yè)率大幅上升。根據(jù)帝國(guó)理工學(xué)院的情感和行為計(jì)算教授瑪雅·潘蒂奇的說(shuō)法,短期的破壞可能會(huì)引發(fā)社會(huì)動(dòng)蕩,也可能會(huì)讓人工智能利益所引發(fā)的不平等現(xiàn)象蔓延至少數(shù)跨國(guó)公司。
美國(guó)人工智能協(xié)會(huì)主席蘇巴拉奧·卡姆巴哈帕蒂表示,盡管技術(shù)經(jīng)常造福社會(huì),但它并非總是公平公正地讓全社會(huì)共享福利。他說(shuō):“最近的技術(shù)進(jìn)步導(dǎo)致財(cái)富的集中程度大大提高。我當(dāng)然關(guān)心人工智能技術(shù)對(duì)財(cái)富集中度、不平等現(xiàn)象,以及如何讓福利覆蓋面范圍更廣帶來(lái)的影響。”
工業(yè)領(lǐng)域人工智能研究的激增,推動(dòng)了對(duì)有資質(zhì)的科學(xué)家的巨大需求。在英國(guó)的大學(xué)里,博士和博士后都被科技公司吸引,他們提供的薪水是學(xué)術(shù)界的兩到五倍。盡管一些高??蒲袡C(jī)構(gòu)正著手應(yīng)對(duì)科技公司招聘熱潮,但有些機(jī)構(gòu)卻無(wú)動(dòng)于衷。在需求最為強(qiáng)烈的部門,資深學(xué)者擔(dān)心,他們將失去一代人才,能以傳統(tǒng)方式推動(dòng)研究和教育未來(lái)的學(xué)生的人才。
根據(jù)潘蒂奇的說(shuō)法,學(xué)術(shù)界最優(yōu)秀的人才正被四大人工智能公司,即蘋果、亞馬遜、谷歌和Facebook所吸引。她說(shuō),這種情況可能導(dǎo)致90%的創(chuàng)新為這些公司所有,因此權(quán)力的天平將從國(guó)家轉(zhuǎn)移到少數(shù)跨國(guó)公司。
沃爾伯特負(fù)責(zé)監(jiān)督幾乎所有英國(guó)科學(xué)研究的公共資金,他對(duì)于控制人工智能會(huì)阻礙研究這一看法持謹(jǐn)慎態(tài)度。相反,他認(rèn)為,人工智能工具一旦投入使用,就應(yīng)該仔細(xì)監(jiān)控,以便及早發(fā)現(xiàn)問(wèn)題。
他說(shuō):“如果你不持續(xù)監(jiān)測(cè),你就有可能在人工智能發(fā)生故障時(shí)有漏掉某些信息的可能。在新的世界里,我們當(dāng)然應(yīng)該努力進(jìn)行持續(xù)的實(shí)時(shí)監(jiān)控,這樣人們就能及時(shí)知道是否有任何事與愿違或出乎意料的事情將要發(fā)生。”
根據(jù)愛(ài)丁堡大學(xué)計(jì)算機(jī)視覺(jué)教授羅伯特·費(fèi)舍爾的說(shuō)法,:“理論上,公司應(yīng)該承擔(dān)責(zé)任,但現(xiàn)在處在一個(gè)灰色地帶,他們可以說(shuō)自己的產(chǎn)品運(yùn)作正常,是云端出現(xiàn)錯(cuò)誤,或者是電信供應(yīng)商的問(wèn)題,反正他們都不會(huì)同意自己要對(duì)此負(fù)責(zé)。顯然這是一個(gè)全新的領(lǐng)域。人工智能讓我們可以利用自己的智力,所以我們會(huì)嘗試去做一些更有野心的事情。而這也意味著我們可能會(huì)面臨更大范圍的災(zāi)難。”