贊助本站
研究人員表示,有關(guān)社會、倫理和政治方面的擔(dān)憂正在加劇,人工智能急需更多監(jiān)督??萍夹袠I(yè)的專家警告稱,人工智能(AI)的新興領(lǐng)域可能會引發(fā)公眾的強烈反對,因為它逐漸落入私營企業(yè)之手,威脅到人們的工作,并在沒有有效監(jiān)管或監(jiān)管控制的情況下運行。
在有關(guān)人工智能的新系列報道中,行業(yè)內(nèi)專家們強調(diào)了這項技術(shù)的巨大潛力,該技術(shù)已加快科學(xué)和醫(yī)學(xué)研究的步伐,還使城市運行更加順暢,提高企業(yè)效率。
盡管人工智能革命前途似錦,但在缺乏監(jiān)管機構(gòu)、立法機構(gòu)和政府監(jiān)管的情況下,人們對該技術(shù)的發(fā)展有著越來越多的社會、倫理和政治方面的擔(dān)憂。研究人員告訴《衛(wèi)報》:
人們的強烈抵制可能會減少人工智能帶來的好處。
人才流失到私營企業(yè)不利于高校發(fā)展。
專業(yè)知識和財富集中在少數(shù)幾家公司手中。
這個領(lǐng)域存在著巨大的多樣性問題。
今年10月,南安普敦大學(xué)計算機科學(xué)教授溫迪·霍爾爵士聯(lián)合主持了一份有關(guān)英國人工智能行業(yè)的獨立評估報告。報告發(fā)現(xiàn),人工智能有可能在2035年之前為經(jīng)濟增收6300億英鎊。但她說,要想獲得回報,這項技術(shù)必須造福社會。
她說,“人工智能將影響我們基礎(chǔ)設(shè)施的方方面面,我們必須確保它有利于我們,必須考慮得面面俱到。當(dāng)機器可以為自己學(xué)習(xí)和做事時,我們?nèi)祟惿鐣媾R的危險又是什么?這很重要,能夠理解這些問題的國家將成為下一次工業(yè)革命的贏家。”
如今,開發(fā)安全、合乎倫理的人工智能的責(zé)任幾乎完全落在了建造它們的公司身上。然而目前并沒有測試標(biāo)準(zhǔn),也沒有任何組織能夠監(jiān)控和調(diào)查任何人工智能作出的不好決定或發(fā)生的事故。
紐約大學(xué)當(dāng)代人工智能研究所的聯(lián)席主任凱特·克勞福德說:“我們需要有強大的獨立機構(gòu),以及專門的專家和知識淵博的研究人員,他們可以充當(dāng)監(jiān)督者,讓大公司對高標(biāo)準(zhǔn)負責(zé)。這些系統(tǒng)正在成為新的基礎(chǔ)設(shè)施,重要的是,它們既要安全又能保證公平。”
許多現(xiàn)代的人工智能都是通過在海量數(shù)據(jù)集中經(jīng)過訓(xùn)練后再做出決策。但是,如果數(shù)據(jù)本身包含了偏見,那么這些數(shù)據(jù)會被人工智能繼承和不斷重復(fù)。
今年早些時候,一個用來解析語言的人工智能被發(fā)現(xiàn)顯示了性別和種族偏見。另一個則是用于圖像識別的人工智能,它將廚師歸類為女性,即使是在給禿頂男人拍照時也是如此。許多其他機構(gòu),包括在警務(wù)和囚犯風(fēng)險評估中使用的工具,已被證實有歧視黑人的傾向。
該行業(yè)存在嚴重的多樣性問題,部分原因歸結(jié)于人工智能歧視女性和少數(shù)族裔。在谷歌和臉書(Facebook)公司,五分之四的技術(shù)員工是男性。白人男性在人工智能領(lǐng)域占據(jù)主導(dǎo)地位,開發(fā)出了只針對男性身體的健康應(yīng)用,將黑人稱為大猩猩的照片服務(wù),以及無法識別女性聲音的語音識別系統(tǒng)。霍爾說:“軟件應(yīng)該由多元化的員工來設(shè)計,而不是普通的白人男性,因為我們不論男女老少、種族背景,都會成為用戶。”
測試不佳或出現(xiàn)使用故障的人工智能也同樣令人擔(dān)憂。去年,當(dāng)特斯拉一款Model S的自動駕駛汽車的自動駕駛系統(tǒng)由于沒能看到一輛卡車穿過高速公路時,導(dǎo)致了車內(nèi)的美國司機死亡。美國國家運輸安全委員會對特斯拉這起致命車禍進行了調(diào)查,批評特斯拉發(fā)布了一套缺乏足夠防護措施的自動駕駛系統(tǒng)。該公司的首席執(zhí)行官埃倫·馬斯克是對人工智能安全與監(jiān)管最為積極的倡導(dǎo)者之一。
然而,隨著社交媒體在英國脫歐公投和2016年美國大選的準(zhǔn)備階段的使用出現(xiàn)了嚴重的問題,使用人工智能系統(tǒng)來操縱民眾引發(fā)了越來越多的擔(dān)憂。新南威爾士大學(xué)人工智能教授托比·沃爾什說:“一場技術(shù)軍備競賽正在進行,就看誰能影響選民”。他最近寫了一本關(guān)于人工智能的書,名為《機器人的夢想》。