技術(shù)變革可能導(dǎo)致特定工作技能更快地消失,人們更換工作的頻率可能會更高。這需要個人在整個職業(yè)生涯中不斷對自己進(jìn)行再培訓(xùn),積極主動、樂于改變并具備職業(yè)彈性。這也意味著,跨領(lǐng)域的“通用”技能(如解決問題和思維靈活性)的價值性將越來越高。
政府的作用是促進(jìn)新技能的開發(fā),讓工人接受再培訓(xùn),以便他們在各自工作中使用人工智能,或轉(zhuǎn)向注重人際交往能力(如共情和創(chuàng)造力)的工作領(lǐng)域。
新的挑戰(zhàn)
重要的是要認(rèn)識到,除了人工智能提供的巨大利益之外,還存在與一些與其用途相關(guān)的潛在倫理問題。許多專家認(rèn)為,政府在管理和減輕可能出現(xiàn)的任何風(fēng)險方面都可以發(fā)揮作用。任何工作都需要考慮兩個廣泛的領(lǐng)域:
了解機器學(xué)習(xí)方法與創(chuàng)建日益增加的個人數(shù)據(jù)的結(jié)合,可能對個人自由以及隱私和同意(consent)等概念產(chǎn)生的影響
適應(yīng)由人工智能進(jìn)行決策的問責(zé)概念和機制
統(tǒng)計分析使用過去的數(shù)據(jù)預(yù)測不同群體可能的行動或質(zhì)量,這種方法廣泛應(yīng)用于公共和私營部門。對于保險公司,統(tǒng)計分析能更好地評估風(fēng)險。對于商家,統(tǒng)計分析能更好地定位用戶。對于執(zhí)法,統(tǒng)計分析能更準(zhǔn)確地評估威脅。
基于種族、生活方式或居住地的分析所產(chǎn)生的風(fēng)險是對個人持有成見,不過這種風(fēng)險可以予以規(guī)避。在英國公共行業(yè)使用這些技術(shù)的組織往往避免使用種族、國籍或地址作為標(biāo)準(zhǔn),避免遭受不公平歧視的指控。“無罪推定”原則對上述推測方法的應(yīng)用提供指導(dǎo),該預(yù)測方法通常用于將警務(wù)資源分派到那些提前干預(yù)對目標(biāo)個人有好處(而非做表面工作)的街區(qū)。當(dāng)然,其他執(zhí)法機構(gòu)需要具備準(zhǔn)確確定個人目標(biāo)的能力,以避免被成見想法誤導(dǎo),從而更好地利用警務(wù)資源。
人工智能技術(shù)還有可能從公用數(shù)據(jù)中推導(dǎo)出某類私人信息,如個人或和個人有關(guān)的其他人員(如朋友、親戚或同事)的在線行為。該信息可能超出個人起初同意披露的范圍。
信息委員會的匿名行為條例,就相關(guān)部門管理此類風(fēng)險并防止從綜合匿名數(shù)據(jù)中重新識別個人的方法,作出明確規(guī)定。然而,隨著公共數(shù)據(jù)量不斷增加,以及更為強大人工智能技術(shù)逐漸得到開發(fā),之前可能性極小的個人重新識別將變?yōu)椴豢杀苊?,因此各組織部門需要定期重復(fù)檢視其防護(hù)措施情況。
算法偏差可能導(dǎo)致偏見的風(fēng)險。該偏差主要來源于深度學(xué)習(xí)系統(tǒng)的訓(xùn)練數(shù)據(jù),比如某所大學(xué)利用機器學(xué)習(xí)算法來評估入學(xué)申請。用于訓(xùn)練算法的歷史入學(xué)數(shù)據(jù)(有意或無意)反映出提前錄取過程的某些偏差。偏差會以這種方式在社會中永久存在,造成不公平現(xiàn)象的惡性循環(huán)。為消除該風(fēng)險,技術(shù)人員應(yīng)該確定其數(shù)據(jù)中的偏差,并采取措施評估這種偏差的影響。上述問題當(dāng)前成為英國甚至全球各大學(xué)計算機科學(xué)系、政策智庫和報社爭論的主題。爭論的焦點是治理問題以及社會實際應(yīng)對方式。
許多專家和評論家建議,確保問責(zé)的透明度是必要的:明確使用了哪些算法、哪些參數(shù)、哪些數(shù)據(jù)實現(xiàn)了什么目的將是必要的,這樣才能確定人工智能技術(shù)是否被負(fù)責(zé)任地使用。
有時,還需要平衡安全或商業(yè)重點與透明愿望之間的關(guān)系:更簡單地說,弄清算法參數(shù)可以看出個人和企業(yè)鉆系統(tǒng)漏洞,更改其應(yīng)對行為的情況。根本的問題是,透明不會為人提供所要尋求的證據(jù):僅僅提供靜態(tài)代碼不能保證該代碼實際運用于特定決策,也不能保證該代碼行為方式和程序員在給定數(shù)據(jù)集中所預(yù)期的一致。
計算機科學(xué)家和政策專家目前正在開發(fā)技術(shù)解決方案,解決上述算法責(zé)任問題。未來將有可能證明“程序規(guī)范性”或給定算法應(yīng)用的一致性。另一種方法是利用機器學(xué)習(xí)技術(shù),找出算法應(yīng)用中非一致性或異常結(jié)果。
人為判定人工智能評估方法是否成功重點在于,用數(shù)據(jù)檢驗算法所獲得的信息量大于對算法的單獨關(guān)注,而通過人與系統(tǒng)的互動對算法和數(shù)據(jù)進(jìn)行研究所獲得的信息量則更大,因為人的行為會生成更多數(shù)據(jù)和反潰分析人員在評估其所編寫的算法的潛在影響時,使用的工具在應(yīng)對現(xiàn)實情況方面應(yīng)當(dāng)具有一定的敏感性。開發(fā)人員在鑒別風(fēng)險時需要考慮到整個社會的應(yīng)用情況。