科技訊12月14日消息,據(jù)國外媒體Techcruch報道,電氣和電子工程師協(xié)會(IEEE)今天發(fā)布了一份名為《道德化設計(Ethically Aligned Design)》的框架指導文件。該協(xié)會希望借助該文件幫助科技行業(yè)打造能夠造福人類的AI自動化系統(tǒng),改變道德倫理無需擔慮等想法。
這份文件涵蓋了一系列詳盡建議。這些建議來自100多位在學術界、科學界、政府和企業(yè)部門、AI領域、法律和道德、哲學和政策等領域的“思想領袖”。
要讓AI在設計上合乎道德標準,并能造福全人類,避免出現(xiàn)算法偏見等潛在問題,我們需克服的諸多障礙之一是,是在道德標準上,科技行業(yè)缺乏相應的道德標準,道德責任的界定也是一片空白。
近幾年來,AI自動化技術在越來越多的系統(tǒng)中得到應用,IEEE希望這份文件成為AI /AS技術人員的重要參考。該協(xié)會也希望在2017年3月6日之前獲得有關各方對該文件的反饋,屆時相關所有評價和反饋將予以公開。
這份篇幅長達136頁的文件由數(shù)個章節(jié)構成。首個章節(jié)闡述了一些基本原則,如確保AI要尊重人權、實現(xiàn)透明運作、對自動化決策予以說明、如何把相關的“人類規(guī)范或價值觀”融入到AI系統(tǒng)中、如何解決潛在的偏見、獲取信任等等。
另一個章節(jié)表示,應利用方法理論來指導倫理化研究和設計。該章節(jié)指出了一些問題:科技業(yè)缺乏道德規(guī)范和道德界定;目前技術類學位課程中并沒有教授道德規(guī)范;業(yè)界缺乏一個監(jiān)督算法操作的獨立審查機構;算法的編寫中并未應用“黑盒組件(black-box)”。
文件中提出了一點有助于克服科技業(yè)道德盲點的建議,即確保打造AI自動化技術的背后團隊應由“背景各異的跨學科人員”構成,這樣所有潛在的道德問題都能夠被覆蓋。
該協(xié)會建議,創(chuàng)立標準以“監(jiān)督智能和自主化技術的研發(fā)過程,以確保終端用戶不因這些技術成果而受到傷害。”
此外,還需創(chuàng)建“一個獨立的國際協(xié)調(diào)機構”,以監(jiān)督產(chǎn)品在發(fā)布時、使用期間以及與其他產(chǎn)品之間的相互影響是否符合道德標準。
IEEE寫道,“工程師必須識別和評估與黑盒軟件相關的道德風險,并在必要時實施風險緩解策略。”
“技術人員應能夠通過透明和可追蹤的標準來合理描述他們的算法或標準??紤]到AI /AS系統(tǒng)的本質(zhì),除了可預測性,我們還需實現(xiàn)可追溯性和補救性。”
“同航空領域的飛行數(shù)據(jù)記錄器類似,算法的可追溯性可讓人類了解到,什么樣的算法將產(chǎn)生什么樣的特定結果,或哪些可疑或危險的行為。”
這一方面,該文件得出的結論是,工程師應“從倫理關懷層面十分慎重地”部署黑盒軟件服務或組件。
文檔另一個章節(jié)的主題是人工智能的安全性和造福潛力。該章節(jié)警告,隨著AI系統(tǒng)“越來越無法預料,會產(chǎn)生更多意想不到的行為,因此這類系統(tǒng)變得越來越危險”。
“在自主化和AI系統(tǒng)的研發(fā)和部署上,研究人員和開發(fā)人員將面臨越來越復雜的問題。”
此外,該文件還指出AI系統(tǒng)固有的不對稱現(xiàn)象。由于向AI系統(tǒng)輸入的是個人數(shù)據(jù),因此AI技術帶來的利益也無法保證對等性。為了解決這種不對稱問題,最基本的要求是人們應對個人數(shù)據(jù)從各自獨特身份的角度進行定義、訪問和管理。
Facebook無法過濾假新聞等事件均屬于算法失敗的例子。這些事件備受關注,從而導致AI道德和責任歸屬的問題成為今年社會和政治的熱門議題之一。(子旸)
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!