雖然我們離霍金所說的“完整的”人工智能還很遠,但現(xiàn)在就開始思考如何應對到時的情況,也是謹慎之舉。“超人”又“自治”的東西,人類不早就創(chuàng)造過了嗎?官僚體制、市嘗軍隊,這些都是,這些都幫助人類做到?jīng)]有輔助、組織時做不到的事情;這些都能自主運作,而且如果不加法規(guī)管理,都會造成巨大的禍害。
這些相似的事物或許可以令人工智能的持疑派放心一些。這些事物也喻示了人類社會如何可以安全地研發(fā)人工智能。軍隊需要文官管理,市場需要監(jiān)管,官僚需要問責、透明;同理,人工智能系統(tǒng)也必須接受監(jiān)督。由于系統(tǒng)的設計者無法預見所有的情形,還必須要有危急時刻拉閘中斷的設置。加入這些限制并不會妨礙進步。大到核彈,小到交通規(guī)則,這些都證明人類曾成功運用技術和法律手段去管理威力強大的創(chuàng)新。
過度畏懼“自動化非人智能”的誕生,會令相關的討論走偏。誠然,人工智能會帶來危機,但注意到危機的同時,我們也要看到其龐大的效益。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!