如果人工智能走上正軌,很多哲學家和高科技創(chuàng)業(yè)者都認為可能會出現(xiàn)超越人類控制的瘋狂行徑。在這篇報告中寫道:這種代理將會時刻處于人類的監(jiān)控下,而且在必要時候能夠通過按下大紅色按鈕來阻止危及人類或者環(huán)境的行為,并確保這個代理能夠在更安全的環(huán)境下發(fā)展。
如果人工智能走上正軌,很多哲學家和高科技創(chuàng)業(yè)者都認為可能會出現(xiàn)超越人類控制的瘋狂行徑。所以一些科研專家認為研發(fā)能夠“中斷”AI項目是非常重要的,并確保AI不能找到方式來阻止這個中斷。由Google DeepMind AI實驗室和牛津大學于2014年成立的科研機構在今天發(fā)布的報告(PDF)中提及正在創(chuàng)建能夠控制AI程序不會脫離人類控制,換言之就是能夠確保軟件處于審查中的“大紅色按鈕”。
在這篇報告中寫道:“這種代理將會時刻處于人類的監(jiān)控下,而且在必要時候能夠通過按下大紅色按鈕來阻止危及人類或者環(huán)境的行為,并確保這個代理能夠在更安全的環(huán)境下發(fā)展。”伴隨著越來越多的高科技公司涉足人工智能,AI領域的突破可能會以前所未有的速度前進,而在此基礎上很多組織和非盈利機構已經(jīng)研究確保AI具備積極的正面影響,而不會對人類造成難以控制的危險。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!