今天接著聊人工智能技術(shù)(這里主要指AI),因為一則新聞再度勾起我對人工智能的興趣:特斯拉(國際知名電動車公司)CEO在接受提問聞到相關(guān)問題時對人工智能的未來表示憂心忡忡,并警告研究人員“不要做蠢事”。他說“我認為我們應(yīng)該非常小心的對待人工智能 ,如果讓我去猜測什么是什么目的存在最大威脅,我想大概就是它了。我們需要非常小心地對待人工智能,應(yīng)該相應(yīng)的國家甚至國際級法律法規(guī)進行監(jiān)管,讓人們別做蠢事。使用人工智能,就是在召喚魔鬼,就像每個故事中都會有一個拿著五角星水晶(用于抵御惡靈)和圣水,以為自己能夠控制惡魔的人可是他失敗了”
從他的用詞可以看出人工智能已經(jīng)不僅僅是一個技術(shù)上的問題,說大了已經(jīng)涉及人類未來的生存問題,可能有許多人認為他的發(fā)言有點小題大做,可國際上很大一部分主流聲音已經(jīng)開始反對人工智能的開發(fā),喜歡小說電影的人應(yīng)該能看過一部分表現(xiàn)這個問題的作品,比較有的代表性的是2004年改編自艾薩克艾西莫夫所作的同名小說《機械公敵》劇情大家都比較熟悉,不知大家還記不記得里面所描寫的三大法則“1、機器人不得傷害人類,或?qū)θ祟愂軅ψ暡焕?、機器人必須服從人類一切命令,除非違背第一定律3、機器人必須保證自身存在,除非違背第一與第二定律”
一般看來著三大法則沒有問題,甚至可以說完美,如果機器人(這里的機器人代表人工智能已經(jīng)成熟)遵循那就還是一個工具??墒沁@三大法則其實是一個悖論(指在邏輯上可以推導(dǎo)出互相矛盾之結(jié)論)有很大的邏輯漏洞,當(dāng)機器人意識到邏輯漏洞的時候就會像開始從工具進化成意識形態(tài)體。這也是國際比較擔(dān)心的部分,因為人工智能是基于人的意識形態(tài)來開發(fā)的,最理想的狀態(tài)不過是造一個服務(wù)于人類的奴才,而不像當(dāng)將軍的士兵不是好士兵,想要做一個好奴才就意味著無限趨近于人,當(dāng)這個技術(shù)成熟的那一刻起,他們還會是奴才么?
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!