我們有充分理由樂觀看待人工智能研究。為了遙遠未來可能發(fā)生的危險而遏制技術的發(fā)展是愚蠢的。在人工智能高度發(fā)展的未來,人類或許將面對一場“身份危機”:人類到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類的困擾。
1950年,阿蘭圖靈的一篇里程碑式的論文《機器能思考嗎?》為人類帶來了一個新學科—人工智能。為了證明機器是否能夠思考,他又發(fā)明了“圖靈測試”(Turing Test),圖靈測試在今天仍被沿用。
然而,目前為止人類唯一了解的智能是人本身的智能,如果讓機器也具有意識、思維、情感,這究竟是否可以做到,或者說真的達到這個目標后,會給人類帶來什么影響,依然是未知數(shù)。但,這并不妨礙科學家朝著人工智能的目標前進。
近幾年,科學界和產業(yè)界對它的興趣超越了以往。最近一年半來,谷歌收購了十幾家機器人公司,并正在開發(fā)人工智能的一個圖騰——無人駕駛汽車;去年,社交媒體臉譜成立了新的人工智能實驗室……數(shù)據(jù)顯示,2009年以來,人工智能吸引了超過170億美元的投資,僅去年就有20多億美元投向擁有類人工智能技術的322家公司。
在并行計算、數(shù)字化神經(jīng)網(wǎng)絡、云技術、大數(shù)據(jù)以及深度學習算法等技術的推動下,人工智能的形態(tài)正逐漸顯現(xiàn):它既不是擁有與人類相似意識的機器人,也不是奇點論(人工智能與人腦智慧兼容的時刻)者宣稱的超智能,而是應用在狹窄的專業(yè)領域,如醫(yī)學、教育、法律、太空等高度專一的“行家”。
隨著人工智能的發(fā)展,人類終有一天將被其取代的恐慌感也應運而生。美國奇點大學人工智能項目負責人尼爾·杰卡布斯坦早就說過:“要應對即將到來的人工智能革命,我們需要在數(shù)學素養(yǎng)、生態(tài)素養(yǎng)尤其是道德素養(yǎng)上不斷自我提升。”
科學的發(fā)展總是出乎我們的預料。在一項技術推廣前,審慎的評估和良好的風險控制是必要的,克隆技術、大數(shù)據(jù)、基因測序無不如此。杰卡布斯坦認為,假設人類成功構建了超級計算機,而它想的跟我們不一樣,我們就得加以控制,就像對待孩子一樣。
走在前沿的人和公司,已經(jīng)采取了一些行動阻止可能出現(xiàn)的混亂。谷歌在年初收購了以神經(jīng)系統(tǒng)科學為基礎的人工智能公司迪普曼德,隨后即成立了“人工智能安全倫理委員會”,以確保技術安全發(fā)展。
我們有充分理由樂觀看待人工智能研究。為了遙遠未來可能發(fā)生的危險而遏制技術的發(fā)展是愚蠢的。但在過去60年中,隨著人工智能每一次成功地“復制”只有人類才有的行為和能力,人類便不得不對人工智能進行重新定義,也不得不重新定義“人類”的含義。人工智能——這個除了人以外最像人的東西,其實是我們心理投射中一個再好不過的客體。
如今,人工智能對社會的影響正逐漸增大。未來隨著人工智能技術的發(fā)展,根除疾病和貧困將不再是遙不可及的夢想。有人說,人工智能可能“比核武器更加危險”。但核武器被開發(fā)近70年來,世界非但沒有毀滅,反而進入一個微妙的較和平時期。核能的和平利用,也在為人類的現(xiàn)代生活作出貢獻。
在人工智能高度發(fā)展的未來,人類或許將面對一場“身份危機”:人類到底是偉大還是渺小,自我存在的意義是什么……這或許將成為人類的困擾。
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內容推薦!