海伊: 您提到了DeepMind部門,在此前AlphaGo和李世石的圍棋對戰(zhàn)中被廣泛討論。您覺得這場對決的重要性在哪里?標(biāo)志了現(xiàn)有的科研成果?吸引更多的人從事人工智能研究或者開設(shè)公司?能談?wù)勀鷮@個問題的看法嗎?
辛頓: AlphaGo很有意思的事情是,它擁有一種普通計算機(jī)所沒有的東西,那就是直覺:觀察棋盤,然后選擇一個正確的地方落子。為什么選擇這里?因為感覺這里對。這是神經(jīng)系統(tǒng)和之前的以邏輯運(yùn)算為基礎(chǔ)的人工智能的不同之處,之前的人工智能都太理性了。事實上,我們現(xiàn)在要做的是,逐步的將神經(jīng)網(wǎng)絡(luò)覆蓋到以前邏輯運(yùn)算AI的應(yīng)用范圍中去,因為我們現(xiàn)在已經(jīng)擁有了有直覺的計算機(jī)。
人工智能隱患的真正所在
海伊: 太棒了!很多投資人的投資引發(fā)了人們對人工智能的安全問題的擔(dān)憂。人們想要確認(rèn)隨著這一領(lǐng)域的發(fā)展,人工智能帶來的隱患是否可以控制。您對于人工智能為我們帶來的機(jī)遇和同時產(chǎn)生的隱患怎么看?
辛頓:我來拿挖掘機(jī)來做一個比喻,挖掘機(jī)在路上挖洞的速率遠(yuǎn)比人工挖洞要快,與此同時,挖掘機(jī)也可以敲爆你的頭。很顯然,當(dāng)人們設(shè)計挖掘機(jī)的時候就已經(jīng)考慮到如何能夠控制它,不致于敲爆路人的頭。我覺得這在計算機(jī)領(lǐng)域也都是一樣的。我們在研發(fā)人工智能的時候會考慮到什么情況會發(fā)生意外,把所有會被居心叵測之人利用或者被誤用的可能性都考慮到。
很顯然所有的高科技都有可能被誤用,然而會不會被誤用,這取決于政策法規(guī)的限制。其實你害怕的是政客用人工智能作為武器,所以我覺得這不是科技本身的問題。無論如何人工智能行業(yè)都會繼續(xù)發(fā)展,會不會被用在對人類有利的地方,這取決于政策。就像自動應(yīng)答機(jī)一樣,當(dāng)時自動應(yīng)答機(jī)出現(xiàn)的時候,很多銀行的員工因此丟了工作,他們當(dāng)時肯定有怨言。但是現(xiàn)在再回頭看這件事,沒有人會說:“我們不該啟用自動應(yīng)答機(jī)。”因為它的出現(xiàn)更方便,而且替代了簡單的重復(fù)工作。當(dāng)時被替換掉的很多人也都找到了更有意思的工作。我覺得這和現(xiàn)在的情況是一樣的。
登陸|注冊歡迎登陸本站,認(rèn)識更多朋友,獲得更多精彩內(nèi)容推薦!