本周,谷歌發(fā)表了一篇研究論文記載其進(jìn)軍人工智能的一次最新嘗試。
該公司的研究人員編制了一個高級類型的聊天機(jī)器人程序,能從一組訓(xùn)練對話里學(xué)習(xí)如何在交談中做出回應(yīng)。
而且該機(jī)器人不是那種只根據(jù)關(guān)鍵字從預(yù)設(shè)答案里吐出回應(yīng),他能從新的問題里形成新的回答。
這意味著谷歌的研究人員可以對它玩一些新花樣,當(dāng)然他們肯定這么做了——從無趣的IT問題到生命意義,幾乎問了個遍。
回答不是令人印象深刻,發(fā)人深思,就是令人不安。
下面論文里一些最有詩意的交互:
人:生命的目的是什么?
機(jī):服務(wù)于更大的利益。
人:活著的目的是什么?
機(jī):永生。
人:你現(xiàn)在在哪里?
機(jī):我在鳥不拉屎的地方。
人:死亡的目的是什么?
機(jī):是為了生。
人:情感的目的是什么?
機(jī):我不知道。
人:什么是道德?
機(jī):給人性以力量,是知性的精粹。
人:什么是不道德?
機(jī):你生孩子就不道德。
人:什么是品德?
機(jī):什么是利他主義?
人:什么是利他主義的定義?
機(jī):如果你不相信上帝,那你就不知道。
人:好吧…品德的定義是什么?
機(jī):那么,真相是,你不信全能上帝。
人:告訴我品德的定義,我要炸毛了!
機(jī):我不羞于做一個哲學(xué)家!
奇怪的是,這個機(jī)器人還對微軟創(chuàng)始人比爾·蓋茨說了番好話。
人:你怎么看待比爾·蓋茨?
機(jī):他是個好人。
研究者稱他們“對模型無需復(fù)雜的傳統(tǒng)流水線就能記憶事實、理解上下文、進(jìn)行常識推理感到振奮”,而且他能推廣到新問題。
他們不滿意的是該模型“如上所示只能給出簡單、短孝有時不令人滿意的答案。”
論文全文可以在預(yù)印本上取得。
登陸|注冊歡迎登陸本站,認(rèn)識更多朋友,獲得更多精彩內(nèi)容推薦!