蔣濤:人工智能我覺得在短期內(nèi),可能沒有我們預(yù)言的那么厲害。
說兩個(gè)問題:第一,短期內(nèi)會(huì)被取代的不是程序員,而是原來基于算法進(jìn)行的決策,用的是老一代的機(jī)器學(xué)習(xí)和人工智能方法,它們都將被新一代的人工智能算法所取代,這是深度學(xué)習(xí)帶來的一個(gè)巨大突破。
所以,算法工程師要面臨技術(shù)更新?lián)Q代,而程序是基于邏輯、基于對(duì)問題的描述,在自然語言理解還沒有突破的時(shí)候,需要描述一個(gè)需求才能寫程序和代碼,在這還沒有被突破的時(shí)候,是很難做到自動(dòng)編程的。
第二,所謂取代藝術(shù),藝術(shù)其實(shí)也是可以被量化的。這次深度學(xué)習(xí)一個(gè)重大的突破,就是把人類的經(jīng)驗(yàn)給抽象出來了。經(jīng)驗(yàn)是過去的數(shù)據(jù)、判斷積累下來的。
圍棋是很難被量化的,因?yàn)樗婕暗降囊蛩靥珡?fù)雜,而現(xiàn)在的深度學(xué)習(xí)技術(shù),不需要學(xué)習(xí)人類總結(jié)圍棋的道理,就可以基于過去的結(jié)果做出自己的判斷。
比如看一幅畫,老師和藝術(shù)家會(huì)對(duì)畫的好壞做出判斷。這些判斷,看起來是感性的,但實(shí)際上也是基于數(shù)據(jù)和結(jié)果可以把它抽象的。
人工智能未來是否會(huì)統(tǒng)治人類?
栗浩洋:現(xiàn)在有兩派觀點(diǎn):一派觀點(diǎn)是霍金的人工智能威脅論,比爾蓋茨和馬斯克都支持,他們認(rèn)為人工智能未來可能會(huì)統(tǒng)治人類,甚至是毀滅人類。但是另一派卻不認(rèn)同這種觀點(diǎn),他們以扎克伯格為代表的,說這些人工智能威脅論的判斷都是沒有根據(jù)的,甚至說是發(fā)神經(jīng)。你們認(rèn)為是怎樣的?你們支持哪一派?
戴賽鷹:我認(rèn)為一定要從時(shí)間的跨度來考慮這個(gè)問題。
從短期來看,我認(rèn)為強(qiáng)人工智能還不能實(shí)現(xiàn),當(dāng)非精度學(xué)習(xí)沒有方法論突破的時(shí)候,深度學(xué)習(xí)實(shí)際上不能產(chǎn)生強(qiáng)人工智能,所以三五年之內(nèi),我們可以放心地去享受人工智能帶來的好處。
在中期,人工智能會(huì)帶來很多和會(huì)問題,比如失業(yè)。我覺得在10年-20年中,50%-60%的工作是一定會(huì)被替代的,而且會(huì)帶來貧富差距,很多人的機(jī)會(huì)會(huì)被機(jī)器剝奪。
還有一種可能是,機(jī)器會(huì)操縱人的思維。通過大數(shù)據(jù)抓取到人的很多東西之后,最終普通人都有可能被操縱。
從50年以上的時(shí)間去看,我覺得很危險(xiǎn),強(qiáng)人工智能只要出現(xiàn),機(jī)器人就真的有可能把人類干掉,這個(gè)真的是倫理問題。
蔣濤:我不太同意,技術(shù)上智能的發(fā)展三五年內(nèi)絕對(duì)不可能統(tǒng)治人類,50年也懸。
有兩個(gè)問題:第一,人的智能跟人工智能還是有很大差異的。而且,人類對(duì)這個(gè)世界、對(duì)自身的認(rèn)知,是很少的,我們還有很多奧妙沒有被科學(xué)和計(jì)算機(jī)認(rèn)知。第二,可怕的不是機(jī)器控制我們,而是人類用自造的機(jī)器去毀滅人類。就像造出一個(gè)核彈可以毀滅世界,未來可能造出一個(gè)商業(yè)怪物,它可以控制整個(gè)人類的經(jīng)濟(jì)。
唐文斌:我覺得這個(gè)問題其實(shí)挺簡(jiǎn)單的,在座的所有人大家相不相信有上帝的存在?如果你不相信的話,人實(shí)際上只是一堆細(xì)胞,在一定規(guī)則情況下,產(chǎn)生的一個(gè)物理體而已。在這種情況下,為什么不能造出一個(gè)機(jī)器,完全模擬人的場(chǎng)景呢?所以,一定是可以的。
會(huì)不會(huì)有真正所謂的人工智能,創(chuàng)造出一個(gè)能夠自我學(xué)習(xí)的類生命體呢?從終局的情況下,我認(rèn)為一定信,但我們需要在這個(gè)基礎(chǔ)架構(gòu)上能夠設(shè)計(jì)一些好的方式,讓AI能夠變成一個(gè)好人,而不是一個(gè)壞人。
趙偉:AI是我們潛意識(shí)一直想要發(fā)展的。人的行為、思維模式、信念,跟他的價(jià)值觀,一直到心理,會(huì)自我組建這樣的構(gòu)架。
人工智能被人產(chǎn)生出來以后,它剛開始是行為主導(dǎo)的,比如設(shè)置的目標(biāo)是讓這個(gè)人工智能擊敗其它人工智能。但是,如果出現(xiàn)一種人工智能,它被設(shè)計(jì)的行為目標(biāo)就是擊敗所有其它人工智能,獲得其它人工智能的計(jì)算資源的話,它的思維方式就是攻擊性的,它的價(jià)值觀中,戰(zhàn)勝別人獲取資源是第一位的,最后導(dǎo)致產(chǎn)生的心理可能是毀滅性的,這是由行為主導(dǎo)的。跟人類從心理的缺陷發(fā)展到行為缺陷不一樣。