【雷·科茲威爾】:美國和世界其他地方在政治上的兩極分化是不幸的。我不認為這是我們今天談論的話題。我的意思是,我們在世界上經歷過重大的波折。第二次世界大戰(zhàn)是一個相當大的波折,實際上并沒有影響到這些趨勢。在某些政府官員或政府中,可能有些事情是我們不喜歡的。但這里有一點需要討論。我們并不是在無法表達自己的觀點的極權主義的時代。如果我們朝那個方向發(fā)展,我會更擔心,但我不認為會發(fā)生這種情況。所以,不要貶低政府和當權者的重要性,但這是在一個不同的層面上。我們談論的這些問題并沒有受到這些事情的影響。我擔心的是存在的風險,因為技術是一把雙刃劍。
觀眾提問:我的問題與不平等有關。在人類歷史的大部分時期,經濟不平等程度相當高,這其中有很多階段。我想知道,你是否認為20世紀是一種反?,F(xiàn)象,以及科技的擴散將如何影響這種不平等。
【雷·科茲威爾】:經濟平等問題正在朝好的方向發(fā)展。根據世界銀行的數據,在過去的20年里,亞洲的貧困人口減少了90%以上,從原始的農業(yè)經濟發(fā)展到繁榮的信息經濟。非洲和南美的經濟增長率遠高于發(fā)達國家。你看到的任何地方,都存在著不平等現(xiàn)象,但事情正在朝著正確的方向快速發(fā)展。在過去的20年里,全世界的貧困人口減少了50%。還有很多其他的衡量標準。所以我們正朝著正確的方向前進。在任何一個時間點上,都存在嚴重的不平等,都有人正經歷苦難,但這些現(xiàn)象正朝著好的方向發(fā)展。
觀眾提問:我從你的評論中得知你正在預測人工智能離下一階段還有12年,你已經提到過幾次,盡管你很樂觀,但你擔心的是存在風險,所以我想知道你是否可以詳細說明一下你的意思,你認為技術專家應該做什么來降低這些風險?
【雷·科茲威爾】:我的意思是,存在的風險是威脅我們文明生存的風險。因此,人類面臨的第一個生存風險是核擴散。我們已經有能力摧毀所有人類的生命。有了這些新技術,我們不難想到,它們可能具有極大的破壞性,并摧毀全人類。例如,生物技術。我們有能力從疾病中重新規(guī)劃生物學,比如免疫療法,這是治療癌癥的一個非常令人興奮的突破,我認為這非常具有革命性,不過它只是剛剛開始。它正在重新編程免疫系統(tǒng)去治療癌癥,而通常情況下不可能做到。但是,生物恐怖分子可以對一種病毒進行重新編程,使其更加致命,更具傳染性,更加隱秘,從而制造出一種超級武器。這就是40年前第一次阿西洛瑪會議所引發(fā)的難題。這些反復出現(xiàn)的會議讓這些倫理準則、安全協(xié)議和策略變得更加復雜,到目前為止,它已經起作用了。但我們一直在讓這項技術變得更加復雜,所以我們必須一次又一次地重新制定這些準則。我們剛剛舉行了第一次關于人工智能倫理的會議。我們提出了一套道德規(guī)范,并且都已署名通過。其中很多都是模糊的。我認為這是一個非常重要的問題。我們發(fā)現(xiàn)我們必須在軟件中建立倫理價值觀。一個典型的例子就是無人駕駛汽車。自動駕駛汽車的全部動機是,在200萬名人類司機中,避免99%的司機的死亡,但它將陷入一種境地,必須做出道德決策:它應該朝著嬰兒車或向老年夫婦行駛,還是向墻壁行駛,而這可能導致乘客死亡。無人駕駛車是否有道德準則,不導致車內乘客的死亡?在這種情況下,無人駕駛車不能給軟件設計師發(fā)送電子郵件,然后說,“天哪,我該怎么辦?”道德準則必須內置在軟件中。所以這些都是實際問題,在這個問題上,人工智能有一個完整的領域。
但我們該如何應對更為實際存在的風險:短期內就能實現(xiàn)的人工智能武器化。世界各地的國防部都在使用人工智能。當時有一份文件要求人們同意禁止使用自動武器,這聽起來是個好主意,而使用的例子是“我們禁止化學武器,所以為什么不使用自主的人工智能武器呢?”這有點復雜,因為我們可以不用炭疽,也不用天花。禁止化學武器是可以的。但自動武器是一種兩用技術。能將你的冷凍華夫餅或藥品送到非洲一家醫(yī)院的亞馬遜無人機,可能用于運輸一種武器。這是同樣的技術,一切已蓄勢待發(fā)。也就是說,這是一個更復雜的問題,如何處理。但我們的目標是收獲承諾并控制風險。沒有簡單的算法,我們可以把這個子程序放入我們的人工智能中,“好吧,把這個子程序放進去。”它會讓你的人工智能保持良性。”智力天生就是無法控制的。我的策略并不愚蠢,它是在我們自己的人類社會中實踐我們希望在世界上看到的道德、道德和價值觀。因為未來的社會并不是某些來自火星的智能機器的入侵。它誕生于我們今天的文明。這將會增強我們的自我。因此,如果我們正在實踐我們今天所珍視的價值觀,那就是在未來擁有一個包含這些價值觀的世界的最佳策略。