人工智能研究走在時尚最前沿,現(xiàn)在有那么多未來的賭注壓在人工智能上,它可能需要回顧一下,才能實現(xiàn)下一個重大突破,這是一個不錯的想法。不過,鑒于布萊克將深度網(wǎng)絡的成功描述為“整個人工智能領域的一個意外驚喜”(即該技術“已經(jīng)有了很好的效果”),很明顯,我們很難去預測人工智能的未來發(fā)展,并且不能用直覺預測。
隨著我們采訪的結束,最后我有一個想法,在經(jīng)過30多年的人工智能研究之后,布萊克能提出他自己對人類智力的定義嗎?“哦!采訪的最后一個問題,很難回答。”布萊克用笑聲來結束這個問答。
為什么深度學習那么像黑匣子?“我想這有點像實證研究。聯(lián)想實驗物理學和理論物理學,很多時候,我們在實驗物理學中找到一些新發(fā)現(xiàn),接著理論物理學就會花很多時間試圖弄明白到底發(fā)生了什么。但是第一次找到這個發(fā)現(xiàn)是在實驗觀察的時候。這或許有些出人意料。我認為深度網(wǎng)絡也是這樣的。整個領域,它的運作效果和它運作過程本身都令人驚訝。這都是實驗得到的發(fā)現(xiàn)。而實際的物體本身,如果你想知道的話,是相當復雜的。因為我們已經(jīng)知道深度網(wǎng)絡所有的這些層。處理輸入的過程,可能會變成十倍多。當你把數(shù)據(jù)通過所有這些層進行轉(zhuǎn)換時,你很難知道復合效應是什么,還要對所有這些操作序列進行數(shù)學運算。我覺得這有點像烹飪。”
在設計專用的硬件設備的問題上,布萊克說:“英特爾會建造整個處理器,同時他們還會為整個數(shù)據(jù)中心建造所需的設備,包括處理器和電子板,以及所有連接這些處理器的連接數(shù)據(jù)中心的線路。這種布線實際上不僅僅是連一根電線他們稱其為互聯(lián)。它本身就是一款智能電子產(chǎn)品。因此,英特爾已經(jīng)掌握了整個系統(tǒng)。在圖靈研究所,我們與英特爾合作。我們想問這個問題:如果你真的能自由設計數(shù)據(jù)中心的全部內(nèi)容,你怎么能建立對數(shù)據(jù)科學最好的數(shù)據(jù)中心?在很大程度上,這意味著對機器學習最好……支持機器學習的硬件肯定是關鍵。”
被問到自動駕駛汽車面臨什么挑戰(zhàn),布萊克說:“自動駕駛汽車面臨的一大挑戰(zhàn)是,它是建立在機器學習技術的基礎上的。我們可以說,這是相當可靠的。如果你讀過機器學習的論文,單一的技術通常是能達到99%正確。這對大多數(shù)機器學習技術來說是相當驚人的。但是99%的可靠性對于自動駕駛汽車這樣的安全關鍵技術來說還是遠遠不夠的。所以我認為最有趣的事情之一是,你如何結合技術使自動駕駛技術擁有非常高的可靠性,這是從總體來說,在輔助水平上,而不是單個算法的水平,當然這是自動駕駛系統(tǒng)中的必要需求。當然,安全是一個關鍵考慮因素。我們所做的所有工程和我們所做的研究都將圍繞安全原則而不是事后的安全考慮,或附加條件,它必須在一開始就考慮到。”
在倫理道德與人工智能工程的關系問題上,布萊克說:“這是人工智能領域在過去幾年中非常關注的一件事,而且有很多研究……在圖靈研究所,我們有一個很重要的道德項目,一方面我們有哲學和法律相關學科的顧問,思考算法的道德如何在實踐中發(fā)揮作用,然后我們也讓科學家們?nèi)ラ喿x這些信息,并問自己,如果我們想讓人工智能體現(xiàn)道德準則,我們該如何設計算法。所以我認為,自動駕駛涉及的一項重要道德原則,很可能是透明度當出現(xiàn)問題時,你想知道它為什么會出錯。這不僅僅是為了問責制,也是出于實用的工程目的,如果你在設計一個工程系統(tǒng),而且它沒有達到你的目的,你需要了解其中的哪些部分沒有發(fā)揮作用,我們需要把注意力集中在哪里。從工程的角度來看,這是好事,從公共責任和理解的角度來看,這也是好事。“
”當然,我們希望公眾盡可能地對這些技術感到滿意。公眾信任將是一個關鍵因素。過去就有過這樣的例子,科學家們認為這些技術并沒有立即得到公眾的認可,比如轉(zhuǎn)基因作物。早期與公眾的溝通不足以讓他們信任技術,因此我們要從這些案例中吸取教訓。我想很多人都在關注道德問題,人工智能的道德問題將會變得非常重要。”
登陸|注冊歡迎登陸本站,認識更多朋友,獲得更多精彩內(nèi)容推薦!