贊助本站
公眾號(hào)(smartman163)
每一項(xiàng)技術(shù)進(jìn)步都帶來了一股恐懼和不確定性。
一、克服毫無根據(jù)的恐懼
我們看到這種情況反復(fù)出現(xiàn)。自工業(yè)革命以來,人們一直在思考新技術(shù)對(duì)他們生活和工作的影響,今天我們看到,每一次人工智能突破之后,恐懼就會(huì)出現(xiàn)。盡管人工智能近年來取得了巨大進(jìn)步,但其仍處于早期階段,這帶來了一定程度的不確定性。這種不確定性只有在出現(xiàn)問題或預(yù)期大于現(xiàn)實(shí)時(shí)才會(huì)加劇,從而導(dǎo)致誤解和焦慮。作為一名直言不諱的人工智能評(píng)論家,Elon Musk利用這一誤解,描繪了一場(chǎng)即將到來的人工智能大災(zāi)難的畫面,盡管他將強(qiáng)大的人工智能嵌入特斯拉的汽車中。所有這些都表明,在某種程度上,我們發(fā)現(xiàn)自己陷入了一個(gè)危險(xiǎn)的、不必要的炒作周期。
我們必須克服這種毫無根據(jù)的恐懼。現(xiàn)實(shí)是這樣的:今天沒有可信的研究支持這些末日?qǐng)鼍?。他們是令人信服的小說。我喜歡看《終結(jié)者》,就像和我同齡的其他孩子一樣,但這些有趣的場(chǎng)景無法讓我們應(yīng)對(duì)人工智能帶來的直接威脅。
我們面臨的主要問題是偏見和多樣性,這些問題比奇點(diǎn)和機(jī)器人暴動(dòng)更直接,也更人性化。這些問題包括嵌入的偏見和缺乏多樣性的領(lǐng)域和數(shù)據(jù)集。用有偏見的數(shù)據(jù)訓(xùn)練人工智能,我們可能會(huì)無意識(shí)地在人工智能中灌輸我們自己的偏見。如果不加以控制,偏見會(huì)導(dǎo)致人工智能對(duì)某些人有利,而其他人則會(huì)付出代價(jià)。如果不增加領(lǐng)域的多樣性,一些人將對(duì)人工智能創(chuàng)造背后隱藏的決策產(chǎn)生更大的影響。隨著人工智能整合到對(duì)個(gè)人生活影響更大的決策過程中,例如招聘、貸款申請(qǐng)、司法審查和醫(yī)療決定,我們將需要警惕它吸收我們最壞的傾向。
二、沒有無辜的數(shù)據(jù)
當(dāng)人工智能觸及最基本的人類系統(tǒng)時(shí),我們需要記住它不是在真空中運(yùn)行。人工智能依賴于海量數(shù)據(jù),強(qiáng)大的算法可以分析這些數(shù)據(jù),然后得出具有啟示性的洞見。但是人工智能依賴訓(xùn)練數(shù)據(jù)。如果數(shù)據(jù)存在偏見,比如帶有種族主義或性別歧視的語(yǔ)言,這會(huì)影響結(jié)果。無論你訓(xùn)練人工智能什么,結(jié)果都會(huì)被放大,因?yàn)樗惴〞?huì)無數(shù)次地復(fù)制它的決策。在數(shù)據(jù)中未被發(fā)現(xiàn)的偏見逐漸顯現(xiàn),令人不安,這是人工智能系統(tǒng)開始輸出反映我們自己最根深蒂固的偏見的結(jié)果。與機(jī)器人暴動(dòng)不同,有偏見的人工智能并不是一個(gè)假設(shè)的風(fēng)險(xiǎn)。有偏見的人工智能在選美比賽中選擇了淺色皮膚的選手,而非深色皮膚的選手。一種帶有偏見的谷歌算法將黑臉歸類為大猩猩。
在一項(xiàng)研究中,一個(gè)有偏見的人工智能篩選簡(jiǎn)歷,會(huì)更傾向于歐裔美國(guó)人(相對(duì)于非裔美國(guó)人)。在另一項(xiàng)研究中,有偏見的AI將男性的名字與職業(yè)導(dǎo)向、數(shù)學(xué)和科學(xué)詞匯聯(lián)系起來,同時(shí)將女性的名字與藝術(shù)概念聯(lián)系在一起。就像我們自己的點(diǎn)擊讓我們處在自己的Facebook過濾器泡泡里一樣,帶有偏見的數(shù)據(jù)創(chuàng)造出了傳播人類偏見的人工智能。
我們不能因?yàn)榉娜斯ぶ悄芏颖茇?zé)任。我們?cè)蕉嗟貙⑦@些系統(tǒng)納入我們的決策過程,我們就必須做得越多,以確保我們能夠負(fù)責(zé)任地使用這些系統(tǒng)。解決數(shù)據(jù)偏見問題的第一步是在數(shù)據(jù)收集過程中建立更大的透明度。它是從哪里來的?它是怎么收集的?是誰(shuí)收集的?我們還需要解決模型中的偏見問題。通過讓我們的模型的內(nèi)部工作更加清晰,我們將能夠發(fā)現(xiàn)我們之前沒有發(fā)現(xiàn)的數(shù)據(jù)中的偏見。
如果我們能夠恰當(dāng)?shù)亟鉀Q人工智能中存在的偏見問題,那么人工智能將繼續(xù)成為創(chuàng)造一個(gè)更美好世界的有用工具。雖然解決世界上數(shù)十億人的偏見問題可能是完全不可行的,但我們完全有可能創(chuàng)造出比創(chuàng)造者更少偏見的人工智能。
雖然人類的偏見造成了這些挑戰(zhàn),但人類的洞察力可以解決這些問題。算法在清除虛假新聞和識(shí)別歧視方面取得了巨大進(jìn)步,但人類的監(jiān)督將成為構(gòu)建更公平的人工智能系統(tǒng)的必要條件。在正在進(jìn)行的“關(guān)于人工智能將如何改變工作”的討論中,我們很容易想到一個(gè)新角色出現(xiàn):人工智能監(jiān)視器。我們?nèi)匀恍枰斯z查人工智能的輸入和輸出。