贊助本站
人工智能如今已經(jīng)有能力替我們做決定,這讓我們,讓這個世界都為之興奮。但總有一個揮之不去的問題或者說“隱患”:誰將成為仆人,誰將成為主人?我們應(yīng)該從不同的角度來看待人工智能嗎?我們真的應(yīng)該交出控制權(quán),讓人工智能自己有選擇權(quán)利嗎?
也許在某種程度上,或者在某些情況下,我們將不得不放棄我們的絕對控制權(quán)。沒有決策權(quán)的人工智能就不是真正意義上的人工智能。
機(jī)器學(xué)習(xí)有時必須是不受影響的
如果每次做出決定時都要等待人工輸入,那么我們根本沒法利用機(jī)器學(xué)習(xí)的優(yōu)點(diǎn)。例如,如果一輛自動駕駛汽車在轉(zhuǎn)彎或減速前需要向人詢問輸入信號,那么它根本就不可能完成這項(xiàng)工作。那么這種車和我們今天所認(rèn)知的汽車就沒有什么不同了。
在我們生活中不得不做出這么多的決定的情況下,我們想嘗試把一些決定權(quán)交給機(jī)器。如果你相信Microsoft To-Do的數(shù)據(jù),他們統(tǒng)計說我們每一天都要做35,000次決定。目前沒有研究表明支持這一數(shù)據(jù)。但康奈爾大學(xué)透露,我們每天做超過200個僅僅是關(guān)于要吃什么的決定,所以這是一個合理的推測。
其中有趣的是,大多數(shù)決定都是出于人類本能。我們甚至都不去想這些決定,因?yàn)樗鼈兪枪潭ù嬖谖覀兇竽X里的。當(dāng)我們開車時會下意識遠(yuǎn)離潛在的危險,或者因?yàn)榍胺匠霈F(xiàn)的意外事故而放慢速度時,這些都是我們做出的決定。當(dāng)我們把目光轉(zhuǎn)向有噪音的地方的時候,我們又做出了另一個決定。
我相信如果我們想自動化處理任務(wù),我們需要賦予機(jī)器決定權(quán)來讓它們做出類似的決定。我不認(rèn)為把很多非主觀意識的決定交給人工智能做會有什么問題。駕駛汽車過程中避開危險與決定我們開車的方向這兩種選擇是不同的。我們可以為我們必須做的決定畫一個底線。
而且幸運(yùn)的是,我不是唯一一個認(rèn)為需要做決定底線的人。然而,如何以及在哪里去畫這條線,還有待我們討論。
我們在哪里劃清界限?
斯蒂芬·霍金、埃隆·馬斯克、比爾·蓋茨以及幾乎所有科技界的人都警告說,人工智能可能會接管世界,并將我們從地球上抹去。馬斯克是未來生命研究所的主要捐助者,該研究所決心保持對人工智能的控制權(quán),并準(zhǔn)備為阻止讓我們交出控制權(quán)的立法作斗爭。立法行動將是一種劃清界限的方法。
一個大問題是,為某一特定任務(wù)而設(shè)計的機(jī)器是否能夠?qū)崿F(xiàn)自我感知,并通過互聯(lián)網(wǎng)和物聯(lián)網(wǎng)對其他機(jī)器產(chǎn)生影響。
這是一個合乎邏輯的飛躍,表明汽車或機(jī)器人能夠?qū)崿F(xiàn)自我感知。但它們也有可能從背后侵入我們系統(tǒng),并發(fā)起一場有威脅的革命。但這個漏洞令許多批評人工智能的人感到擔(dān)憂。如果存在這樣的漏洞,就必須盡早采取合適的立法行動。當(dāng)我們發(fā)現(xiàn)這個漏洞已經(jīng)被制造出來的時候,控制它就太晚了。因此,是否存在這種危險這種問題是無法回答的。
另一個關(guān)于人工智能的討論的角度,遠(yuǎn)遠(yuǎn)超出了我們對于在這個世界上所處位置的擔(dān)憂程度。這個問題是,我們?yōu)槭裁葱枰斯ぶ悄?,為什么我們?nèi)绱藷嶂杂趯⒖刂茩?quán)交給機(jī)器?在這個世界上,我們存在的意義是什么呢?如果我們把重大決定權(quán)交給機(jī)器人,我們還能做什么呢?
我們愿意把控制權(quán)交給AI嗎?
人工智能最近在法律系統(tǒng)中首次亮相。目前正在進(jìn)行的事例是創(chuàng)造一個完美的機(jī)器人法官,并可以讓它取代人類法官最終做出裁決。
另一個建議是,讓一個擁有完美能力的機(jī)器人法官來支持一名人類法官,因?yàn)槿祟惥哂型樾?、直覺以及機(jī)器無法復(fù)制的人性品質(zhì)。這聽起來像是一個更明智的解決方案,因?yàn)槿斯ぶ悄芸梢詰?yīng)用法律條文,提供建議的一系列句子,法官可以從中選擇作為判斷條件。