建議:在打造AI系統(tǒng)的時候,受影響者的意見應(yīng)該被聽取。AI應(yīng)由各方共同設(shè)計以免有失公允和太過激進。
7、問題:AI的研究主要集中在電子技術(shù)上,對于人性方面問題的關(guān)注常常不足。在未來,計算機科學領(lǐng)域的成員將益加呈現(xiàn)同質(zhì)化和單一化對特點,這不利于AI開發(fā)者的眼界和經(jīng)驗,進而影響到AI產(chǎn)品的打造。
建議:AI研究員和開發(fā)者應(yīng)該盡量多元化,開發(fā)人員的多樣與多元也會帶來更豐富紛呈的AI產(chǎn)品。未來AI領(lǐng)域應(yīng)該多多支持跨學科研究,從而使得AI系統(tǒng)能夠融合電子計算、社會科學以及人文氣息。
8、問題:現(xiàn)有的道德準則已經(jīng)不能應(yīng)對AI在現(xiàn)實中所面臨問題的復(fù)雜性。(比如在醫(yī)療、執(zhí)法、犯罪判決以及勞務(wù)等等)同時,在大學里的計算機課堂上,盡管這些理工課程也逐漸開始重視道德教育,然而并未徹底貫徹到實踐中。
建議:同美國人工智能協(xié)會(AAAI)、美國計算機協(xié)會(ACM)以及電器和電子工程師協(xié)會(IEEE)這些專業(yè)機構(gòu)進行合作,推動產(chǎn)生可以面對新形勢的道德準則。同時在學校課堂上貫徹落實這些新道德準則的教育。每個有志于計算機科學的學生在專業(yè)課之外也應(yīng)接受公民權(quán)利、自由等道德教育。相應(yīng)的,那些有AI滲入的領(lǐng)域(比如醫(yī)療場所)的從業(yè)人員也應(yīng)該對這些新道德標準有所知悉。
目前關(guān)于人工智能的四個關(guān)鍵性問題
我們現(xiàn)在將對目前關(guān)于人工智能的四個關(guān)鍵問題進行深入探討,為讀者提供一個了解業(yè)內(nèi)專家見解以及建議的機會。相關(guān)探討包括每個關(guān)鍵問題所面臨的挑戰(zhàn)、機遇以及可采用的干預(yù)措施。
1.社會不公
人工智能系統(tǒng)如何造成偏見以及歧視等社會不公現(xiàn)象?
人工智能系統(tǒng)在高風險決策領(lǐng)域的作用越來越重要——從信貸、保險再到第三方?jīng)Q策以及假釋問題。人工智能技術(shù)將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發(fā)一系列關(guān)于權(quán)利、自由以及社會公正問題。
有些人認為人工智能系統(tǒng)的應(yīng)用有助于克服人類主觀偏見帶來的一系列問題,而有些人則擔心人工智能系統(tǒng)將會放大這些偏見,反而會進一步擴大機會的不均等。
在這場討論中,數(shù)據(jù)將會起到至關(guān)重要的作用,引發(fā)人們的強烈關(guān)注。人工智能系統(tǒng)的運行往往取決于其所獲得的數(shù)據(jù),也是這些數(shù)據(jù)的直觀反映。其中也包括這些數(shù)據(jù)的來源以及收集過程中的偏差。從這方面來講,關(guān)于人工智能的影響是與相應(yīng)的大數(shù)據(jù)技術(shù)密切相關(guān)的。
從廣義上講,數(shù)據(jù)偏差有兩種形式。第一種是采集的數(shù)據(jù)客觀上不能夠準確反映現(xiàn)實情況(主要歸因于測量方法的不準確;數(shù)據(jù)采集不完整或過于片面;非標準化的自我評價以及數(shù)據(jù)采集過程中的其他缺陷)。第二種在數(shù)據(jù)采集的過程中主觀上存在結(jié)構(gòu)性偏差(諸如在關(guān)于職業(yè)數(shù)據(jù)的采集中有目的性地通過主觀性的重男輕女來預(yù)測職場成功率)。前一種的數(shù)據(jù)偏差可以通過“凈化數(shù)據(jù)”或者改進數(shù)據(jù)采集過程來加以解決。但后一種則需要復(fù)雜的人工干預(yù)措施。值得注意的是,雖然有很多機構(gòu)都為解決這種問題做了大量的工作,但對于如何“檢測”數(shù)據(jù)偏差尚無定論。
當采集的數(shù)據(jù)存在上述偏差時,用這種數(shù)據(jù)所訓(xùn)練的人工智能系統(tǒng)也會存在相應(yīng)偏差,其產(chǎn)生的模型或者結(jié)果不肯避免的會復(fù)制并放大這種偏差。在這種情況下,人工智能系統(tǒng)所作出的決策將會產(chǎn)生差別效應(yīng),從而引發(fā)社會不公。而這種不公平要比人為偏見和不公隱晦的多。
在以風險控制為主導(dǎo)的行業(yè)中,隨著人工智能系統(tǒng)的廣泛應(yīng)用,導(dǎo)致人與人之間的細微差別異化對待等現(xiàn)象顯著增加,在保險以及其他社會擔保行業(yè)尤為如此。人工智能系統(tǒng)的應(yīng)用能夠使公司更加有效地通過“逆向選擇”來識別特定群體以及個人,從而有效避免風險。
諸如在醫(yī)療保險領(lǐng)域,人工智能系統(tǒng)會對投保人的特征以及表現(xiàn)行為進行分析,并對那些被識別為特殊疾病或者是未來發(fā)病率高的投保人收取更多保費。在這種情況下,對于那些健康狀況不佳且經(jīng)濟能力差的人群尤為不利。這就是為何批評者經(jīng)常會指責稱,即便人工智能系統(tǒng)的預(yù)測準確,保險人行為理性,但效果卻常常是帶來負面影響。
保險業(yè)的競爭或許會加劇這種發(fā)展趨勢,最終人工智能系統(tǒng)的應(yīng)用或許會加劇這種不平等性。當然,相關(guān)反歧視法律法規(guī)中的規(guī)范性原則能夠為解決這些問題帶來幫助,雖然這種方法可能不是最有效、最公平的。此外,對人工智能系統(tǒng)進行設(shè)計和部署也很重要,但現(xiàn)有的法律框架或許會使相應(yīng)研究受到阻礙。諸如如計算機欺詐和濫用法(CFAA)和數(shù)字千年版權(quán)法案(DMCA)都對這方面研究進行了限制,因此當下也需要對現(xiàn)行法規(guī)進行改革,確保必要的研究能夠順利進行。