人們對于AI系統(tǒng),進(jìn)行了許多美好的構(gòu)想,寄予它們護理工作調(diào)解員的角色,并相信它們在未來有可能完全取締了護工的工作。這一轉(zhuǎn)變前景樂觀、經(jīng)濟,且高效,很可能會改善患者與醫(yī)生或其他護工之間的關(guān)系和他們的工作方式。
能展示AI系統(tǒng)具有代替或者協(xié)助人工護理工作的潛力的例子非常之多,包括有機器人外科醫(yī)生、虛擬管家和陪護機器人等等。這些例子逐漸引發(fā)了一些爭論,比如代理照顧和陪同護理的社會意義是否可以讓非人類的機器來代替?當(dāng)機器替代人工時,它是否能不僅僅只是增強人工的專業(yè)性,而能做到真正的獨當(dāng)一面呢?當(dāng)我們認(rèn)為一臺機器有能力“護理”病人時,它具備了哪些“護理”能力呢?我們又是如何定義“護理”這個詞呢?這些我們以為的“以為”是否是站在病人權(quán)益的角度上,去考慮的呢?
就目前來說,雖然陪護機器人在取代人工護理工作上,還未取得什么明顯的效果, 但由AI驅(qū)動的APP和聯(lián)網(wǎng)設(shè)備能讓病人取回對自己健康管理的控制權(quán)的前景正在與日俱增,而這也預(yù)示著AI醫(yī)療系統(tǒng)同病人的直接交互,正處于早期發(fā)展階段。。
這種人與AI的直接交互其實也是一把雙刃劍。一方面,它能讓病人康復(fù)地更快、對自身病情有更多的了解。另一方面,這種變革也需要他們擔(dān)負(fù)更多的風(fēng)險。這些風(fēng)險包括它可能會誤導(dǎo)病患,影響他們可能會接收到的信息的質(zhì)量和準(zhǔn)確性,而這也是美國聯(lián)邦貿(mào)易委員會(FTC)在近些年來,所要傳達(dá)給我們的擔(dān)慮。
除此之外,這些搭載了AI的APP也可以將原先醫(yī)療從業(yè)者所需要承擔(dān)的責(zé)任轉(zhuǎn)移病人本身,但這對病人來說不見得是什么好消息,因為并不是所有人都有時間、財力和AI技術(shù)獲取渠道,來實現(xiàn)對他們自身健康的護理。
那么,什么樣的患者能優(yōu)先享受到這些仍在不斷改進(jìn)當(dāng)中的AI醫(yī)療技術(shù)的紅利呢?對于那些“裝備”不良卻想管理和維護自己個人數(shù)據(jù)的病患來說,他們所接受到的健康看護是否是不合格的呢?
再者,那些搭載了AI技術(shù)的應(yīng)用的設(shè)計者和研發(fā)者在這一社會演變過程中,又需要扮演什么新的角色?需要承擔(dān)哪些新的責(zé)任?
那些始終處于風(fēng)口浪尖的醫(yī)學(xué)道德倫理,又將如何融入到這些與眾不同的,新式工程技術(shù)的載體上呢?
4.道德責(zé)任
AI系統(tǒng)的部署不僅將引發(fā)新的責(zé)任,也將對職業(yè)道德、研究道德、甚至公共安全評估等現(xiàn)有領(lǐng)域造成挑戰(zhàn)。
近來,人們對道德和AI系統(tǒng)的討論傾向于優(yōu)先考慮很久以后可能會出現(xiàn)的AI系統(tǒng),例如,“奇點”的來臨,或超級智能的發(fā)展。
也就是說,這種討論往往并未關(guān)注AI系統(tǒng)在短期或中期內(nèi)會產(chǎn)生的道德影響,例如,當(dāng)前已投入使用的大量任務(wù)型AI系統(tǒng)引發(fā)了新挑戰(zhàn)、可能加劇不平等、或從根本上改變權(quán)利機制。
當(dāng)代AI系統(tǒng)上能夠執(zhí)行各種各樣的活動,這類技術(shù)會引發(fā)各種隱性和顯性后果,因此可能對傳統(tǒng)倫理框架提出新挑戰(zhàn)。AI系統(tǒng)被部署在人類社會中時或許會引發(fā)不可預(yù)測的相互作用和后果。
在資源配置以及讓權(quán)力和信息集中或重組的潛力方面,我們迫切需要處理一些關(guān)鍵問題來確保AI技術(shù)不會造成傷害,特別對于已被邊緣化的群體。
我們?nèi)绾蜗駻I授予權(quán)力或委派AI展開決策?
AI系統(tǒng)在社會和經(jīng)濟領(lǐng)域內(nèi)的融合需要我們把社會問題轉(zhuǎn)變?yōu)槟軌虮籄I解決的技術(shù)問題。這種轉(zhuǎn)變無法保證AI系統(tǒng)產(chǎn)生的錯誤會少于它將取代的現(xiàn)有系統(tǒng)。瑞安?卡洛(Ryan Calo)指出,人們通常以為,AI系統(tǒng)(如,自主駕駛汽車)犯的錯誤將少于人類。實則不然。復(fù)雜程度不高的AI系統(tǒng)無法避免地會犯一些人類不會犯的新錯誤。
在許多領(lǐng)域中,倫理框架往往需要產(chǎn)生記錄,例如,病歷、律師的案卷、或研究人員向機構(gòu)審查委員會提交的文件。此外,人們還面向患者、客戶或感覺自己遭遇了不公正待遇的對象設(shè)立了補救機制。
當(dāng)代的AI系統(tǒng)往往無法提供此類記錄或補救機制,要么因為技術(shù)上無法實現(xiàn),要么因為設(shè)計者并未考慮此類記錄或機制。
這意味著,受到影響的特定群體或個人往往無法對AI或其他預(yù)測系統(tǒng)的決策進(jìn)行檢驗或質(zhì)疑。這會惡化各種形式的權(quán)力不對等現(xiàn)象。而權(quán)力不對等是一個很重要的倫理議題。
當(dāng)受到影響的個人無法對這類自動化決策展開檢驗、質(zhì)疑或上訴時,他們就處在了權(quán)力相對缺失的位置上。