3.自動(dòng)武器:致命的自動(dòng)武器符合人道主義法律嗎?或是像一些組織認(rèn)為那樣,自主武器應(yīng)該被禁止,如果法律容許使用致命的自動(dòng)武器,這些武器應(yīng)該如何被集成到現(xiàn)有的指揮和控制結(jié)構(gòu),以便職責(zé)和責(zé)任能夠被分散,又該如何是定義“有意義的人類控制武器”?最后,如何促進(jìn)這些問(wèn)題的透明度和公眾話語(yǔ)權(quán)?
4.隱私:AI系統(tǒng)從監(jiān)控相機(jī)、電話、電子郵件中獲得的數(shù)據(jù)侵犯到隱私權(quán)嗎?我們?nèi)祟惾绾卫萌斯ぶ悄芎痛髷?shù)據(jù)取決于我們管理和保護(hù)隱私的能力。
5.職業(yè)道德:計(jì)算機(jī)科學(xué)家應(yīng)該在人工智能開發(fā)和使用的法律和道德上扮演什么樣的角色?過(guò)去和現(xiàn)在有很多項(xiàng)目在探尋類似的問(wèn)題:包括AAAI 2008-09 Presidential Panel on Long-Term AI Futures 和EPSRC Principles of Robotics 以及最近宣布的斯坦福大學(xué)的One-Hundred Year Study of AI and the AAAI committee。
3. 促進(jìn)人工智能健康發(fā)展的計(jì)算機(jī)科學(xué)研究
隨著自主系統(tǒng)變得更加普遍,它們的魯棒行為將變得越來(lái)越重要。自動(dòng)駕駛汽車、自動(dòng)交易系統(tǒng)、自動(dòng)武器等等的發(fā)展,理所當(dāng)然的引發(fā)了如何保障高可靠性系統(tǒng)的魯棒性,Weld 和Etzioni認(rèn)為“社會(huì)將拒絕自主代理除非我們有可靠的手段來(lái)保證他們安全”。
1.驗(yàn)證:如何證明一個(gè)系統(tǒng)滿足特定期望的正式屬性
2.有效:如何保證一個(gè)系統(tǒng)滿足它的正式需求,而沒(méi)有其他無(wú)關(guān)的行為和后果
3.安全:如何預(yù)防系統(tǒng)被未授權(quán)人員故意操作
4.控制:如何確保人工智能系統(tǒng)運(yùn)行后,在該系統(tǒng)上有意義的人類控制
關(guān)于驗(yàn)證,報(bào)告指出:“也許傳統(tǒng)軟件的驗(yàn)證和人工智能軟件的驗(yàn)證最大的不同是傳統(tǒng)軟件的正確性是由一個(gè)固定的或者已知的模型定義的,而人工智能系統(tǒng)特別是機(jī)器人系統(tǒng),系統(tǒng)設(shè)計(jì)師通常則知之不全。”
關(guān)于有效,報(bào)告指出:“為了構(gòu)建一個(gè)魯棒性表現(xiàn)強(qiáng)勁的系統(tǒng),我們需要決定什么樣的行為對(duì)每一個(gè)應(yīng)用領(lǐng)域來(lái)說(shuō)是有益的。這個(gè)問(wèn)題直接和利用哪些工程技術(shù)、這些技術(shù)的可靠性如何、如何權(quán)衡這些技術(shù)有關(guān)——當(dāng)計(jì)算機(jī)科學(xué)、機(jī)器學(xué)習(xí)和更廣泛的人工智能技術(shù)是有價(jià)值的時(shí)候。”
關(guān)于安全,報(bào)告指出:“安全研究可以幫助人工智能更加健壯。隨著人工智能系統(tǒng)越來(lái)越多的扮演重要角色,這將讓網(wǎng)絡(luò)攻擊面迅速擴(kuò)大。而且不排除人工智能和機(jī)器學(xué)習(xí)技術(shù)也被用于網(wǎng)絡(luò)攻擊。低水平的魯棒性開發(fā)與可驗(yàn)證和bug的自由利用有關(guān)。例如,DARPA SAFE的目標(biāo)是用一個(gè)靈活的元數(shù)據(jù)規(guī)則引擎來(lái)建立一個(gè)集成的軟硬件系統(tǒng),在此系統(tǒng)上可以被構(gòu)建內(nèi)存安全、故障隔離以及通過(guò)防止漏洞被利用的安全改進(jìn)協(xié)議。這樣的程序無(wú)法消除所有安全漏洞,但是可以顯著減少最近的“Heartbleed bug”和“Bash bug”漏洞。這種系統(tǒng)可以優(yōu)先部署在高安全性的應(yīng)用程序當(dāng)中。
對(duì)于控制,該報(bào)告認(rèn)為:“對(duì)于某些類型安全性至關(guān)重要的人工智能系統(tǒng),特別是車輛和武器平臺(tái)——可能需要保留某種形式的有意義的人工控制,在這些情況下,需要技術(shù)確保有意義的人工控制。自動(dòng)駕駛汽車是這個(gè)有效控制技術(shù)的一個(gè)試驗(yàn)平臺(tái)。自動(dòng)導(dǎo)航和人工控制之間的系統(tǒng)設(shè)計(jì)和協(xié)議轉(zhuǎn)換是一個(gè)前景廣闊的領(lǐng)域值得我們進(jìn)一步研究。這些問(wèn)題也促使我們研究如何在人機(jī)團(tuán)隊(duì)之間最優(yōu)的分配任務(wù)。”
長(zhǎng)期研究?jī)?yōu)先項(xiàng)
一些人工智能研究人員經(jīng)常討論人工智能長(zhǎng)期目標(biāo)是開發(fā)一個(gè)類人的系統(tǒng)并且超越人類在大多數(shù)識(shí)別任務(wù)上的能力,從而對(duì)社會(huì)產(chǎn)生重大影響。如果這些努力就會(huì)在可預(yù)見的未來(lái)實(shí)現(xiàn),那么在上文闡述的研究之外,還應(yīng)該注意以下更深層次的影響,從而確保實(shí)現(xiàn)的人工智能是健壯和有益的。
對(duì)這種成功概率的評(píng)估,研究人員之間的分歧很大,但很少有人相信這樣的概率是微不足道的。例如,Ernest Rutherford,他可以說(shuō)是最偉大的核物理學(xué)家表示,他在1933年表示核能是空談,皇家天文學(xué)家Richard Woolley稱星際旅行在1956年徹底擱淺。此外,證明值得在人工智能領(lǐng)域健壯性研究的概率并不需要太高,就像房屋保險(xiǎn),我們也是在房屋被燒毀概率很小的基礎(chǔ)上投保的。