今年人工智能決策將變得更加透明?
無論你的 IT 業(yè)務(wù)現(xiàn)在使用了多少人工智能,預(yù)計(jì)你將會在 2018 年使用更多。即便你從來沒有涉獵過 AI 項(xiàng)目,這也可能是將談?wù)撧D(zhuǎn)變?yōu)樾袆拥囊荒?,德勤董事總?jīng)理 David Schatsky 說。他說:“與 AI 開展合作的公司數(shù)量正在上升。”
看看他對未來一年的AI預(yù)測:
1、預(yù)期更多的企業(yè) AI 試點(diǎn)項(xiàng)目
如今我們經(jīng)常使用的許多現(xiàn)成的應(yīng)用程序和平臺都將 AI 結(jié)合在一起。 Schatsky 說:“除此之外,越來越多的公司正在試驗(yàn)機(jī)器學(xué)習(xí)或自然語言處理來解決特定的問題,或者幫助理解他們的數(shù)據(jù),或者使內(nèi)部流程自動化,或者改進(jìn)他們自己的產(chǎn)品和服務(wù)。
“除此之外,公司與人工智能的合作強(qiáng)度將會上升。”他說,“早期采納它的公司已經(jīng)有五個或略少的項(xiàng)目正在進(jìn)行中,但是我們認(rèn)為這個數(shù)字會上升到十個或有更多正在進(jìn)行的計(jì)劃。” 他說,這個預(yù)測的一個原因是人工智能技術(shù)正在變得越來越好,也越來越容易使用。
2、人工智能將緩解數(shù)據(jù)科學(xué)人才緊缺的現(xiàn)狀
人才是數(shù)據(jù)科學(xué)中的一個大問題,大多數(shù)大公司都在努力聘用他們所需要的數(shù)據(jù)科學(xué)家。 Schatsky 說,AI 可以承擔(dān)一些負(fù)擔(dān)。他說:“數(shù)據(jù)科學(xué)的實(shí)踐,逐漸成為由創(chuàng)業(yè)公司和大型成熟的技術(shù)供應(yīng)商提供的自動化的工具。”他解釋說,大量的數(shù)據(jù)科學(xué)工作是重復(fù)的、乏味的,自動化的時機(jī)已經(jīng)成熟。 “數(shù)據(jù)科學(xué)家不會消亡,但他們將會獲得更高的生產(chǎn)力,所以一家只能做一些數(shù)據(jù)科學(xué)項(xiàng)目而沒有自動化的公司將能夠使用自動化來做更多的事情,雖然它不能雇用更多的數(shù)據(jù)科學(xué)家”。
3、合成數(shù)據(jù)模型將緩解瓶頸
Schatsky 指出,在你訓(xùn)練機(jī)器學(xué)習(xí)模型之前,你必須得到數(shù)據(jù)來訓(xùn)練它。 這并不容易,他說:“這通常是一個商業(yè)瓶頸,而不是生產(chǎn)瓶頸。 在某些情況下,由于有關(guān)健康記錄和財(cái)務(wù)信息的規(guī)定,你無法獲取數(shù)據(jù)。”
他說,合成數(shù)據(jù)模型可以采集一小部分?jǐn)?shù)據(jù),并用它來生成可能需要的較大集合。 “如果你以前需要 10000 個數(shù)據(jù)點(diǎn)來訓(xùn)練一個模型,但是只能得到 2000 個,那么現(xiàn)在就可以產(chǎn)生缺少的 8000 個數(shù)據(jù)點(diǎn),然后繼續(xù)訓(xùn)練你的模型。”
4、人工智能決策將變得更加透明
AI 的業(yè)務(wù)問題之一就是它經(jīng)常作為一個黑匣子來操作。也就是說,一旦你訓(xùn)練了一個模型,它就會吐出你不能解釋的答案。 Schatsky 說:“機(jī)器學(xué)習(xí)可以自動發(fā)現(xiàn)人類無法看到的數(shù)據(jù)模式,因?yàn)閿?shù)據(jù)太多或太復(fù)雜。 ”發(fā)現(xiàn)了這些模式后,它可以預(yù)測未見的新數(shù)據(jù)。“
問題是,有時你確實(shí)需要知道 AI 發(fā)現(xiàn)或預(yù)測背后的原因。 “以醫(yī)學(xué)圖像為例子來說,模型說根據(jù)你給我的數(shù)據(jù),這個圖像中有 90% 的可能性是腫瘤。 ”Schatsky 說,“你說,‘你為什么這么認(rèn)為?’ 模型說:”我不知道,這是數(shù)據(jù)給的建議。‘“
Schatsky 說,如果你遵循這些數(shù)據(jù),你將不得不對患者進(jìn)行探查手術(shù)。 當(dāng)你無法解釋為什么時,這是一個艱難的請求。 “但在很多情況下,即使模型產(chǎn)生了非常準(zhǔn)確的結(jié)果,如果不能解釋為什么,也沒有人愿意相信它。”
還有一些情況是由于規(guī)定,你確實(shí)不能使用你無法解釋的數(shù)據(jù)。 Schatsky 說:“如果一家銀行拒絕貸款申請,就需要能夠解釋為什么。 這是一個法規(guī),至少在美國是這樣。傳統(tǒng)上來說,人類分銷商會打個電話做回訪。一個機(jī)器學(xué)習(xí)模式可能會更準(zhǔn)確,但如果不能解釋它的答案,就不能使用。”
大多數(shù)算法不是為了解釋他們的推理而設(shè)計(jì)的。 他說:“所以研究人員正在找到聰明的方法來讓 AI 泄漏秘密,并解釋哪些變量使得這個病人更可能患有腫瘤。 一旦他們這樣做,人們可以發(fā)現(xiàn)答案,看看為什么會有這樣的結(jié)論。”
他說,這意味著人工智能的發(fā)現(xiàn)和決定可以用在許多今天不可能的領(lǐng)域。 “這將使這些模型更加值得信賴,在商業(yè)世界中更具可用性。”