但出于隱私的考慮,以及對網(wǎng)絡(luò)安全的不信任,大部分用戶顯然是不希望透露自己數(shù)據(jù)給機(jī)器的。
從而“雞生蛋蛋生雞”的矛盾就產(chǎn)生了。
近兩年,用AI來讀取用戶個(gè)人數(shù)據(jù)這件事一直處在被壓抑和不能提的狀態(tài)。更早一點(diǎn)的時(shí)候,蘋果和谷歌等大公司都推出過讓AI讀懂用戶的產(chǎn)品,但很快就被輿論抨擊給關(guān)停了。即使這樣,谷歌去年推出的家用AI相機(jī)還是飽受詬病。
在2017年后半段,我們看到了AI芯片拉開了風(fēng)云際會(huì)的爭奪序幕。但是搭載AI芯片的硬件一定要有的放矢,有任務(wù)可以完成。于是讓硬件讀懂用戶、讓系統(tǒng)根據(jù)用戶數(shù)據(jù)提供千人千面的服務(wù),勢必會(huì)重新回到公共視野里。
其實(shí)從大趨勢上看,把個(gè)人數(shù)據(jù)交給機(jī)器似乎是人類不可避免的歸宿。無論是醫(yī)療健康、金融服務(wù)還是社會(huì)安全,機(jī)器肯定都比人類更靠譜。只是這其中經(jīng)歷的不適感和安全風(fēng)險(xiǎn)是巨大的。
在2018年,無論是手機(jī)、音箱、穿戴設(shè)備、VR,在啟用了機(jī)器學(xué)習(xí)能力后,似乎都要重新沾惹隱私數(shù)據(jù)這條紅線。
究竟怎么處理這個(gè)矛盾,也是挺讓人頭疼的。
四、真假越來越難分
就目前來看,希望AI能像人一樣對話和理解,顯然還是為時(shí)過早的一件事。但是讓AI來造假,似乎已經(jīng)問題不大了。
此前我們討論過視頻和直播換臉的可能,其實(shí)從整個(gè)技術(shù)進(jìn)度來看,基于GAN的仿真和替換技術(shù)正在整體成熟。無論是模擬替換音頻還是視頻文件,AI都已經(jīng)能夠得心應(yīng)手的處理。
但這肯定不會(huì)是什么好事。在著名的Face2Face軟件推出的時(shí)候,國外網(wǎng)友就驚呼,假如跟我視頻聊天的人被替換了怎么辦?
而在開發(fā)框架和數(shù)據(jù)資源越來越豐富、算法越來越強(qiáng)勁的今天,大概我們可以很肯定的說:2018年用AI來偽造視頻音頻將更加天衣無縫。
這是AI對未來技術(shù)的探索,卻很可能引發(fā)社交媒體和網(wǎng)絡(luò)傳播的動(dòng)蕩:當(dāng)我們看到的視頻都可以完全造假的時(shí)候,這個(gè)世界還有什么可以相信呢?
假作真時(shí)真亦假,只能期望反AI造假的AI系統(tǒng)也盡快出現(xiàn)吧。
五、黑客攻擊有更多花樣
2017年年末,谷歌TensorFlow被驚人的爆出框架漏洞,雖然是被白帽子找到,沒有造成危險(xiǎn),但這還是點(diǎn)醒了我們一點(diǎn):AI并不安全。
至此,我們已經(jīng)見識過了各種黑客攻擊和AI技術(shù)結(jié)合的可能性:用AI來偽造文件信息實(shí)施攻擊和詐騙;利用AI技術(shù)來提升黑客攻擊效率;以AI系統(tǒng)為目標(biāo)的攻擊。隨著AI和物聯(lián)網(wǎng)體系的結(jié)合,未來物聯(lián)網(wǎng)攻擊中很可能也會(huì)加入AI的身影。
AI技術(shù)的成熟,讓網(wǎng)絡(luò)黑客們找到了更多的目標(biāo)、更多的工具以及更多的技巧。雖然AI同樣給我們提供了各種保護(hù)互聯(lián)網(wǎng)安全的方式。但無論如何,AI帶給了黑客更多可能性是毫無疑問的。
2017年的網(wǎng)絡(luò)安全世界并不平穩(wěn),各種各樣的病毒和黑客肆虐不絕于耳。進(jìn)入2018,我們很可能會(huì)在這個(gè)戰(zhàn)場看到更激烈的搏殺。
結(jié)束語
就像任何一種技術(shù)革新一樣,AI也同樣在帶來價(jià)值的同時(shí)創(chuàng)造了危險(xiǎn)。而且憑借著識別和學(xué)習(xí)能力的特征,AI帶來的負(fù)面影響說不定會(huì)比過往更大。
但是無論如何,技術(shù)就是這么一步步推進(jìn)的。更好的風(fēng)景總是伴隨著更難走的路途。認(rèn)識風(fēng)險(xiǎn),并探索解決方案,或許才是人類與AI相處時(shí)更舒服的方式。