【中國智能制造網(wǎng) 行業(yè)動態(tài)】近年人工智能迎來了其第三個(gè)發(fā)展高峰,而這次的高峰被認(rèn)為是不同以往的,其中原因被歸結(jié)為算力、算法以及數(shù)據(jù)等技術(shù)進(jìn)步為人工智能科技提供了穩(wěn)健前行的基礎(chǔ)。
AI迎來第三個(gè)發(fā)展高峰 信息安全成重要議題
01、前言:人工智能法律治理現(xiàn)狀
人工智能科技誕生于20世紀(jì)50年代,在六十多年的發(fā)展歷程中幾經(jīng)潮起潮落,近年人工智能迎來了其第三個(gè)發(fā)展高峰,而這次的高峰被認(rèn)為是不同以往的,其中原因被歸結(jié)為算力、算法以及數(shù)據(jù)等技術(shù)進(jìn)步為人工智能科技提供了穩(wěn)健前行的基礎(chǔ):
首先,云計(jì)算技術(shù)與GPU處理器的應(yīng)用以及前景可期的量子計(jì)算,它們?yōu)槿斯ぶ悄芴峁┝藦?qiáng)大的算力支撐;其次,人工智能領(lǐng)域以機(jī)器學(xué)習(xí)為代表的算法的突破以及大數(shù)據(jù)提供的海量數(shù)據(jù)資源煤礦,均為人工智能的發(fā)展賦予了能量。
人工智能技術(shù)與應(yīng)用正在快速普及在社會生活的各個(gè)方面,世界各國均致力于制定與其發(fā)展相適應(yīng)的法律規(guī)則,如歐盟于2016年10月制定了《歐盟機(jī)器人民事法律規(guī)則》(European Civil Law Rules in Robotics),提煉出人工智能觸及的民事法律問題的框架,從法律和倫理的角度評估和分析未來歐洲民法領(lǐng)域的機(jī)器人規(guī)則,給予這些法律問題以方向性的指導(dǎo)。
而以自動駕駛汽車的立法探索為例,美國共計(jì)23個(gè)州政府共制定了四十余部自動駕駛汽車法案,聯(lián)邦層面的自動駕駛汽車法案也正在推進(jìn)。不可否認(rèn)的是,世界各國的人工智能頂層戰(zhàn)略文件均不約而同提及應(yīng)盡快建立相應(yīng)的法律規(guī)范體系,而多國已經(jīng)將這些建議與構(gòu)想真正提上了立法議程。
世界各國積極推進(jìn)人工智能領(lǐng)域的立法,主要有以下兩個(gè)方面的原因:
一方面,各國均希望在這場被稱為第四次的工業(yè)革命的浪潮真正到來之前,能夠搶占法律規(guī)則制定先機(jī),促使本國的法律規(guī)則能夠在社會享有話語權(quán)與主導(dǎo)權(quán);另一方面,人工智能衍生了一系列社會風(fēng)險(xiǎn),包括:人工智能算法決策透明度與可解釋性的缺失、人工智能應(yīng)用的個(gè)人信息與隱私的保護(hù)、人工智能系統(tǒng)安全、人工智能造成人類損害及責(zé)任分擔(dān)方案以及人工智能為人類就業(yè)帶來的負(fù)面影響等。
面對這些風(fēng)險(xiǎn),制定與其現(xiàn)階段發(fā)展相適應(yīng)的法律規(guī)則的重要性凸顯。
在眾多風(fēng)險(xiǎn)中,本文重點(diǎn)關(guān)注的則是人工智能安全的法律規(guī)制。安全所包含的內(nèi)容范圍需要從以下兩個(gè)方面進(jìn)行說明:
首先,本文主旨為探討人工智能技術(shù)與應(yīng)用的網(wǎng)絡(luò)安全,根據(jù)我國現(xiàn)有網(wǎng)絡(luò)安全法律體系與人工智能技術(shù)與應(yīng)用現(xiàn)狀,對人工智能帶來的新生網(wǎng)絡(luò)安全風(fēng)險(xiǎn)進(jìn)行挖掘,提出將人工智能對應(yīng)規(guī)范嵌入現(xiàn)有網(wǎng)絡(luò)安全法律框架的可行性建議。
其次,國外學(xué)術(shù)文獻(xiàn)對人工智能安全問題的探討,還包含了:機(jī)器確保人類人身安全的議題。造成這種提法差異的原因在于safety與security兩詞的含義誤差:在英語語境中,safety重在人身安全,如阿西莫夫的機(jī)器人三原則,其主旨為確保機(jī)器人不會傷害人類;而當(dāng)談及security則意指數(shù)據(jù)安全和通信秘密等網(wǎng)絡(luò)空間的安全。但當(dāng)兩詞翻譯為中文時(shí),則被統(tǒng)一稱之為安全。
關(guān)于safety(人身安全)問題的探討目前聚焦于倫理范疇與技術(shù)標(biāo)準(zhǔn)領(lǐng)域,如探索設(shè)計(jì)機(jī)器的道德準(zhǔn)則(如不傷害人類)并以有效方式將這些道德準(zhǔn)則植入人工智能算法與系統(tǒng)的可行性,以及制定相關(guān)的機(jī)械安全技術(shù)標(biāo)準(zhǔn)與規(guī)范;關(guān)于safety問題的法律治理則更多聚焦于造成人身損害后的責(zé)任如何分擔(dān),如操作系統(tǒng)服務(wù)商、汽車生產(chǎn)廠商與乘客誰會為損害承擔(dān)責(zé)任,采用無過錯侵權(quán)責(zé)任還是設(shè)計(jì)相應(yīng)的責(zé)任豁免規(guī)則等問題的探索。
需要向讀者闡明的是,本文所探討的安全意為security,即為網(wǎng)絡(luò)安全,并不涉及人工智能確保人身安全的議題。
人工智能面臨哪些網(wǎng)絡(luò)安全風(fēng)險(xiǎn),是否存在新生的安全風(fēng)險(xiǎn)形式?根據(jù)我國已有的網(wǎng)絡(luò)安全法律體系,網(wǎng)絡(luò)安全是指通過采取必要措施,防范對網(wǎng)絡(luò)的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網(wǎng)絡(luò)處于穩(wěn)定可靠運(yùn)行的狀態(tài),以及保障網(wǎng)絡(luò)數(shù)據(jù)的完整性、保密性、可用性的能力。
以系統(tǒng)和數(shù)據(jù)兩個(gè)核心網(wǎng)絡(luò)安全要素為視角,將人工智能技術(shù)與應(yīng)用的形式對應(yīng)分析,我們將人工智能安全問題聚焦于:系統(tǒng)安全、算法透明度與問責(zé)性和數(shù)據(jù)隱私的保護(hù)。
以具體的人工智能應(yīng)用舉例,如自動駕駛汽車系統(tǒng):黑客可以從智能汽車端、移動應(yīng)用端和云平臺以及三者交互的通信管道實(shí)施攻擊,復(fù)雜的系統(tǒng)組成要素則大大增加了安全風(fēng)險(xiǎn)。目前已實(shí)際發(fā)生過黑客通過盜取移動app賬號密碼而控制自動駕駛汽車的案例,這類系統(tǒng)脆弱性為乘客人身安全和社會安全帶來了巨大隱患。
與此同時(shí),人工智能算法和系統(tǒng)對社會運(yùn)行及公民個(gè)人利益的影響也日益重要起來。以目前內(nèi)容分發(fā)所廣泛使用的用戶畫像技術(shù)為例,該技術(shù)會通過用戶的點(diǎn)擊歷史以及觸屏操作分析用戶行為,對用戶進(jìn)行畫像分類,并添加相應(yīng)的標(biāo)簽,而后推送與標(biāo)簽對應(yīng)的內(nèi)容,關(guān)于該項(xiàng)應(yīng)用所引發(fā)的合理性爭議也隨之產(chǎn)生,它被質(zhì)疑減少了用戶廣泛接觸各類信息的機(jī)會,剝奪了用戶平等獲取信息的權(quán)利。
反觀信息推送在2016年美國總統(tǒng)競選中所發(fā)揮的作用:在競選過程中存在著數(shù)量巨大的政治機(jī)器人,它們被用于在社交媒體傳播錯誤信息和虛假新聞。此種高度精密的技術(shù)將會通過大數(shù)據(jù)分析和人工智能技術(shù)判斷和預(yù)測每個(gè)選民的關(guān)注重點(diǎn),而針對性地分發(fā)對應(yīng)的具有煽動性的內(nèi)容,有針對性地制造輿論假象,進(jìn)而惡意引導(dǎo)民意??梢愿Q見,人工智能的法律治理已迫在眉睫。
本文正文分為三部分進(jìn)行論述。部分介紹兩個(gè)基本問題,人工智能的含義及人工智能現(xiàn)有網(wǎng)絡(luò)安全問題的剖析,在這部分我們試圖從側(cè)重實(shí)用與技術(shù)落地的角度,對人工智能做一個(gè)更加具體化的界定。
第二部分,以智能硬件、智能網(wǎng)聯(lián)汽車以及物聯(lián)網(wǎng)為示例,分別對其系統(tǒng)安全的關(guān)鍵問題進(jìn)行分析,提煉出具有共通性的人工智能系統(tǒng)安全風(fēng)險(xiǎn)要素,找到法律治理的切入點(diǎn)。
第三部分,通過將人工智能系統(tǒng)安全問題融入既有網(wǎng)絡(luò)安全法律框架,就核心問題具體分析,而提出在網(wǎng)絡(luò)安全法律體系的落實(shí)建議。
02、人工智能的含義試析
1955年,John McCarthy首先提出 Artificial Intelligence一詞,起初關(guān)于Artificial Intelligence的設(shè)想是:通過將人類的學(xué)習(xí)行為及其他智力主導(dǎo)行為進(jìn)行解構(gòu)分析,從而將人類智能地描述出來,繼而在機(jī)器上構(gòu)建與人類智能相類似的智能,因此被稱為人工智能。
目前關(guān)于人工智能的含義劃定仍未有定論,在此引用人工智能專業(yè)教科書關(guān)于人工智能的定義,在該定義中,人工智能被描述為一種計(jì)算機(jī)系統(tǒng),它包含以下特質(zhì):
(1)具備能夠像人類一樣思考的潛力,例如可以識別架構(gòu)和神經(jīng)網(wǎng)絡(luò);
(2)與人類行為相似,可以借助自然語言處理并通過圖靈測試,進(jìn)行自動推理和學(xué)習(xí);
(3)能夠進(jìn)行理性思考,例如邏輯運(yùn)算,推理和優(yōu)化;
(4)具備行為理性,例如通過感知、規(guī)劃、推理、學(xué)習(xí)、交流、決策和行動來實(shí)現(xiàn)目標(biāo)。
現(xiàn)階段人工智能技術(shù)從本質(zhì)來說屬于計(jì)算機(jī)技術(shù)的一種,因此準(zhǔn)確理解人工智能算法與系統(tǒng)和普通計(jì)算機(jī)程序運(yùn)行的核心區(qū)別則成為了理解人工智能技術(shù)的關(guān)鍵。
我們說當(dāng)今的人工智能算法和系統(tǒng)或多或少都有一個(gè)特質(zhì):它們可以通過外界設(shè)定的一個(gè)輸出目標(biāo),由計(jì)算機(jī)程序自動尋找方法完成任務(wù),輸出成果,而不同于傳統(tǒng)程序編程,需要工程師對輸出結(jié)果的每一個(gè)相關(guān)參數(shù)進(jìn)行設(shè)計(jì)。
例如,圖像神經(jīng)網(wǎng)絡(luò)如何學(xué)會識別貓,通常需要將標(biāo)注好貓的圖片輸入圖像識別人工智能系統(tǒng),系統(tǒng)會自行學(xué)習(xí)所有圖片中貓的特點(diǎn),進(jìn)而獲取辨識貓的能力,然而機(jī)器依賴辨識的特征可能是不具有任何人類知識含義的,因此其決策的過程及原理難以被人們所理解。
人工智能的應(yīng)用復(fù)雜多樣,究其原因,首先是因?yàn)槿斯ぶ悄芩惴ê拖到y(tǒng)可以內(nèi)嵌至各類應(yīng)用場景及解決方案之中;其次,在實(shí)操層面人們無法劃定什么是人工智能、什么不屬于人工智能的分界線,例如由人工智能研究者研發(fā)的處理大量數(shù)據(jù)的技術(shù),現(xiàn)在被定義為大數(shù)據(jù)技術(shù);在面對一個(gè)尚未解決的問題時(shí),人們通常認(rèn)為需要人工智能算法解決問題,然而一旦該解決方案被廣泛接受后,這套解決方案則會被認(rèn)為是常規(guī)的數(shù)據(jù)處理流程。
談及人工智能的法律治理,在結(jié)合人工智能技術(shù)特點(diǎn)的基礎(chǔ)上,針對具體的應(yīng)用類型制定針對性法律治理方案意義重大。值得注意的是,人工智能在現(xiàn)階段的應(yīng)用突出表現(xiàn)在兩個(gè)層面:
(1)算法及系統(tǒng)層面的應(yīng)用,也即具體的人工智能算法和軟件、解決方案等,如圖像識別、語音識別、信息推送應(yīng)用的用戶畫像技術(shù)、金融領(lǐng)域的智能投顧技術(shù)等,它們可以幫助人們在短時(shí)間內(nèi)處理人力所不能及的大量數(shù)據(jù),并輔助預(yù)測、決策。
(2)硬件和基礎(chǔ)設(shè)施層面的應(yīng)用,如機(jī)器人、自動駕駛汽車、無人機(jī)、智能硬件等,這類應(yīng)用將硬件與人工智能算法和系統(tǒng)進(jìn)行融合,賦予硬件以更高的智能。智能硬件廣泛協(xié)同后,形成物聯(lián)網(wǎng)(Internet of things),可用以打造特定行業(yè)網(wǎng)絡(luò)神經(jīng),成為基礎(chǔ)設(shè)施的重要組成部分。
綜上,鑒于人工智能算法與系統(tǒng)的特點(diǎn),考慮到人工智能應(yīng)用場景,可以認(rèn)為人工智能衍生的安全風(fēng)險(xiǎn)集中于以下三個(gè)層面:
首先,在系統(tǒng)安全的風(fēng)險(xiǎn)層面,廣泛互聯(lián)的物聯(lián)網(wǎng),智能硬件的系統(tǒng)漏洞、基礎(chǔ)安全技術(shù)缺失以及復(fù)雜的供應(yīng)鏈條帶來的歸責(zé)困境為系統(tǒng)安全的監(jiān)管帶來挑戰(zhàn)。
其次,在算法透明度與可解釋性的風(fēng)險(xiǎn)層面,人工智能算法的自動化學(xué)習(xí)與決策的過程、無法吸納人類知識的缺陷、機(jī)器學(xué)習(xí)依據(jù)的海量數(shù)據(jù)帶來的不確定性等,使得算法的決策過程和決策規(guī)則難以被人類明確知悉,由此引發(fā)人工智能算法的可解釋性和透明度缺失隱患。
后,在數(shù)據(jù)使用和隱私保護(hù)的風(fēng)險(xiǎn)層面,原有數(shù)據(jù)使用和個(gè)人信息使用和保護(hù)機(jī)制面臨失效的困境,例如在物聯(lián)網(wǎng)中巨大量級的用戶數(shù)據(jù)在各個(gè)設(shè)備和系統(tǒng)之間傳輸共享非常頻繁,如要獲取用戶的同意確認(rèn),將帶來大量的時(shí)間消耗并且不具備可操作性。同時(shí)引起創(chuàng)建數(shù)據(jù)收集與使用新規(guī)的探索,如機(jī)器學(xué)習(xí)的訓(xùn)練數(shù)據(jù)的收集是否可以擊穿隱私數(shù)據(jù)收集小化原則和使用的必要性原則等。