ARTICLES
專業(yè)文章
觀察 • 人工智能引發(fā)的隱私與數(shù)據(jù)保護風險
?
一.
背景
?
人工智能("Artificial Intelligence"或"AI")是關(guān)于如何讓機器實現(xiàn)人類智能的計算機科學。[1]人工智能在生產(chǎn)、生活中的應用已十分廣泛,如無人工廠、智慧出行、自動駕駛等。人工智能表現(xiàn)出的超級算力已嘆為觀止,如2016年谷歌的AlphaGo連勝韓國圍棋棋手李世石。人類在驚嘆人工智能超級能力和效率的同時也面臨人工智能對傳統(tǒng)社會分工、法律關(guān)系乃至倫理帶來的沖擊。例如,2016年谷歌無人駕駛汽車在美國加州發(fā)生嚴重車禍,2020年疫情期間日本的人形機器人產(chǎn)品"陪伴機器人"受到追捧,2021年6月15日清華大學計算機系主創(chuàng)的虛擬學生"華智冰"正式入學等現(xiàn)象。只有了解人工智能的安全風險、隱私風險和倫理風險,對人工智能保持敬畏之心,才能科學地發(fā)展和利用人工智能。
?
目前,我國已開啟有關(guān)人工智能的立法進程,敦促和規(guī)范人工智能發(fā)展。2017年國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,我國人工智能發(fā)展的戰(zhàn)略目標分三步走。具體而言,第一步即到2020年"部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立";第二步即到2025年"初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力";第三步即到2030年"建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系"。針對人工智能倫理,我國也出臺了《網(wǎng)絡(luò)安全標準實踐指南—人工智能倫理安全風險防范指引》,為組織或個人開展人工智能研究開發(fā)、設(shè)計制造、部署應用等相關(guān)活動提供指引。在未來,對于人工智能的立法將會更加豐富,我國將會建立起更加全方位、多主體的人工智能法律體系。本篇主要從人工智能引發(fā)的隱私風險和數(shù)據(jù)保護風險角度對人工智能的發(fā)展作出冷思考。
?
二.
人工智能引發(fā)的隱私風險
?
人工智能的技術(shù)核心主要包括數(shù)據(jù)和算法,這意味著人工智能水平越高,越需要大數(shù)據(jù)喂養(yǎng),還需要算法不斷練習。這些數(shù)據(jù)很可能包含大量個人信息,而個人信息中的隱私信息一旦泄露,則會造成難以估量的后果。具體而言,人工智能技術(shù)引發(fā)的隱私風險體現(xiàn)在以下幾個方面:
?
?
1、人工智能使私密空間處于監(jiān)控之下
?
人工智能技術(shù)的入侵會模糊私密空間的邊界,使原本私密的空間處于監(jiān)控之下。人工智能的應用場景決定了它本身需要獲取大量的隱私信息。各種人工智能產(chǎn)品,小到可穿戴的智能設(shè)備(如智能手環(huán)),大到無人駕駛汽車,其裝載的攝像裝置、傳感裝置、語音錄取裝置等,都需要進入個人的私密空間甚至人體,才能收集、記錄個人的行為、表征、軌跡、偏好并通過運算發(fā)出指令。因此,在多數(shù)場景下人工智能天然與隱私密不可分。
?
例如,自動駕駛場景下,車輛不僅要收集車外數(shù)據(jù)還需要收集車內(nèi)數(shù)據(jù),包括駕駛者的生理信息、語音和視頻。而車內(nèi)通常是個人的私密空間,人工智能將原本私密的空間變?yōu)閿?shù)據(jù)收集場所,導致個人長期處于監(jiān)控之下。如果被不當使用,人工智能設(shè)備將成為強大的窺探隱私的工具。
?
?
2、人工智能設(shè)備成為"隱私設(shè)置"的載體
?
有些人工智能設(shè)備本身就包含了隱私設(shè)置。例如,未來可能將在人們的生活中扮演重要角色的社交型機器人,它們?yōu)閭€人提供陪伴、聊天、學習以及看護等服務(wù)。為了使社交型機器人更了解用戶從而實現(xiàn)高度智能的交互功能,用戶需要對其完成初始"隱私設(shè)置(setting privacy)",包括輸入生理信息、行為偏好、興趣偏好等各種隱私信息。不僅如此,隨著與社交型機器人交互的不斷深入,個人將逐漸展現(xiàn)其最為私密的心理屬性(psychological attributes)。而社交型機器人則在用戶不設(shè)防的狀態(tài)下通過持續(xù)的信息收集和深度學習掌握到用戶最私密的信息。用戶在使用包含隱私設(shè)置的AI設(shè)備時,需要注意數(shù)據(jù)保護風險。
?
?
3、人工智能使用戶"畫像"更為容易
?
人工智能中的算法經(jīng)常被用于用戶畫像,通過算法對人的隱私作出分析和預測。通過Cookie、Fingerprinting[2]等技術(shù),可以實現(xiàn)個人信息的識別、追蹤與收集。在商業(yè)領(lǐng)域,越來越多的企業(yè)開始收集個人的瀏覽記錄、購買記錄、交易方式等信息,依據(jù)這些信息來分析用戶行為,對網(wǎng)絡(luò)用戶進行用戶畫像和精準營銷。例如在新聞資訊與娛樂領(lǐng)域,抖音、快手、今日頭條等利用算法進行個性化推薦與分發(fā),以提高新聞與娛樂資訊的傳播效率;在電商領(lǐng)域,淘寶、京東等購物網(wǎng)站利用算法對個體進行個性化商品推薦,以大幅促進銷量。但同時,人工智能也成為實施"大數(shù)據(jù)殺熟"和"歧視性定價"的工具。
?
?
4、人工智能造成"信息繭房"(信息牢籠)
?
2006年哈佛大學凱斯·桑斯坦在他的《信息烏托邦》中提出了"信息繭房"概念。桑斯坦指出,在信息傳播中,公眾所接觸的信息是有限的,會選擇自己愉悅的信息,久而久之,會將自身桎梏于像蠶繭一般的"繭房"中,失去思考的能力。個性化推薦本質(zhì)上并不是用戶在主動選擇信息,而是將信息主動推送給用戶。用戶所接觸到的信息要么是奪人眼球的"10萬+",要么局限在他們感興趣的狹小領(lǐng)域,要么就是與他們觀點和意見相一致的"溺愛式"信息。在很大程度上,用戶被算法所提供的信息"喂養(yǎng)",沉浸在算法制造的信息繭房/牢籠里,久而久之喪失獨立思考能力。
?
不僅如此,基于算法的精準推送還剝奪了用戶不被打擾的權(quán)利,即隱私的權(quán)利。美國隱私權(quán)先驅(qū)薩繆爾·沃(Samuel War- ren)和路易斯·布蘭迪斯(Louis Brandeis)就在其名作《隱私權(quán)》一文中提出,隱私權(quán)是人們享受獨處的權(quán)利(right to be alone)。筆者理解在一定程度上,精準推送剝奪了用戶選擇信息和不被打擾的權(quán)利,是一種新型的侵犯隱私方式。
?
三.
人工智能技術(shù)引發(fā)的數(shù)據(jù)保護風險
?
從數(shù)據(jù)保護角度來看,人工智能是一種數(shù)據(jù)處理活動。人工智能算法尤其是在深度學習過程中,需要大量數(shù)據(jù)樣本和算法練習。但如果數(shù)據(jù)被污染、泄露、濫用,則不僅會影響輸出結(jié)果,還可能危及人身財產(chǎn)安全、社會經(jīng)濟秩序甚至國家安全。因此,在人工智能數(shù)據(jù)的收集、存儲、使用、分享、傳輸、銷毀方面都需要有法可依,有章可循。
?
?
1、"數(shù)據(jù)污染"影響人工智能決策的準確性
?
人工智能需要處理大量數(shù)據(jù),因此數(shù)據(jù)質(zhì)量直接決定了人工智能的效率。數(shù)據(jù)質(zhì)量低下表現(xiàn)為"數(shù)據(jù)污染"和"數(shù)據(jù)偏差"。數(shù)據(jù)污染是指數(shù)據(jù)與人工智能算法不適配,從而導致算法模型訓練成本增加甚至失效,本質(zhì)是數(shù)據(jù)質(zhì)量治理問題。數(shù)據(jù)偏差是指人工智能算法決策中所使用的訓練數(shù)據(jù),因地域數(shù)字化發(fā)展不平衡或社會價值的傾向偏見,使得數(shù)據(jù)所承載的信息帶有難以用技術(shù)手段消除的偏差,從而導致人工智能的決策結(jié)果帶有歧視性。例如,在金融征信、醫(yī)療教育和在線招聘領(lǐng)域,可能會因邊遠地區(qū)、弱勢群體和少數(shù)族裔的數(shù)據(jù)量不足、數(shù)據(jù)質(zhì)量不高等原因,導致自動化決策的準確率會基于人群特征形成明顯的分化,從而產(chǎn)生實質(zhì)性的歧視影響。此外,若污染數(shù)據(jù)被用于政黨競選和政治宣傳,則可能對政治生活產(chǎn)生極大沖擊。
?
?
2、"數(shù)據(jù)投毒"帶來人工智能決策的攻擊性
?
除了客觀原因,數(shù)據(jù)質(zhì)量也可能因惡意干預而出問題。"數(shù)據(jù)投毒"是指人為在數(shù)據(jù)中添加異常數(shù)據(jù)或篡改數(shù)據(jù),通過破壞原有訓練數(shù)據(jù)導致模型輸出錯誤結(jié)果,從而引發(fā)人工智能的決策偏差或錯誤,最終產(chǎn)生惡意攻擊者所期待的結(jié)果。在自動駕駛、智能工廠等對實時性要求極高的人工智能場景中,數(shù)據(jù)投毒對人工智能核心模塊產(chǎn)生的定向干擾將會直接擴散到智能設(shè)備終端(如智能駕駛汽車的剎車裝置、智能工廠的溫度分析裝置等),從而產(chǎn)生攻擊人身、財產(chǎn)的可怕后果。
?
?
3、人工智能引發(fā)的數(shù)據(jù)爭奪導致數(shù)據(jù)壁壘
?
由于人工智能的發(fā)展依靠大量數(shù)據(jù)的喂養(yǎng),企業(yè)紛紛展開數(shù)據(jù)爭搶。對于底層數(shù)據(jù)資源的競爭是人工智能企業(yè)最關(guān)鍵的市場競爭力體現(xiàn)。在這種情況下,企業(yè)、機構(gòu)間不愿意共享、流通數(shù)據(jù),而導致形成"信息壁壘"。而信息壁壘一定程度上阻礙了那些迫切需要大量數(shù)據(jù)來提升AI技術(shù)、增進人民福祉的企業(yè)或機構(gòu)的發(fā)展。以醫(yī)療數(shù)據(jù)為例,醫(yī)療行業(yè)的數(shù)據(jù)對于提高診療效率、優(yōu)化診療方案、促進臨床試驗等有舉足輕重的地位,因而成為醫(yī)院、藥品企業(yè)、藥械企業(yè)爭搶的對象。政府與企業(yè)之間、大企業(yè)與小企業(yè)之間、行業(yè)與行業(yè)之間,因數(shù)據(jù)確權(quán)、數(shù)據(jù)安全等問題存在著諸多法律和技術(shù)上的數(shù)據(jù)壁壘,形成了"數(shù)據(jù)孤島"。不僅極大制約了人工智能的發(fā)展,也成為滋生數(shù)據(jù)黑產(chǎn)的主要經(jīng)濟動因。成熟的醫(yī)療數(shù)據(jù)要素市場尚未形成,數(shù)據(jù)合法、便捷、安全、低成本的交易流通機制仍是空白,這遠遠無法滿足醫(yī)療行業(yè)對于數(shù)據(jù)資源的需求,因此部分企業(yè)只能鋌而走險,違規(guī)購買或違規(guī)收集數(shù)據(jù)??梢?,一方面AI需要大數(shù)據(jù)支撐,另一方面帶來數(shù)據(jù)爭奪。因此,AI的發(fā)展需要安全、有序的數(shù)據(jù)分享機制,否則反而會阻礙數(shù)據(jù)流動形成數(shù)據(jù)孤島。
?
?
4、無差別數(shù)據(jù)收集可能危害國家安全
?
在人工智能技術(shù)研發(fā)和場景應用中均需要常態(tài)化、持續(xù)性、高速率、低延時的跨境數(shù)據(jù)流動?,F(xiàn)場無差別收集是人工智能數(shù)據(jù)采集的重要方式,廣泛應用于無人駕駛、智能家居、智慧城市等場景中。其主要通過在公開環(huán)境中部署各類傳感器或采集終端,以環(huán)境信息為對象進行無差別、不定向的現(xiàn)場實時采集。
?
比如在智能網(wǎng)聯(lián)汽車的無人駕駛場景中,自動駕駛汽車的傳感器需要采集街景數(shù)據(jù)來支持智能駕駛系統(tǒng)的決策從而控制汽車行駛。但是這種無差別的街景數(shù)據(jù)采集必然會采集到行人的個人數(shù)據(jù),甚至可能會采集到路邊的重要基礎(chǔ)設(shè)施分布、軍事營區(qū)等重要數(shù)據(jù)從而給國家安全帶來風險。而且在智能網(wǎng)聯(lián)汽車領(lǐng)域,智能汽車產(chǎn)生的路況、地圖、車主信息等大量數(shù)據(jù)可能回傳至汽車制造商的境外服務(wù)器,進行產(chǎn)品優(yōu)化升級和售后服務(wù)支撐。如果沒有經(jīng)過數(shù)據(jù)出境安全評估或網(wǎng)絡(luò)安全審查,則可能帶來個人敏感數(shù)據(jù)和重要數(shù)據(jù)出境后的安全風險。這種人工智能應用引發(fā)的跨境數(shù)據(jù)流動,不僅因各國日益趨嚴的數(shù)據(jù)安全規(guī)制和本地化要求而面臨極大的法律障礙,更可能對國家安全、數(shù)據(jù)主權(quán)帶來挑戰(zhàn)。
?
?· 總結(jié) ·?
在人工智能技術(shù)高速發(fā)展的當下,我們既要看到其對生產(chǎn)、生活帶來的有利影響,也要注意到其帶來的隱私與數(shù)據(jù)風險。歸根結(jié)底,此類風險的大小取決于人工智能的技術(shù)能力、使用意圖和價值取向。因此,有必要通過立法規(guī)制人工智能的發(fā)展,提高人工智能的安全性,增強技術(shù)自身的"免疫功能"。同時也要對人工智能進行安全、倫理上的限制,建立起全方位的、由政府、企業(yè)、個人多方參與的人工智能法律體系。人類需要認識到不了解人工智能風險就不能真正了解人工智能。
?
[注]?