ARTICLES
專業(yè)文章
一文透視《生成式人工智能服務(wù)管理辦法(征求意見稿)》
?
一、引言
?
?
在人工智能技術(shù)日新月異的今天,如何促進其健康發(fā)展和規(guī)范應(yīng)用,成為了一個亟待解決的問題。特別在ChatGPT應(yīng)用場景落地,大模型技術(shù)廣泛受到關(guān)注的當(dāng)下,主要國家的監(jiān)管機構(gòu)對生成式人工智能給予了充分關(guān)注和對應(yīng)的監(jiān)管要求。2023年4月11日,國家網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《辦法》)。從《辦法》整體上看,其與《個人信息保護法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等法律法規(guī)緊密相關(guān),為我國人工智能、算法等相關(guān)產(chǎn)業(yè)的發(fā)展提供了更為明確的監(jiān)管指導(dǎo)。本文將對該辦法中的法條進行逐一解讀,希望能夠幫助讀者更好地理解這一重要文件。
?
二、法條評議
?
?
1. 上位法依據(jù)
?
第一條 為促進生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī),制定本辦法。
?
筆者觀點:
?
《辦法》第一條明確了其上位法為數(shù)據(jù)安全領(lǐng)域的三架馬車——《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》以及《個人信息保護法》。
?
在此框架下,本《辦法》將與此前網(wǎng)信辦發(fā)布的兩部算法管理規(guī)定(《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》)以及科技部近期發(fā)布的《科技倫理審查辦法(試行)》(征求意見稿),共同構(gòu)成了人工智能行業(yè)的主要合規(guī)法律依據(jù)和監(jiān)管抓手。
?
2. 適用范圍
?
第二條 研發(fā)、利用生成式人工智能產(chǎn)品,面向中華人民共和國境內(nèi)公眾提供服務(wù)的,適用本辦法。
?
本辦法所稱生成式人工智能,是指基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。
?
筆者觀點:
?
《辦法》對生成式人工智能界定為基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。與之較為接近的概念是《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》的監(jiān)管對象,“深度合成技術(shù)"。對比之下,《辦法》所稱的生成式人工智能將不局限于利用算法技術(shù),還可以基于模型、規(guī)則生成相關(guān)內(nèi)容,其適用范圍更為廣泛。
?
此外,“面向中華人民共和國境內(nèi)公眾"的劃定方法表明無論AIGC公司的存在實體位于何處,只要其支持境內(nèi)用戶使用,均會被納入監(jiān)管規(guī)定。以ChatGPT為例,目前正在嚴(yán)厲打擊來自中國大陸地區(qū)的賬號注冊、使用其服務(wù),不排除是避免中國法律管轄的先手。
?
另外,《辦法》有可能不僅管轄“直接面向",而且也涵蓋“間接面向",即如果一款A(yù)IGC產(chǎn)品的服務(wù)對象并非直接對“公眾",而是對特定的國內(nèi)企業(yè)用戶,甚至為定制化開發(fā)產(chǎn)品,不排除被納入監(jiān)管的可能(需要正式稿進一步解釋)。
?
3. 鼓勵人工智能創(chuàng)新發(fā)展
?
第三條 國家支持人工智能算法、框架等基礎(chǔ)技術(shù)的自主創(chuàng)新、推廣應(yīng)用、國際合作,鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源。
?
筆者觀點:
?
我國對人工智能一直持鼓勵發(fā)展的態(tài)度:國務(wù)院曾于2017年印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,提出了人工智能發(fā)展的戰(zhàn)略目標(biāo);2022年,科技部等六部門印發(fā)了《關(guān)于加快場景創(chuàng)新以人工智能高水平應(yīng)用促進經(jīng)濟高質(zhì)量發(fā)展的指導(dǎo)意見》,明確提出鼓勵在重點行業(yè)深入挖掘人工智能技術(shù)應(yīng)用場景。本次是國家宏觀指導(dǎo)政策首次進入法規(guī)層面。
?
此外,《辦法》進一步明確“鼓勵優(yōu)先采用安全可信的軟件、工具、計算和數(shù)據(jù)資源"。安全可信的網(wǎng)絡(luò)產(chǎn)品和服務(wù)是《關(guān)鍵信息基礎(chǔ)設(shè)施安全保護條例》《網(wǎng)絡(luò)數(shù)據(jù)安全管理條例(征求意見稿)》對于關(guān)鍵信息基礎(chǔ)設(shè)施運營者和重要數(shù)據(jù)處理者的強制要求,雖然《辦法》的口徑為“鼓勵"宣貫,但未來相關(guān)監(jiān)管是否會對如何判斷網(wǎng)絡(luò)產(chǎn)品和服務(wù)的安全可信發(fā)布系列規(guī)則或者參考標(biāo)準(zhǔn),尚待進一步觀察。
?
4. 合規(guī)要求
?
第四條 提供生成式人工智能產(chǎn)品或服務(wù)應(yīng)當(dāng)遵守法律法規(guī)的要求,尊重社會公德、公序良俗,符合以下要求:
?
(一)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀,不得含有顛覆國家政權(quán)、推翻社會主義制度,煽動分裂國家、破壞國家統(tǒng)一,宣揚恐怖主義、極端主義,宣揚民族仇恨、民族歧視,暴力、淫穢色情信息,虛假信息,以及可能擾亂經(jīng)濟秩序和社會秩序的內(nèi)容。
?
(二)在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。
?
(三)尊重知識產(chǎn)權(quán)、商業(yè)道德,不得利用算法、數(shù)據(jù)、平臺等優(yōu)勢實施不公平競爭。
?
(四)利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,采取措施防止生成虛假信息。
?
(五)尊重他人合法利益,防止傷害他人身心健康,損害肖像權(quán)、名譽權(quán)和個人隱私,侵犯知識產(chǎn)權(quán)。禁止非法獲取、披露、利用個人信息和隱私、商業(yè)秘密。
?
筆者觀點:
?
對于AIGC內(nèi)容安全的監(jiān)管占據(jù)《辦法》過半篇幅。第四條為對《網(wǎng)絡(luò)安全法》第十二條[1]的強調(diào)和延伸,結(jié)合當(dāng)下人工智能、算法的應(yīng)用特征對生成式AIGC產(chǎn)品或服務(wù)提出了如下合規(guī)要求:
?
1)內(nèi)容合規(guī)
?
一是利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀。
?
二是利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準(zhǔn)確,并且要求提供者采取措施防止生成虛假信息。
?
就本條而言,問題之一是如何理解“虛假信息"?一方面,部分生成式人工智能生成內(nèi)容,例如人工智能創(chuàng)作的文章、圖片、視頻本就屬于“不真實內(nèi)容",這是生成式人工智能本身的服務(wù)之一,如果強行要求人工智能生成內(nèi)容必須真實準(zhǔn)確則與該技術(shù)初衷不相符。另一方面,當(dāng)前人工智能技術(shù)尚在發(fā)展階段,單就技術(shù)而言,人工智能生成內(nèi)容天然難以保證百分百真實準(zhǔn)確。如果僅因為內(nèi)容錯誤或者不完全而導(dǎo)致內(nèi)容不準(zhǔn)確,是否也構(gòu)成“虛假信息"?因此“虛假信息"的范圍有待進一步釋明和細(xì)化。
?
問題之二是如何理解提供者的義務(wù)?基于前文分析,人工智能生成內(nèi)容本身可能“不真實"或者“不準(zhǔn)確",《辦法》即通過為提供者附加“采取措施防止生成虛假信息"的方式來補齊技術(shù)層面的缺陷。此外,該規(guī)定也與《辦法》第五條明確的提供者需承擔(dān)生成內(nèi)容生產(chǎn)者責(zé)任相呼應(yīng)。那么提供者應(yīng)當(dāng)采取的措施范圍為何?是否需要對人工智能生成內(nèi)容進行一一實質(zhì)審核?如是,那么附加給提供者的合規(guī)義務(wù)太重且無法落地實踐。如否,那么又如何保證內(nèi)容的真實準(zhǔn)確性?因此提供者應(yīng)采取的措施也有待進一步細(xì)化。
?
2)禁止算法歧視
?
禁止算法歧視作為算法合規(guī)的原則之一,除了在電商領(lǐng)域有具體規(guī)定外,并未有進一步的細(xì)化。本次《辦法》將禁止算法歧視規(guī)則應(yīng)用于算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等各個環(huán)節(jié),并進一步細(xì)化可能造成歧視的因素,其與默認(rèn)和設(shè)計的個人信息保護原則(Privacy by design & default)的思路如出一轍。
?
3)不得實施不公平競爭
?
此前《反不正當(dāng)競爭法》(修訂草案征求意見稿)、《反壟斷民事訴訟司法解釋》以及四部反壟斷配套法規(guī)均對利用數(shù)據(jù)、算法、平臺優(yōu)勢實施不正當(dāng)競爭行為或者壟斷行為進行了規(guī)制。本次《辦法》亦吸收了反法關(guān)于數(shù)據(jù)、算法的規(guī)定,體現(xiàn)了對數(shù)字時代基于算法合規(guī)問題的回應(yīng)。
?
4)不得侵犯他人合法權(quán)益
?
生成式人工智能的風(fēng)險之一就是可能會侵犯他人的合法權(quán)益,例如AI換臉技術(shù)導(dǎo)致的肖像權(quán)、名譽權(quán)和個人隱私侵權(quán)問題。此外,基于訓(xùn)練算法而產(chǎn)生的數(shù)據(jù)處理大量需求,在實踐中企業(yè)主要是利用網(wǎng)絡(luò)上公開的數(shù)據(jù)進行算法訓(xùn)練,因此亦存在侵犯他人知識產(chǎn)權(quán)或數(shù)據(jù)權(quán)屬的風(fēng)險?;诖?,《辦法》提出了不得侵犯他人合法性權(quán)益的原則性要求。
?
5. 提供者的主體責(zé)任
?
第五條 利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務(wù)的組織和個人(以下稱“提供者"),包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔(dān)該產(chǎn)品生成內(nèi)容生產(chǎn)者的責(zé)任 ;涉及個人信息的,承擔(dān)個人信息處理者的法定責(zé)任,履行個人信息保護義務(wù)。
?
筆者觀點:
?
《辦法》第五條將通過提供可編程接口等方式支持他人自行生成相關(guān)內(nèi)容的主體也劃定為生成內(nèi)容生產(chǎn)者,并未包含服務(wù)使用者的身份。
?
首先從技術(shù)層面看,提供AIGC功能而不實際參與制作、復(fù)制、發(fā)布相關(guān)人工智能生成內(nèi)容的主體是否有能力完全控制服務(wù)使用者生成的內(nèi)容尚存在一定疑問;其次,如果僅提供API接口的主體也被劃歸到本《辦法》下提供者的界定范圍下,第二條適用范圍中關(guān)于產(chǎn)品或服務(wù)面向公眾的適用范圍也將被擴大,“間接面向"的適用可能得到證實;再次,參考《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》的定義,網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者是指制作、復(fù)制、發(fā)布網(wǎng)絡(luò)信息內(nèi)容的組織或者個人,本條規(guī)定也在一定程度上對《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》進行了突破。
?
此外,就提供者承擔(dān)生成內(nèi)容生產(chǎn)者責(zé)任而言,除了對違法違規(guī)內(nèi)容承擔(dān)責(zé)任外,是否也對侵犯他人知識產(chǎn)權(quán)等合法權(quán)益的行為承擔(dān)法律責(zé)任?如是,根據(jù)權(quán)利義務(wù)對等原則,提供者也可對人工智能生成內(nèi)容享有一定的權(quán)利或權(quán)益。再進一步,此時提供者與用戶(生成式人工智能使用者)就生成內(nèi)容的法律關(guān)系亦待進一步明確。
?
再者,僅提供API接口的AIGC服務(wù)提供者如果需要承擔(dān)個人信息處理者的法定責(zé)任,這意味著其將自行決定或者至少與服務(wù)使用者共同決定AIGC服務(wù)過程所涉及的個人信息的處理目的和處理方式,實質(zhì)上排除了更為常見的受托處理或者僅提供技術(shù)支持(完全不接觸個人信息)的場景。這無疑于與現(xiàn)有法律規(guī)定存在一定沖突。
?
6. 申報安全評估與算法備案
?
第六條 利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)按照《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》向國家網(wǎng)信部門申報安全評估,并按照《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》履行算法備案和變更、注銷備案手續(xù)。
?
筆者觀點:
?
《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》為2018年網(wǎng)信辦聯(lián)合公安部發(fā)布的一項重要制度。此前對該備案義務(wù)的解讀通常局限于論壇、博客、微博客、聊天室、通訊群組、公眾賬號、短視頻、網(wǎng)絡(luò)直播、信息分享、小程序等信息服務(wù)提供者,且沒有公開的處罰報道,因此并未引起廣泛重視。本《辦法》再次提出安全評估申報要求,將前述規(guī)定帶回大眾視野,不難理解未來安全評估和算法備案將成為AIGC產(chǎn)品的入市門檻。
?
雖然《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務(wù)安全評估規(guī)定》與《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》將申報安全評估以及算法備案的范圍限于“具有輿論屬性或者社會動員能力"的情形,但根據(jù)我們的經(jīng)驗以及與相關(guān)監(jiān)管機構(gòu)的溝通,“具有輿論屬性或者社會動員能力"并非以效果論,而是以渠道的可能性為判定標(biāo)準(zhǔn)。因此對于生成式AIGC產(chǎn)品提供者而言,無論其是否屬于“具有輿論屬性或者社會動員能力"的情形,均需要完成安全評估申報以及算法備案。
?
此外,需要監(jiān)管機構(gòu)進一步澄清的是,如果僅通過API接口提供AIGC產(chǎn)品或服務(wù)的提供者已經(jīng)完成了備案,將該等技術(shù)包裝進其最終產(chǎn)品并面向終端用戶提供服務(wù)的使用者是否也需要完成備案?
?
7. 訓(xùn)練數(shù)據(jù)來源合法性要求
?
第七條 提供者應(yīng)當(dāng)對生成式人工智能產(chǎn)品的預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé)。
?
用于生成式人工智能產(chǎn)品的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練數(shù)據(jù),應(yīng)滿足以下要求:
?
(一)符合《中華人民共和國網(wǎng)絡(luò)安全法》等法律法規(guī)的要求;
?
(二)不含有侵犯知識產(chǎn)權(quán)的內(nèi)容;
?
(三)數(shù)據(jù)包含個人信息的,應(yīng)當(dāng)征得個人信息主體同意或者符合法律、行政法規(guī)規(guī)定的其他情形;
?
(四)能夠保證數(shù)據(jù)的真實性 、準(zhǔn)確性、客觀性、多樣性 ;
?
(五)國家網(wǎng)信部門關(guān)于生成式人工智能服務(wù)的其他監(jiān)管要求。
?
筆者觀點:
?
算法訓(xùn)練的風(fēng)險之一就是數(shù)據(jù)來源的合規(guī)性。有關(guān)預(yù)訓(xùn)練數(shù)據(jù)和優(yōu)化訓(xùn)練數(shù)據(jù)的合規(guī)要求實際已經(jīng)在算法備案流程中以自評估報告的形式提出,由算法備案主體作出答復(fù)即可。而《辦法》以專條的形式明確提供者需要對訓(xùn)練數(shù)據(jù)來源的合法性負(fù)責(zé),或許意味著未來有關(guān)部門對訓(xùn)練數(shù)據(jù)來源合法合規(guī)性的監(jiān)管將更加嚴(yán)格和主動。此外,就數(shù)據(jù)的客觀性、多樣性而言,亦是從源頭防止算法歧視、信息繭房等算法合規(guī)問題的內(nèi)在要求。
?
但值得探討的是,《辦法》用于算法訓(xùn)練的數(shù)據(jù)應(yīng)當(dāng)具備真實性與準(zhǔn)確性,但在實踐中卻存在使用合成類數(shù)據(jù)、人工腦洞數(shù)據(jù)進行算法訓(xùn)練的場景,那么該場景是否屬于違反《辦法》的情形呢?亦或數(shù)據(jù)的真實性與準(zhǔn)確性要求僅限于收集而來的數(shù)據(jù),而不涵蓋合成類數(shù)據(jù)和人工腦洞數(shù)據(jù)?就數(shù)據(jù)真實性、準(zhǔn)確性的范圍與要求,我們希望在正式稿中進行進一步的細(xì)化。
?
8. 產(chǎn)品研制中的標(biāo)注要求
?
第八條 生成式人工智能產(chǎn)品研制中采用人工標(biāo)注時,提供者應(yīng)當(dāng)制定符合本辦法要求,清晰、具體、可操作的標(biāo)注規(guī)則,對標(biāo)注人員進行必要培訓(xùn),抽樣核驗標(biāo)注內(nèi)容的正確性。
?
筆者觀點:
?
《辦法》第八條規(guī)定的標(biāo)注與第十六條規(guī)定的標(biāo)識不同,本條是指在生成式人工智能產(chǎn)品研制中對訓(xùn)練數(shù)據(jù)/訓(xùn)練內(nèi)容進行標(biāo)注,以協(xié)助算法進行學(xué)習(xí)與訓(xùn)練;而第十六條對應(yīng)的是生成內(nèi)容的標(biāo)識。
?
就人工標(biāo)注而言,為了確保標(biāo)注的標(biāo)準(zhǔn)一致、標(biāo)注內(nèi)容正確,《辦法》明確提供者需要制定清晰、具體、可操作的標(biāo)注規(guī)則,同時對標(biāo)注人員進行培訓(xùn)。在標(biāo)注標(biāo)準(zhǔn)一致、標(biāo)注內(nèi)容正確之后,訓(xùn)練的算法模型將具有更高的準(zhǔn)確性,亦是第四條所規(guī)定的人工智能生成內(nèi)容的準(zhǔn)確性在產(chǎn)品研制環(huán)節(jié)的要求。
?
9. 用戶實名認(rèn)證
?
第九條 提供生成式人工智能服務(wù)應(yīng)當(dāng)按照《中華人民共和國網(wǎng)絡(luò)安全法》規(guī)定,要求用戶提供真實身份信息。
?
筆者觀點:
?
“后臺實名,前臺自愿"幾乎已經(jīng)成為所有網(wǎng)絡(luò)服務(wù)的必備要求。本條與《網(wǎng)絡(luò)安全法》《反電信詐騙法》《微博客信息服務(wù)管理規(guī)定》《網(wǎng)絡(luò)短視頻平臺管理規(guī)范》關(guān)于服務(wù)提供者驗證用戶真實身份的要求一脈相承。
?
結(jié)合《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》的相關(guān)規(guī)定,實名認(rèn)證的方式包括移動電話號碼、身份證件號碼、統(tǒng)一社會信用代碼或者國家網(wǎng)絡(luò)身份認(rèn)證公共服務(wù)等。
?
10. 防沉迷設(shè)置
?
第十條 提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群、場合、用途,采取適當(dāng)措施防范用戶過分依賴或沉迷生成內(nèi)容。
?
筆者觀點:
?
為加強對用戶權(quán)益的保護,《辦法》要求提供者應(yīng)當(dāng)明確并公開其服務(wù)的適用人群、場合以及用途,例如區(qū)分未成年人、老年人模式,勞動用途、商業(yè)用途等等。不同場景下提供者的合規(guī)義務(wù)、用戶權(quán)益保護、以及算法倫理要求均可能有所不同,具體的要求仍有待進一步細(xì)化。
?
同時,根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,算法推薦服務(wù)提供者不得設(shè)置誘導(dǎo)用戶沉迷等違反法律法規(guī)或者違背倫理道德的算法模型,因此防止用戶沉迷也是算法倫理的要求之一。未來AIGC產(chǎn)業(yè)可能會參照此前國家重點推行的未成年人防沉迷執(zhí)法專項開展類似的行動。提供者可以采取設(shè)置防沉迷彈窗提示、限制用戶每天使用生成式人工智能服務(wù)的次數(shù)或者時長等措施防止用戶沉迷。此外,提供者亦可對算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果進行定期審核、評估、驗證,確保算法模式符合科技倫理道德。
?
11. 信息留存限制
?
第十一條 提供者在提供服務(wù)過程中,對用戶的輸入信息和使用記錄承擔(dān)保護義務(wù)。不得非法留存能夠推斷出用戶身份的輸入信息,不得根據(jù)用戶輸入信息和使用情況進行畫像,不得向他人提供用戶輸入信息。 法律法規(guī)另有規(guī)定的,從其規(guī)定。
?
筆者觀點:
?
我們理解,輸入信息和使用記錄保護、用戶畫像和信息對外提供限制應(yīng)為《個人信息保護法》《電子商務(wù)法》等位階更高的上位法的應(yīng)有之義,本條并未對提供者作為個人信息處理者或服務(wù)合同提供方提出額外義務(wù)。根據(jù)《個人信息保護法》,個人信息主體的單獨同意可以構(gòu)成用戶畫像和個人信息對外提供合法性基礎(chǔ),即本條規(guī)定的例外情形。但對于何種場景屬于合法留存能夠推斷用戶身份的輸入信息,在標(biāo)準(zhǔn)的劃定上,仍需要企業(yè)在合規(guī)審查中仔細(xì)斟酌。
?
12. 禁止歧視內(nèi)容生成
?
第十二條 提供者不得根據(jù)用戶的種族、國別、性別等進行帶有歧視性的內(nèi)容生成。
?
筆者觀點:
?
本條是對《辦法》第四條中關(guān)于禁止歧視規(guī)定的強調(diào)。第四條對企業(yè)在不同環(huán)節(jié)防止歧視出現(xiàn)設(shè)置了先動作義務(wù):在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,企業(yè)應(yīng)當(dāng)采取措施防止出現(xiàn)種族、民族、信仰、國別、地域、性別、年齡、職業(yè)等歧視。而本條則更加強調(diào)生成結(jié)果。換言之,如果出現(xiàn)歧視性內(nèi)容生成,即便企業(yè)已經(jīng)按照第四條的要求采取了相關(guān)措施,其仍將被依據(jù)本條追責(zé)。
?
此外,絕對禁止任何種族、國別、性別等進行帶有歧視性的內(nèi)容生成可能導(dǎo)致使用AIGC服務(wù)生成的小說、劇本中難見負(fù)面形象角色,削弱了AIGC服務(wù)的透明度和便利度。
?
13. 用戶投訴以及侵權(quán)內(nèi)容處理
?
第十三條 提供者應(yīng)當(dāng)建立用戶投訴接收處理機制,及時處置個人關(guān)于更正、刪除、屏蔽其個人信息的請求;發(fā)現(xiàn)、知悉生成的文本、圖片、聲音、視頻等侵害他人肖像權(quán)、名譽權(quán)、個人隱私、商業(yè)秘密,或者不符合本辦法要求時,應(yīng)當(dāng)采取措施,停止生成,防止危害持續(xù)。
?
筆者觀點:
?
《辦法》第十三條前半句吸收了《個人信息保護法》關(guān)于個人信息主體行權(quán)響應(yīng)的規(guī)則,明確要求提供者應(yīng)當(dāng)建立用戶投訴接收處理機制,及時處置個人關(guān)于更正、刪除、屏蔽其個人信息的請求?!掇k法》第十三條后半句明確了提供者對于生成內(nèi)容可能存在侵犯他人肖像權(quán)、名譽權(quán)、個人隱私、商業(yè)秘密等權(quán)利或權(quán)益,或者存在其他違法情形時,應(yīng)采取措施,停止生成,防止危害持續(xù)。
?
值得注意的是,本條規(guī)定與“避風(fēng)港規(guī)則"不同,提供者并非是基于“通知"而是基于自身“發(fā)現(xiàn)"與“知悉"前述違法內(nèi)容而采取相關(guān)措施,更傾向于“避風(fēng)港規(guī)則"中的例外——“紅旗規(guī)則"。且結(jié)合《辦法》要求提供者承擔(dān)“生成內(nèi)容生產(chǎn)者責(zé)任"的規(guī)定來看,筆者認(rèn)為“發(fā)現(xiàn)、知悉"實際上暗含“應(yīng)當(dāng)知道"。就采取的措施而言,基于“防止危害持續(xù)"的要求,提供者應(yīng)采取必要的措施,在內(nèi)容生成階段停止相關(guān)侵權(quán)或違法內(nèi)容的生成,在內(nèi)容生成之后及時刪除、屏蔽、斷開鏈接,甚至在必要時可以終止服務(wù)。基于此,提供者應(yīng)當(dāng)在現(xiàn)有技術(shù)可行的監(jiān)測和排查的合理范圍內(nèi),對人工智能生成內(nèi)容承擔(dān)更高的注意義務(wù),甚至在內(nèi)容生成階段亦需要進行監(jiān)測與審核。
?
14. 服務(wù)穩(wěn)定性要求
?
第十四條 提供者應(yīng)當(dāng)在生命周期內(nèi),提供安全、穩(wěn)健、持續(xù)的服務(wù),保障用戶正常使用。
?
筆者觀點:
?
本條是對人工智能服務(wù)穩(wěn)定性的要求,其中“生命周期"為生成式人工智能服務(wù)的存續(xù)期間。但是,放眼現(xiàn)有市場,能夠做到“穩(wěn)健服務(wù)"的AIGC產(chǎn)品似乎屈指可數(shù),這一要求的內(nèi)涵需要監(jiān)管部門的進一步解釋,否則未來可能成為引發(fā)用戶和AIGC商家之間訴訟的“導(dǎo)火索"。
?
15.?模型優(yōu)化義務(wù)
?
第十五條 對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成。
?
筆者觀點:
?
關(guān)于生成內(nèi)容的管控包括事前防范和事后處置兩類。事前防范主要以敏感詞內(nèi)容過濾等方式為主,事后處置多為被動響應(yīng)。本條希望通過以彼之矛攻彼之盾的方式,在第四條對生成內(nèi)容真實準(zhǔn)確要求的基礎(chǔ)上,利用算法再訓(xùn)練加深生成內(nèi)容的管控。
?
但本條落地的前提是,提供者足以在三個月內(nèi)解決人工智能的“漏洞",而這對AIGC廠商而言無論從技術(shù)上還是實踐中均為很高的要求。此外,以舉報行為作為觸發(fā)再訓(xùn)練的充分條件可能會對提供者造成巨大的成本負(fù)擔(dān)。
?
16. 標(biāo)識義務(wù)
?
第十六條 提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對生成的圖片、視頻等內(nèi)容進行標(biāo)識。
?
筆者觀點:
?
《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》所規(guī)定的標(biāo)識有兩類:一類為不影響用戶使用的標(biāo)識,通常指水印等溯源標(biāo)識,適用于所有生成內(nèi)容;一類為顯著標(biāo)識,顧名思義需要達到一般公眾顯著提示的程度。顯著標(biāo)識僅適用于可能導(dǎo)致公眾混淆或者誤認(rèn)的場景,例如智能對話、智能寫作、合成人聲、仿聲、人臉生成、人臉替換、人臉操控、姿態(tài)操控,以及沉浸式擬真場景等。
?
我們理解本條所規(guī)定的標(biāo)識義務(wù)應(yīng)為后者,且是對《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中顯著標(biāo)識義務(wù)的擴大適用,即無論是否導(dǎo)致公眾混淆,生成式AIGC產(chǎn)品或服務(wù)均需顯著標(biāo)識。
?
17. 信息披露義務(wù)
?
第十七條 提供者應(yīng)當(dāng)根據(jù)國家網(wǎng)信部門和有關(guān)主管部門的要求,提供可以影響用戶信任、選擇的必要信息,包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量等描述,人工標(biāo)注規(guī)則,人工標(biāo)注數(shù)據(jù)的規(guī)模和類型,基礎(chǔ)算法和技術(shù)體系等。
?
筆者點評:
?
此條規(guī)定為行政機關(guān)主動、提前介入公司的技術(shù)開發(fā)提供了法律依據(jù)。此前,針對算法服務(wù)提供者提供相關(guān)算法說明材料的要求僅限于算法備案場景,且備案主體能夠控制所提交信息的顆粒度。本條是對此前被動監(jiān)管思路的一種轉(zhuǎn)變,即網(wǎng)信部門和主管部門擁有行政權(quán)力去獲取更多的人工智能開發(fā)系統(tǒng)的有關(guān)信息。從另一面看,未來如何劃定保護企業(yè)商業(yè)秘密與信息披露義務(wù)之間的紅線,確實值得立法部門進一步的澄清。
?
18. 用戶教育義務(wù)
?
第十八條 提供者應(yīng)當(dāng)指導(dǎo)用戶科學(xué)認(rèn)識和理性使用生成式人工智能生成的內(nèi)容,不利用生成內(nèi)容損害他人形象、名譽以及其他合法權(quán)益,不進行商業(yè)炒作、不正當(dāng)營銷。
?
用戶發(fā)現(xiàn)生成內(nèi)容不符合本辦法要求時,有權(quán)向網(wǎng)信部門或者有關(guān)主管部門舉報。
?
筆者點評:
?
本條作為宣示性規(guī)定要求提供者負(fù)有教育用戶的義務(wù)。從實踐中,我們認(rèn)為該等義務(wù)的落地有極大可能是以雜糅進平臺規(guī)則、隱私政策或者宣傳推廣語的方式實現(xiàn)。
?
此外,對于不符合本辦法要求的情況,用戶可直接向舉報,因此向服務(wù)提供者投訴不是舉報的前置條件,也對服務(wù)提供者的品牌形象維護和危機公關(guān)提出了較高的要求。
?
19. 社會道德維護義務(wù)
?
第十九條 提供者發(fā)現(xiàn)用戶利用生成式人工智能產(chǎn)品過程中違反法律法規(guī),違背商業(yè)道德、社會公德行為時,包括從事網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件,實施不正當(dāng)?shù)纳虡I(yè)營銷等,應(yīng)當(dāng)暫?;蛘呓K止服務(wù)。
?
筆者點評:
?
網(wǎng)絡(luò)炒作、惡意發(fā)帖跟評、制造垃圾郵件、編寫惡意軟件以及不正當(dāng)?shù)纳虡I(yè)營銷均屬于本身違法的情形。本條旨在強調(diào)提供者主動監(jiān)測該等違法行為的義務(wù)。但是,實際操作中可能會遇到一些挑戰(zhàn),例如如何準(zhǔn)確識別違法或不道德行為,以及如何平衡用戶隱私和監(jiān)管需求等。這些問題需要各方共同努力解決。
?
20. 罰則
?
第二十條 提供者違反本辦法規(guī)定的,由網(wǎng)信部門和有關(guān)主管部門按照《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》等法律、行政法規(guī)的規(guī)定予以處罰。
?
法律、行政法規(guī)沒有規(guī)定的,由網(wǎng)信部門和有關(guān)主管部門依據(jù)職責(zé)給予警告、通報批評,責(zé)令限期改正;拒不改正或者情節(jié)嚴(yán)重的,責(zé)令暫?;蛘呓K止其利用生成式人工智能提供服務(wù),并處一萬元以上十萬元以下罰款。構(gòu)成違反治安管理行為的,依法給予治安管理處罰;構(gòu)成犯罪的,依法追究刑事責(zé)任。
?
筆者點評:
?
本條將《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》作為罰則依據(jù)與第一條相互呼應(yīng)。同時,在上位法缺少明確規(guī)定的情形下,授予有關(guān)部門自由裁量權(quán)。特別是情節(jié)嚴(yán)重者可能被責(zé)令暫?;蛘呓K止其利用生成式人工智能提供服務(wù),具有相當(dāng)強大的威懾力。
?
21. 生效日期
?
第二十一條 本辦法自2023年 月 日起實施。
?
筆者點評:
?
2023的年份已經(jīng)被寫入征求意見稿。結(jié)合當(dāng)前行業(yè)的發(fā)展態(tài)勢,我們有理由相信,《辦法》的正式出臺并不遙遠(yuǎn)。
?
三、結(jié)語
?
?
在分析了《生成式人工智能服務(wù)管理辦法(征求意見稿)》之后,我們不難發(fā)現(xiàn),這一文件的出臺無疑為我國算法相關(guān)產(chǎn)業(yè)的發(fā)展提供了新的指導(dǎo)。然而,我們也注意到,該辦法中的一些細(xì)節(jié)仍有待進一步完善,有關(guān)問題仍需要立法者澄清。同時,該辦法對生成式人工智能服務(wù)提供者提出了很高的合規(guī)義務(wù),此類立法對行業(yè)的發(fā)展與必要監(jiān)管之間的平衡,也值得進一步研究和探討。對于各類人工智能企業(yè)而言,我們建議在《辦法》征求意見的時間段內(nèi),充分向立法者提交有關(guān)行業(yè)實踐和建議,推動和促進法案的有效和平穩(wěn)落地。
?
[注]?