【來源】 《法律科學》2023年第3期 (文末附本期期刊目錄) 。因篇幅較長,已略去原文注釋。
內容提要:以Deepfake、ChatGPT、元宇宙等為代表的深度合成技術與應用場景,極大地改變了信息獲取、人機交互的方式,并成為未來數字空間的基礎性技術。我國的深度合成治理已經走在世界前列,但仍主要停留在算法治理衍生出的信息安全層面,偏重服務應用監管而底層技術治理不足,偏重監管服務提供者但監管技術提供者尚不充分,數據與場景分級分類標準繁雜但并未形成有機體系。深度合成治理應在算法治理基礎上延伸迭代,將深度合成作為人工智能治理的專門領域,同時通過頂層設計推進基礎性人工智能立法,既保障急用先行,又可探索并形成通用人工智能立法的經驗。既應發揮中國既有的深度合成治理優勢,根據生成型人工智能技術特點更新監管邏輯,基于生成型人工智能技術的通用性實施全鏈條治理;同時還需立足現行法規中分級分類治理架構,結合技術、產業和應用建立有機體系和設置具體規則,以形成在全球更具影響力的深度合成治理法律制度體系。
關鍵詞:深度合成;生成型人工智能;ChatGPT;分級分類標準;技術治理
目次
一、引言
二、深度合成的概念與治理挑戰
三、深度合成的治理邏輯與更新趨勢
四、深度合成治理的體系迭代與未來發展
五、結語
一
引言
深度合成技術和應用的迅猛發展似乎更加證明了“未來已來”。從可以做出換臉視頻的Deepfake開源軟件,到2021年美國Meta公司將“元宇宙”描繪為數字技術構建、數字身份參與的虛擬空間,再到美國Open AI公司開發的ChatGPT兩個月內積累一億用戶創造歷史記錄,深度合成技術支持下的AIGC(AI Generated Content,指利用人工智能技術來生成內容)商業開發在很多領域落地,一幅由人工智能深度合成技術構建的虛實結合的生存圖景正徐徐展開。一切仿佛科幻,但卻已經逐漸成為現實。
深度合成技術,是指利用以深度學習、虛擬現實為代表的生成合成制作文本、圖像、音頻、視頻、虛擬場景等信息的技術。深度合成技術的代表性研究成果,如2014年提出的生成對抗網絡(GANs)、2020年提出的生成式預訓練模型(GPT-3),大幅提升了多媒體數據合成的逼真程度,推動了“人工智能生成內容”和“元宇宙”等一系列新型智能應用形態。正如比爾·蓋茨所說,“這種AI技術出現的重大歷史意義,不亞于互聯網和個人電腦的誕生”。
深度合成展現了其強大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風險,一旦被濫用可能會給個人肖像、企業名譽等人格和財產權益損害,甚至對社會秩序、國家政治穩定和安全造成巨大威脅。如在俄烏沖突中,深度合成偽造的烏克蘭總統宣布投降的虛假視頻在推特上傳播,獲得了大量瀏覽,推特不得不緊急辟謠;企業高管被深度合成捏造視頻篡改發言內容,造成市場恐慌,引發金融市場動蕩。個人也可能被偽造虛假視頻并被用來向其親友詐騙,或者被偽造不雅視頻,侵害其名譽權。在上述現實危害之外,深度合成還引發了社會對人類未來的擔憂。在深度合成技術應用發展歷程中,2021年Meta公司推出的元宇宙概念和2022年底Open AI推出的ChatGPT激起了公眾對于人類本質、認知模式、生存方式和AI主體性的哲學思考,法學界則開始討論深度合成技術構建的元宇宙空間的數字貨幣、數字身份、社會生產與刑法治理等問題。
在世界各國對深度合成的技術治理中,我國立法與監管走在了前列。早在我國2022年3月開始實施的《互聯網信息服務算法推薦管理規定》(以下簡稱《算法推薦管理規定》)中,就有對生成合成類算法監管的規定(其他四類被納入管理的算法為排序精選類、檢索過濾類、個性化推送類、調度決策類);2023年1月1日開始實施的《互聯網信息服務深度合成管理規定》(以下簡稱《深度合成管理規定》),標志著深度合成因其重要性和高風險程度成為我國算法治理中率先專門立法的算法服務類型。目前,美國只有少數幾個州發布了關于深度合成技術的法規,而且這些法規旨在規制影響選舉的深度合成以及色情作品或虛假信息的深度合成。歐盟通過對《數字服務法》的修訂,要求平臺進行深度合成標注。由此可見,世界范圍內深度合成的治理聚焦的是虛假信息內容;即使是針對人工智能深度合成的專門治理,也以傳統人工智能為主,而非以大型生成性人工智能模型(LGAIMs)為主要治理對象。
深度合成技術有其特有的技術特征,因而針對其的治理也應當遵循其自身邏輯。本文論述圍繞我國深度合成治理的監管理念和未來走向展開,討論其治理迭代路徑,監管工具、責任鏈條,以及分級分類和技術、產業、應用分層的多維治理制度構建。
二
深度合成的概念與治理挑戰
深度合成在我國法律法規中已經采用,具體代指生成合成類人工智能的技術概念。如《深度合成管理規定》第23條專門界定了“深度合成”概念。目前深度合成概念能夠較好地囊括生成合成類人工智能的諸多新興技術,準確描述其技術本質和功能,且比寬泛的人工智能概念更具針對性。本部分結合深度合成技術的發展,梳理深度合成概念與人工智能、生成型人工智能、ChatGPT、元宇宙等概念的關系,并討論其作為學術研究通用概念的優勢。深度合成的迅猛發展,不僅推進了大數據、算法等技術的迭代發展,而且可能會影響未來人類的認知和生存方式。深度合成也給圍繞數據、個人信息和算法規制的制度設計和技術治理帶來了前所未有的挑戰。
(一) 深度合成的概念
實踐中,龐雜的技術概念已經成為制約社會科學研究者理解、研究相關技術法律問題的瓶頸。如人工智能、算法、大數據、深度合成、大規模預訓練模型、生成型人工智能等概念,令人眼花繚亂。而元宇宙、ChatGPT、生成型人工智能等概念,也與“深度合成”等概念存在著近似和混淆。精準選定和界定概念是科學研究展開的前提。本文選擇“深度合成”作為研究的關鍵概念。
第一, 深度合成是技術概念,而非商業應用概念。本文的討論區分應用概念與技術概念。一般來說,應用概念更容易被媒體更廣泛傳播并為社會熟知,但技術概念的傳播一般限于學術界。如感康、泰諾和康泰克這些感冒藥的藥品名被大眾熟知,但藥品中的乙酰氨基酚等拗口的藥品成分概念,則難以被公眾記憶。同樣,淘寶、抖音、元宇宙、ChatGPT等應用概念因其商業應用可直接與人互動而廣為人知,但淘寶背后的排序算法、抖音背后的個性化推薦算法、支持元宇宙的生成合成技術、支持ChatGPT的大規模預訓練模型等概念則不易為一般公眾所知。學術討論應盡量使用技術概念而非應用概念,否則某些概念可能會因商業應用的衰落而淪落為短暫的社會討論現象。
第二, 深度合成并非人工智能概念那樣抽象模糊,而是有明確功能的概念。自1956年“人工智能”的概念被首次提出以來,人工智能的技術研發經歷了兩次起伏。斯坦福的研究報告顯示,“人工智能”的技術概念本身就是跟隨技術進步而不斷革新的,每當一種新的模擬與延展人類智能的人工智能技術融入社會生活之中,它便會脫離“人工智能”的含義范圍;然后,會有全新的、尚未有明確道德規范的技術出現,并融入“人工智能”的含義范圍內;這樣,除舊納新的變動過程隨著技術創新而持續發生,這種現象被稱為“人工智能效益”(AI Effect)或“奇怪悖論”(Odd Paradox)。簡而言之,人們傾向于把尚未形成產業應用的新興技術稱為人工智能,而對已經存在于生產、生活中的諸如自動駕駛、智能醫療、智能投顧等人工智能技術,則稱呼其具體名稱。深度合成是人工智能的具體領域,它以人工智能深度學習為方法,合成逼真內容為目標。因此本文不采用人工智能概念作為討論對象,而采用可明確具體功能的深度合成概念。
第三, 深度合成有較強的功能概括性,并非某種具體的新興技術手段。人工智能發展到2010年,基于深度學習技術獲得了顯著成效,同時社會的數字化轉型也使得社會數據資源顯著增長,人工智能的發展才開始進入全面爆發期。深度合成的特點可從兩個角度理解,第一為有關技術的“深度”,第二為有關結果的“合成”。“深度”即是指深度學習,無論是卷積神經網絡、自然語言處理,還是預訓練大模型、大型生成性人工智能模型(LGAIMs),目前都處在深度學習階段,即用算法從海量數據中學習,以提高算法的智能性和準確性。算法已經越來越復雜,如果說常用算法在技術層面只是一個基礎模型,那么以ChatGPT為代表的“大型語言模型”(LLMs)或“大型生成人工智能模型”(LGAIMs),則代表著深度合成領域的重大技術進步;后兩者與前者的區別在于大型語言模型和大型生成人工智能模型通常用幾十億甚至幾千億的參數進行訓練,需要海量的訓練數據和計算能力。“合成”即基于海量數據生成合并結果,可達到從無到有、以假亂真的效果。逼真的合成效果打亂了人類認知的兩個底層邏輯:其一是認為人和機器有著本質區別;其二是俗語所說“耳聽為虛,眼見為實”“有圖有真相”。深度合成以“真”為技術目標,如可比擬專家回答問題的ChatGPT就在一定程度上模糊了人和機器智能的界限。深度合成技術完成的繪畫、作曲和作詩水準與一般人完成的作品的水準不相上下;深度合成生成的照片、視頻,使得未發生的事情有了逼真的具體場景。可見,深度合成概念,能夠較為準確地描述“深度”“合成”技術的功能。
第四, 最后也是最重要的是,深度合成已經成為法律概念,具有了在法學界成為學術概念進行討論的制度基礎。如2023年1月1日生效的《深度合成管理規定》由國家互聯網信息辦公室、工業和信息化部以及公安部共同發布,規定明確界定“深度合成技術,是指利用深度學習、虛擬現實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網絡信息的技術”;規定采取了開放的列舉方法,大致囊括了深度合成的前沿應用情形,如:生成或者編輯文本,生成或者編輯語音和音樂,圖像和視頻的生成編輯(生物特征和非生物特征),甚至包括了三維重建、數字仿生等生成或者編輯數字任務、虛擬場景的技術。按照《深度合成管理規定》的定義,AI語音、NFT生成藝術、虛擬演唱會、全息人像投影、虛擬人數字人、AR購物等元宇宙的重要組成部分都屬于深度合成技術的具體應用。這種功能式的列舉可容納未來的技術發展,包括目前的生成合成類算法、生成型人工智能、AIGC(人工智能技術生成內容)應用等。雖然目前法規中列舉的深度合成應用未必能夠當然涵蓋預訓練大模型技術,但由于預訓練大模型技術同深度合成技術的功能和原理大致相通,因而我們可以通過法解釋,將預訓練大模型技術納入《深度合成管理規定》的調整范圍。
(二) 深度合成的應用場景
深度合成的應用場景多樣,囊括了生成合成文本、圖片、音頻、視頻等技術,也可以被用來營建數字環境虛擬場景(如元宇宙),打造與物理世界、人類生物特征類似的數字孿生世界,生成數字人。深度合成技術基于海量數據和深度學習“生成合成”內容,其內容的形態可以是圖像、音頻、視頻、文本,因此深度合成技術可以被用來進行人臉與場景的圖像改變、聲音和音樂的創制生成、動作與表情的操控,以及通過與人對答的方式生成文本,或直接自行創作文本,可以被用在教育、影視、傳媒等領域。根據生成的內容不同,深度合成一般被用于包括但不限于以下場景:
第一, 文本與圖像生成。早在2014年,就有從事機器新聞寫作的人工智能,如美聯社采用的自動寫作平臺Wordsmith,其本質上是一種自然語言生成引擎,涉及數據庫知識發現(KDD)以及自然語言處理(NLG)兩個領域,其寫作流程包括獲取數據,分析數據,提煉觀點、結構和格式,出版。這種文本生成可包括知識生成后以文本的形式輸出。當下引起人們廣泛關注的ChatGPT也是自然語言處理(NLP)系統,但ChatGPT與之前技術的不同之處在于其采用了海量數據訓練的大規模人工智能模型。這些模型采用的數據量大得驚人,如其前身GPT-3是在45兆字節的文本數據上訓練的,這使得其生成的文本更加具有創造性。更重要的是這些模型通常設置了隨機元素,意味著它們可以以不同的輸出應對同一個輸入請求,使得ChatGPT看起來更加栩栩如生。
第二, 視頻與音頻生成。深度合成的語音合成項目可以使失去聲音的人重新說話,英特爾與戴爾科技、勞斯萊斯和運動神經元疾病(MND)協會合作的“我永遠是我”數字故事書項目,允許任何被診斷患有預計會影響其說話能力的疾病的人錄制他們的聲音,以便未來在輔助性語音設備上使用。這一功能還被用來偽造視頻音頻進行違法犯罪活動。2021年10月,安徽合肥警方曾查獲一起非法利用深度合成技術偽造手機用戶人臉動態視頻破解身份核驗并為黑灰產業提供注冊虛擬手機卡等技術支撐的案件。近年來,類似事件開始更多地進入公眾視野。深度合成中的生成型人工智能必將深入影響所有的社會部門,從商業、醫學到教育研究,從編碼到娛樂和藝術。今天,數以百萬計的用戶依靠它們來生成可達到人類水平的文本(如ChatGPT、Luminous)、圖像(如Stable Diffusion、DALLE2)、視頻(如Synthesia)或音頻(如MusicLM),而更多的替代品已經在開發中。由于預訓練人工智能大模型的規模效應,ChatGPT和類似軟件能夠預測一切句子中的下一個詞,從而展現出令人難以置信的連接詞語的能力。ChatGPT等生成型人工智能引起廣泛關注的原因還在于其更改了知識傳遞的方式,極大地降低了專業知識的獲取門檻,使得專業知識生成不再需要人類數十年的專業訓練就可以得到。如創建自定義銷售序列的Regie.ai使用生成式AI和最佳實踐在幾分鐘內就可以編寫原始序列,并且序列編寫能大幅度節約時間且高效;該技術可直接與領先的銷售參與平臺集成,減少了將消息傳遞到市場并初顯成效所需的時間。
第三, 數字空間的建構。一是虛實融合的數字空間。數字孿生就是基于人工智能深度合成現實世界實體的虛擬復制品,這項技術已經在制造業和工業部門被廣泛采用。未來深度合成有可能與物聯網共同設計改善智能城市的應用能力,即創制與現實城市完全相同的數字空間,用于智能醫療、交通和環境管理。二是完全虛擬的數字空間。2021年臉書宣布更名為“Meta”(元宇宙),緊接著Meta在2021年9月宣布旗下元宇宙平臺Horizon Worlds正式面向美國與加拿大地區18歲以上的成年人開放,該平臺允許用戶構建自己的虛擬世界,并提供了系列的模板和工具。
第四, 數字人的生成與操控。虛擬數字人的合成須集成多項深度合成技術,以實現人物形象生成,語音生成,動畫生成,音視頻合成顯示和交互。這一技術是深度合成的擬人化應用,其商業落地路徑較清晰。國內頭部數字人企業已經推出了冬奧手語數字人、央視數字主持人等應用。未來智能管家、伴侶、偶像、專家、教師的生成和運維均需要多個領域深度合成的技術支持。
綜上所述,深度合成的應用場景廣泛并且可能會改變未來人類社會的生存方式:一方面生成型人工智能模糊了信息真實和虛假的邊界,深刻地改變了人類獲取信息與知識的方式,另一方面深度合成技術將成為網絡虛擬空間與現實物理世界虛實結合、融為一體的關鍵應用技術,甚至改變人類未來的生產方式和生活方式。
(三) 深度合成的治理挑戰
深度合成的技術與應用,不僅不能化解算法治理一直致力解決的算法黑箱、算法歧視等傳統問題,而且由于其技術特點,會給人類社會帶來更多的治理挑戰。
第一, 深度合成改變了信息生成方式,模糊了虛實界限,極大地降低了專業知識與特定技能的獲取門檻,使既往網絡安全治理的行政與技術資源難以為繼,其濫用可能造成的風險范圍更廣泛、風險級別更高。與任何先進的機器學習系統一樣,深度合成技術會帶來潛在的安全問題。(1)深度合成信息內容安全問題相較過去更為嚴峻。網絡信息內容的生產經歷了此前Web1.0、Web2.0時代的PGC(專業生產內容)和UGC(用戶生產內容),代表人工智能生成內容的AIGC是新一輪內容生產方式變革,AIGC內容在Web3.0時代也將出現指數級增長。在此之前,虛假信息生產有限,國家通過源頭管理、賬戶賬號管理、傳播平臺治理即可以控制有害信息傳播。在深度合成技術應用于內容生產后,內容生產成本進一步降低,生產主體難以追蹤,信息內容真假難辨,生成類似人類文本的技術能力提高了冒充和盜竊身份案件的發生概率。傳統的新聞信息服務許可、用戶賬號管理和平臺算法過濾、人工審核標注等手段,可能都會面臨嚴重的治理挑戰。(2)深度合成會極大地降低專業知識與特定技能的獲取門檻,顯著擴大網絡安全風險的范圍,提高安全風險的等級。例如,代碼的編寫和網絡攻擊本身具有專業門檻,網絡安全攻擊在大眾眼中仍是專業技術。ChatGPT類的生成型人工智能具備了無代碼編程能力,降低了攻擊代碼編寫的技術門檻,可能會導致更多的網絡安全攻擊發生。未來,黑客發動網絡安全攻擊將如同頑童投擲石子一樣容易,這也意味著重要數據、關鍵信息基礎設施等可能面臨著網絡安全防范資源的嚴重不足的重大挑戰。
第二, 深度合成的發展對現有數據、算法、算力分而治之的治理體系提出了嚴峻挑戰,網絡安全、個人信息、數據保護、數據跨境流動的制度都需要做出相應調整,而目前各國均缺乏針對人工智能的數據、算法、算力的綜合治理體系。(1)數據安全方面,深度合成的預訓練大模型促進了合成數據產業的發展,深度合成技術可以模擬真實用戶數據并規避高昂的隱私合規成本。深度合成技術也有可能通過預訓練大模型的強大推理能力學習找到真實數據。而針對合成數據的治理各國目前尚無具體的規制性制度。(2)個人信息保護方面,深度合成的訓練數據主要來源于互聯網,其中可能包括個人隱私數據,而此前GPT-2就發生過隱私泄露的問題。用戶生成合成內容需要上傳照片、視頻或與直接明文的對話。生成合成類算法應用既往就產生過換臉換聲的欺詐、人格權侵權、隱私泄露等案件。在新一代以ChatGPT為代表的生成合成類應用中,用戶對話的過程就是被收集信息的過程,尤其是用戶在與機器對話的過程中更可能袒露隱私。這些個人信息可被用于用戶畫像和訓練模型,個人信息的收集、使用和傳輸都面臨著安全挑戰。(3)數據跨境安全方面,用戶與生成型人工智能模型的海量交互數據如果是跨境產生的,則會引發數據跨境安全問題。生成型人工智能需要海量算力,而面向一國提供生成型人工智能的服務器可能位于世界各地,這與現有的數據本地化存儲、保障本土數據安全的數據處理方案存在沖突。
第三, 深度合成會強化技術壟斷和技術競爭,不僅使得數據共享共用愈加難以實現,而且會加深國家、地區、人群間的數字鴻溝。(1)高企的算力與資源需求可能造成技術壟斷。深度合成的發展對為其提供基礎計算工具和環境的數據中心算力以及服務器硬件設備提出了新的要求。生成型人工智能需要的算力投入過于巨大,以致小型開發者根本無法承受,這將進一步造成技術的壟斷和算力的集中。(2)數據資源的不公平分配使用進一步加深數字鴻溝。預訓練大模型需要海量的數據,ChatGPT類的生成型大模型需要幾乎整個互聯網的數據進行訓練。這一方面意味著大量的數據資源被免費攫取,如主流媒體的文本數據,數十億張受版權保護的圖像被生成型人工智能公司下載用于訓練模型;另一方面,數據資源的分布并不均衡,如英語語言產生的數據遠多于其他語種產生的數據,而這些數據無法給預訓練大模型提供機器學習的足夠養料,因而小語種的生成型人工智能輸出質量相對較低。(3)生成類人工智能將成為新的流量入口,基礎模型依賴互聯網上公開的訓練數據,持續訓練需要不斷與用戶互動輸入數據,國家、地區、語言的既有優勢將被持續強化,地區間數字鴻溝將進一步加大。
三
深度合成的治理邏輯與更新趨勢
(一) 調整對象:從算法服務到人工智能
盡管我國在深度合成的治理方面走在了世界前列,但目前的治理邏輯是將深度合成技術納入生成合成類算法予以規制,治理對象聚焦于深度合成服務。但在深度合成成為人工智能的重要領域,甚至逐漸走向通用人工智能的趨勢下,僅將其以算法信息服務之一作為調整對象難以適應該領域技術的應用發展。在當前我國的治理邏輯中深度合成主要被定位為算法,聚焦信息安全。在我國制度語境中,深度合成服務是指利用生成合成類算法提供信息服務,屬于我國《算法推薦管理規定》中規定的生成合成類、排序精選類、檢索過濾類、個性化推送類、調度決策類算法五類推薦服務中的一種。通過對近年來我國頒布的法律法規的脈絡進行梳理可知,深度合成的監管對象聚焦的是信息內容。如2020年的《網絡音視頻信息服務管理規定》明確提出對基于深度學習、虛擬現實等技術,具有媒體屬性或社會動員能力的音視頻信息服務展開安全評估,對非真實音視頻信息進行標識;2020年《網絡信息內容生態治理規定》要求不得利用深度學習、虛擬現實等新技術新應用從事法律、行政法規禁止的活動;2021年開始實施的《民法典》人格權編明確規定,不論是否出于營利目的,均不得利用信息技術手段偽造他人肖像、聲音;2022年《算法推薦管理規定》明確要求不得生成合成虛假新聞信息。可見,從算法服務治理生長出的深度合成治理法律,其主要聚焦于信息安全監管。
相比歐美國家,這一治理架構雖然已經在治理對象、治理鏈條和治理工具上有明顯的制度引領和先發優勢,但實踐中也難以充分應對生成型人工智能的迅猛發展產生的問題。因為深度合成的技術迭代已經使得其日漸超出了前述立法時所設計的生成合成類算法框架所能調控的范圍。一是我國算法治理的調整對象本身就有一定的局限性。如《算法推薦管理規定》明確其調整的“應用算法推薦技術,是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調度決策類等算法技術向用戶提供信息”。盡管規定使用了“算法推薦技術”一詞,但實際上五種功能分類是從服務角度進行的劃分。而檢索類與個性化推送類算法原理相同,但被歸為不同的服務分類。可見,“算法推薦”一詞的選用也和牽頭起草部門國家網信辦以信息內容管理為主要職能有關。二是算法監管對象局限于提供互聯網信息服務的算法,并不包括諸如公共部門使用的決策類算法。目前的相關規章在空白領域搭建起了算法制度框架,但主要針對私主體的算法服務,其他涉及公民權益的公共部門的算法自動化決策的相關治理任務,則是由《個人信息保護法》等法律法規承擔,但規定較為原則。三是從立法本意上來看,算法監管未必能夠涵蓋深度合成治理。我國近兩年的立法中是如何設定深度合成與算法的關系的呢?一說認為我國出臺《深度合成管理規定》,是將深度合成作為算法服務種類中高風險、高敏感度的算法進行監管,因此率先單獨立法;另一說則認為,算法推薦與深度合成是并列關系。在算法監管本身調整對象就有較大局限的情況下,深度合成作為未來技術發展重要領域的人工智能技術和應用,難以被算法規范有效涵蓋。
在深度合成迅速發展的背景下,僅以算法服務為對象、以信息安全為目的顯然無法應對深度合成技術、產業、應用的發展。與此同時,人工智能本身就被集成在眾多的產品和服務之中,在法律規范中使用過于寬泛的人工智能定義必將給人工智能開發者、部署者、產品生產者(集成者)等設計自動化功能的產品和服務帶來巨大的合規成本,而使用清晰明確的有關深度合成的定義則有利于增強監管的確定性。
(二) 維度拓展:從平臺問責到產業治理
我國《深度合成管理規定》已經將治理的觸角向技術支持者和用戶延伸,但平臺問責仍然是深度合成治理的主要抓手。《深度合成管理規定》第2條規定:“在中華人民共和國境內應用深度合成技術提供互聯網信息服務(以下簡稱深度合成服務),以及為深度合成服務提供技術支持的活動,適用本規定。”可見,《深度合成管理規定》的調整對象“深度合成”既指深度合成服務,也指深度合成技術。在現有的深度合成治理框架中,我國將深度合成服務提供者作為治理的樞紐。一方面,深度合成服務提供者應盡到自身的安全管理義務,如進行深度合成內容標識,建立鑒偽與辟謠機制,完成算法備案等;另一方面,深度合成服務提供者要履行對上游技術支持者和下游服務使用者的管理責任,提示技術支持者和使用者承擔信息安全義務,對使用者輸入數據和合成結果進行審核,并提示使用者應對深度合成做顯著標識。如規章要求深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,應當提示使用者(用戶)并取得其單獨同意。
深度合成的治理框架已經對上游的技術支持者提出了相關要求,雖具有一定創新性,但囿于部門職能,規定存在一定局限。相對于牽頭起草部門網信部門的信息內容監管職能,既有規定對技術支持者提出要求是新舉措,因為深度合成的技術支持者如何使用訓練數據、如何設計算法機制機理、如何開發應用可搭載的模型模板工具,都會直接對深度合成服務的功能應用結果產生影響。但如果站在數字社會生產的角度考量深度合成治理,則可發現,既有治理過于關注深度合成的內容輸出治理而相對忽略了其他角度的治理,因而影響了治理全局的功能。如深度合成中的預訓練大模型以大量的參數、訓練數據和計算進行操作,目前雖然沒有達到接近通用人工智能的水平,但仍然比傳統的深度學習更具通用性。通用人工智能類似于類腦智慧,其強大的學習能力和完備性可以通用于現今人工智能許多關聯松散的子領域(如視覺、聽覺、文本等),其主導的人工智能第三次浪潮,可能進一步形成人工智能子領域之間共同的基礎或框架。換句話說,深度合成中的預訓練大模型,可能被部署用來解決它們并未被專門訓練過的任務,輸出的多樣性和任務廣度也會遠超一般模型。因此,從縱向角度考慮,深度合成的治理應當在數字產業化和產業數字化的進程中進一步深入產業治理。
(三) 體系構建:從多元分級到多維統籌
依據風險進行分類分級管理是技術治理中普遍采用的原則,有助于具體制度根據不同場景設置精細規則。目前我國的技術治理體系中,就設立了數據、算法、主體、場景四大類分級分類的標準。但目前深度合成總體應如何做分級分類的定位尚不明晰。一是算法分級分類中,尚無明確的具有可操作性的標準;二是我國四大類分級分類標準由不同部門依據職能主導,職責互相交叉,邊界不盡清晰;三是深度合成本身具有一定通用性,應用范圍廣,難以被簡單歸入某一具體分級分類。
第一, 目前我國存在多種分級分類制度。(1)在數據維度,《數據安全法》將數據分為核心數據、重要數據、一般數據,確立了由國家建立數據分類分級制度、由主管部門制定重要數據目錄并加強保護的制度框架,并注重網絡安全制度與數據安全保護制度的銜接;《民法典》區分了一般個人信息和私密個人信息;《個人信息保護法》建立了信息分級制度,將個人信息分為一般信息和敏感信息;在算法維度,《算法推薦管理規定》第23條提出:“網信部門會同電信、公安、市場監管等有關部門建立算法分級分類安全管理制度,根據算法推薦服務的輿論屬性或者社會動員能力、內容類別、用戶規模、算法推薦技術處理的數據重要程度、對用戶行為的干預程度等對算法推薦服務提供者實施分級分類管理”。但目前為止,一般認為深度合成可能被用于“無中生有”或篡改信息內容因而具有較高的輿論屬性或者社會動員能力,屬于高敏感高風險的算法服務技術。(2)在主體維度,我國《個人信息保護法》借鑒歐盟立法,第58條對提供重要互聯網平臺服務、用戶數量巨大、業務類型復雜的“守門人”進行了規范,要求其建立健全個人信息保護合規制度體系。在規范性文件層面,我國市場監管總局起草的《互聯網平臺分類分級指南(征求意見稿)》將平臺分為網絡銷售、生活服務等六大類,分級上又分為中小平臺、大型平臺和超大型平臺三級,考慮了用戶規模、業務種類以及限制能力。(3)在場景維度,當數據、平臺和算法相同的情況下,僅僅由于技術的可能使用場景的不同,而產生不同級別的風險,需要配置不同的監管制度。如未成年人使用平臺的相關功能,相應配備的個人信息保護規則和算法相關合規要求不盡相同;《重要數據識別指南》將支撐關鍵基礎設施所在行業的數據,反映關鍵信息基礎設施網絡安全保護情況的數據,反映重點目標、重點場所物理安全情況的數據等視為重要數據,重要數據一般應有更嚴格的法律保護制度。除此之外,在一些行業場景下,數據產生與處理的規則也應相應區分。如人工智能醫療領域、金融業務領域都可能涉及諸多敏感個人信息需要圍繞場景進行整體性制度設計;《個人金融信息保護技術規范》《證券期貨業數據分類分級指引》等對金融領域的數據分級給出了具體指導。我國各部委也相繼頒布了基于行業應用、業務場景的數據安全分級分類方法。
第二, 四類分級分類標準,職責互相交叉,邊界不盡清晰。以算法分級分類為例,一是我國以部門職能作為分類標準,“具有輿論屬性或者社會動員能力”的算法均需履行事前安全評估、備案等程序,算法種類繁多,基本涵蓋了現有的算法服務;二是《算法推薦管理規定》中的算法分級分類安全管理制度,結合數據維度(如數據重要程度)和主體維度(如用戶規模)進行制度設計,但不同分級分類標準如何厘清各自職能和邊界,以及各標準之間如何銜接,需要進一步出臺規范予以調整。
第三, 由于對深度合成的技術和應用尚無法充分認識,相關立法難以在現有分級分類框架中被精準定位。調整深度合成的規范不僅在我國目前初步構建的多系統分級分類法律體系中難以找到確切的位置,而且歐盟立法對深度合成技術的風險判斷也并不清晰,目前有學者提出了將深度合成全部歸為高風險系統予以規范的主張。但這一主張顯然并不利于相關技術與產業的發展。
因此,深度合成的治理框架需進行迭代升級,包括將治理對象從算法服務擴展為人工智能,治理維度從平臺問責擴展至產業治理,建立由有力牽頭部門統籌協調的體系化監管體制機制,并對我國目前多個分級分類制度進行系統整合。
四
深度合成治理的體系迭代與未來發展
我國的深度合成治理應在現有算法治理基礎上做出制度延伸,將其作為人工智能專門領域予以治理,形成“算法治理—深度合成治理—人工智能治理”的迭代路徑,為我國未來通用人工智能立法做準備。面對深度合成中的生成型人工智能等具有一定通用性質的新型人工智能技術,應及時調整治理方案,搶抓規則制定權,防范國際規則博弈中歐盟等有意識的制度輸出,推動我國在該領域的本土化制度建設和制度引領。
(一) 深度合成治理的體系迭代
深度合成治理應在現有算法治理的基礎上做出制度延伸與體系迭代。ChatGPT等生成型人工智能的爆發,是推動深度合成成為人工智能治理專門領域的有利契機。將深度合成納入專門化的人工智能治理領域予以治理,既可以為我國人工智能基礎性立法做出有益探索,又可避免歐盟、美國現有立法中人工智能范圍定義過寬的弊端,發揮我國人工智能立法的制度引領作用。
第一, 深度合成治理需要在算法治理基礎上做出延伸和迭代。盡管我國深度合成的治理已經在算法治理基礎上進行了創新,但治理體系仍需進一步優化。我國的算法治理體系將算法定位為“互聯網信息服務算法”和“算法推薦服務”,盡管在算法監管制度中已經創新性地提出了針對特征庫、用戶標簽、算法機制機理等技術規范措施,但其重點聚焦于算法安全價值導向下的信息服務規范和用戶權益保護。《深度合成管理規定》在征求意見的討論后將服務和技術列為并重的調整對象,將“數據和技術管理規范”專章單列,并將監管對象延伸至深度合成技術支持者,都是對技術發展的因應性制度調整。我國深度合成治理超越了算法治理制度,相較歐盟、美國等制度更具有引領性。國外研究也認為《深度合成管理規定》調整的范圍全面,將大大改變14億人的人工智能生成內容的制作方式;在具體制度的評價中,研究者也認同我國現有監管為深度合成的每個階段制定了規則,從創作到標注再到傳播,為未來控制有機生成內容也留下了空間,在2023年可能影響到其他國家深度合成法規的發展。但是,算法監管的一些具體措施顯然很難適用于深度合成項下的生成型人工智能等技術。如算法機制機理的備案說明、特征庫和標簽制度等,應結合深度合成的新技術發展與應用場景做出相應調整和改進。
第二, 深度合成治理應成為人工智能治理的專門領域,并在此基礎上推進我國人工智能基礎性立法。我國現有的算法規制體系在實踐中承擔起了人工智能治理的任務。從2017年國務院《新一代人工智能發展規劃》到2022年的《最高人民法院關于規范和加強人工智能司法應用的意見》,我國人工智能治理各級文件中均提出了“安全可控”的治理目標,具體制度均提到了建立公開透明的制度體系、建立相應問責機制、技術和應用全流程監管等。而這些具體制度的落地則是由算法透明度,算法問責,算法設計、輸出與結果監管,以及算法推薦服務結果公平等規定保障實現的。國外的研究一般也認為中國針對算法設計的系統法規,包括對算法系統的設計、使用和數據種類的要求和標準,是中國人工智能的治理制度。
應以ChatGPT為代表的生成型人工智能發展為契機,推動深度合成治理成為人工智能治理的專門領域。(1)保障急用先行一向是我國立法的一條重要經驗。短期內,繼續采用垂直和領域性人工智能監管能夠有效將可能的風險控制在最小范圍,延伸深度合成現有制度是治理效率最高的方式。不過從長遠來看,加強深度合成治理專門立法是必然趨勢。在擬出臺全盤人工智能治理方案的歐洲,也在討論對人工智能立法的部分定義和監管類型進行修訂,以增強對“大型生成式AI模型”部署者和用戶進行直接監管。(2)深度合成的治理等待全盤人工智能治理的立法出臺,會面臨針對性、可用性不強的制度困境。生成型人工智能具有一定通用性,是否延續傳統對人工智能的分級分類方式進行治理?目前歐盟就面臨著這個問題。2022年5月《人工智能法案》第4a-4c的修正案成了監管生成型人工智能的核心條款。任何可用于任何高風險應用的“通用人工智能系統”,如就業、醫療、信用評分、行政、執法都必須初步遵守《人工智能法》對高風險系統規定的全部義務。一個全盤的人工智能治理方案極可能受到技術發展的沖擊。因此也有歐洲學者建議歐盟應將其所設想的全盤人工智能法案監管轉向具體的監管職責和內容治理。(3)在對深度合成治理做出專門性制度探索的基礎上,推進人工智能基礎性立法,解決人工智能領域的通用問題。一是算法、算力與數據的規制制度必須在人工智能治理的框架下統籌協調。如歐盟立法面臨著《人工智能法》《通用數據保護條例》《數字服務法》等法規協調的問題。預訓練大模型需要海量的算力,如何統籌全國范圍內的算力使用,也是法律層面立法才能解決的問題。二是法律層面上統籌,方可保證較高的效力位階將我國現行的有關數據、算法和人工智能問題的探索,統一納入未來人工智能基礎性立法。
2023年被認為是全世界的人工智能監管新格局的開創之年。雖然不同的法律轄區正在采取不同的監管路徑,但歐盟《人工智能法案》的加快推進,意味著全盤管理人工智能未來將可能成為全球立法模式。按照“算法治理—深度合成治理—人工智能基礎性立法”的思路,深度合成治理立法一方面承接算法治理,另一方面也可以為未來通用人工智能的立法做出有益嘗試。
(二) 內容監管與全鏈條治理
深度合成的治理,一是需要保障生成內容安全的基礎法益,二是應依據生成型人工智能改進監管框架實施全鏈條治理,三是需要適應技術的進一步發展,完成深度合成監管工具的升級。
第一, 深度合成的生成內容監管。深度合成的前期治理聚焦生成合成的虛假信息是全球共識,歐盟、美國均有相關立法嘗試與監管舉措。我國的深度合成治理中有關信息內容安全的監管措施應嚴格執行,繼續要求AIGC技術與服務提供者在相關的人工智能自動生成內容中履行添加可識別水印或有效警示信息的義務,在源頭上實現人工智能自動生成內容的可識別性。不過,AIGC(人工智能生成內容)的標識要求需要進一步提高。如對ChatGPT或類似軟件生成“以某人風格”生成文本或圖像視頻等內容時,應當在生成內容的合理位置做出顯著標識,以避免公眾產生混淆或誤認。生成內容型的人工智能必然會發生內容安全問題,盡管目前ChatGPT對基于惡意目的的使用提出了一些限制,但是有技巧的使用者仍然可以采取調整措施的請求來繞開這些限制。因此AIGC(人工智能生成內容)不僅仍需配備人工過濾審核機制,而且需要在下游督促網絡平臺采取措施減少違法信息的產出。深度合成監管中的辟謠機制和舉報機制同樣適用于ChatGPT等生成型人工智能。對于已經或者準備在網絡中傳播不實信息和可能危害公共秩序的內容,平臺有義務停止傳輸,并且對于頻繁發布此類信息的用戶主體通過黑名單或其他機制加以限制和處罰。尤其是在AIGC(人工智能生成內容)與機器人賬號結合可能帶來更大信息內容安全風險時,應在我國現有賬號管理機制中強化對機器人賬號的身份識別監管和對權威賬號的特殊認定,減少機器人批量推送AIGC(人工智能生成內容)。中國已經在內容監管領域積累了較多經驗并取得先機,監管人工智能生成內容也成為制定全球規范和標準的一種重要方式。
第二,深度合成的法律擔責鏈條。深度合成中生成型人工智能技術鏈條的參與者包括:開發者建模并預訓練大模型;部署者根據應用需求,或單獨或與開發者合作進行參數微調;用戶最終與生成型人工智能互動,并決定生成型人工智能的具體用途。在生成型人工智能的技術產出鏈條上,技術開發者是關鍵,因而深度合成合規責任在技術鏈上進行可行性的責任分配顯得尤為重要。鑒此,我國的深度合成監管應圍繞服務提供者設計制度:一是在生成型人工智能的治理中,應對技術開發者提出更嚴格的要求,如訓練數據的標注、文件記錄和保存、保障技術透明度等。面對Open AI、Stability這樣的大型技術開發者,在開發階段僅有倫理要求是無法滿足監管目標的。可以考慮通過對技術的獲利者征收庇古稅平衡技術獲利與風險行為。監管者對深度合成的審計,可通過定期隨機抽取方式進行,并依據審計結果對深度合成技術的獲利者征稅。二是對生成型人工智能的部署者應結合其應用場景設置義務,該義務的結構安排制度必須使部署者和使用者能夠有合理預期,包括必要的技術調整和合規成本。否則,過于強調絕對的信息內容安全,會阻礙深度合成產業的發展。三是在用戶層面進一步細化管理。對于使用AIGC(人工智能生成內容)為他人提供服務的專業用戶,如使用ChatGPT撰寫法律文書,用AI繪畫提供設計裝飾服務,使用生成型人工智能編碼或提供教育服務等經營活動,應承擔人工智能生成內容的標識義務。對于普通的深度合成用戶,應進一步通過技術手段等強化其義務。如我國現有的深度合成監管中,要求上傳照片生成換臉視頻的用戶必須取得當事人的同意,但實踐中尚缺少有效的落地機制和制約手段。在用戶與生成型人工智能明文互動的情況下,如何通過技術加強對用戶行為的合法性約束,是下一步技術開發和制度設計應認真對待的問題。
第三, 深度合成的監管工具升級。(1)算法歧視的傳統監管工具,在面對生成型人工智能時會遇到挑戰。既往人工智能公平性治理中采取的通用性應對措施,如過濾器和模型調整,定量偏差評估和基準測試等,在ChatGPT這類預訓練模型系統治理中會遇到挑戰。不過技術界仍在不斷嘗試,如斯坦福大學以人為本人工智能研究院基礎模型研究中心推出大型語言模型(LLM)的整體評估,評估包括準確性、校準、魯棒性、公平性、偏差、毒性和效率等模型完備的各個關鍵要素,旨在提高語言模型透明度,幫助公眾理解大型語言模型。(2)深度合成的數據和隱私安全同樣需要新的技術支撐和保障。在深度合成營造的數字虛擬生存場景中,用戶需要頭盔和手持器等VR設備實現沉浸式互動。VR中數據收集的范圍和規模超出了目前網絡平臺的能力,攻擊者可通過幾分鐘的數據流輕松識別VR用戶,或通過在虛擬環境中植入制品誘導用戶透漏個人信息。這都需要網絡安全技術、監管技術的全面升級以更好地加強監管。
(三) 分級分類標準的有機體系化
深度合成對多元的分級分類標準提出了巨大挑戰。一是深度合成應用覆蓋范圍廣泛,既包括信息內容安全,也包括數字人、數字虛擬場景、數字孿生等應用模式,繼續適用“具有輿論屬性或者社會動員能力”的算法分類標準,已難以適應生成合成類算法的分級治理。二是深度合成中的生成型人工智能具有一定通用性。按照全盤人工智能的治理模式,如歐盟《人工智能法案》,要求識別和分析所有最可能對健康、安全和基本權利產生的已知和可預見的風險,按此模式進行監管,則一旦生成型人工智能被用于一個高風險用途,整個預訓練大模型都會落入高風險的規制范圍,需要進行性能、穩健性和網絡安全測試。而生成型人工智能需要巨額投資,高企的合規成本顯然不利于企業投資和研發。三是深度合成的生成型人工智能需要海量數據進行訓練,而數據的匯聚和量級本身就被認定為具有較高風險。如達到一定量級的個人信息處理如果發生重大網絡安全事件,在我國法律體系中被列為與重要數據安全事件同等級別的事件,《關鍵信息基礎設施條例》明確將二者并列。與此類似,《網絡安全審查辦法》也將重要數據、關鍵信息基礎設施與大量個人信息的風險并列。由此可見,深度合成監管的分級分類標準設計,既需要統籌技術、產業和應用的不同分層,也需要消解數據分級分類中的量級考量因素,有機協調做出針對性制度安排。從產業鏈角度看,技術底層的大模型與數據集成為真正意義上的“信息基礎設施”。AIGC(人工智能生成內容)產業需要生成型人工智能支持,提供垂直化、場景化的工具和模型——作為幕后產業鏈的上游,需要后端基建如渲染公司、底層架構如引擎公司等支撐;應用層面的內容生成應用屬于產業鏈下游,需要面向各行業的內容與場景等技術支撐。在數據、算法、主體等分級分類方法難以適用于生成型人工智能的背景下,應在產業鏈條層面首先縱向劃分深度合成的技術、產業和應用層,再對技術研發、產業落地和技術應用分級分類設計管理制度。
第一, 不宜將深度合成尤其是生成型人工智能一概納入高風險治理框架,而應根據生成型人工智能的預訓練大模型、海量數據等特征單獨設計監管制度。在深度合成領域,應回避歐盟有意識的法律輸出,堅持符合中國本土的治理路徑。歐盟《人工智能法》《數字市場法》《數字服務法》三部協同立法影響巨大,其目的是為了確保公司不會濫用人工智能并承擔相應責任,避免可能的傷害;但每項立法都要求對符合特定標準的公司進行獨立審計、安全評估或者第三方審計,給產業發展造成了沉重負擔,可謂“數字經濟的幼兒,數據監管的巨匠”。我國在信息內容安全領域已經具備相較于其他國家更多的實踐經驗,堅持分層治理,尤其是加強生成內容的專門化治理,可避免合規成本過高阻礙深度合成產業的發展。
第二, 區分技術、產業和應用層面分級分類設計制度,在技術與產業層面加大扶持力度,在應用層面參考現有分級分類標準完善監管制度。鑒于深度合成發展需要大量資源、開展技術競賽,集中力量發展技術、產業將成為我國的必然選擇,因此需針對某些特定企業和信息基礎設施加強人工智能倫理監管、網絡安全和數據安全保障。如我國《新型數據中心發展三年行動計劃(2021-2023年)》提出新型數據中心應具備高技術、高算力、高能效、高安全等特征。在深度合成應用層面,可參考現有的分級分類標準,依據其輿論屬性或者社會動員能力、內容類別、用戶規模、對用戶行為的干預程度等實施分級分類管理。因為在現階段通過一部法律來協調對所有人工智能系統的監管,顯然很難保證立法的高度適用性。
第三, 應建立敏捷治理體系,并留足前瞻性制度發展空間,以保障技術的長遠發展。對于一個調整范圍廣泛、潛在的變革性立法框架來說,過于寬泛和固定的人工智能立法并不適當。人工智能專家和非專業公民之間的認識不對稱可能促使風險監管嚴重依賴專家的判斷。深度合成的發展正在迅速催生多個產業和價值生產模式,合成數據、數字孿生、數字人、元宇宙等未來的制度發展都需要治理的敏捷應對。正如專家調查了歐盟現有的治理方案之后得出的結論:“人工智能將重新需要一個靈活和反應迅速的治理框架,以最大限度地提高其重新應對不斷變化的風險和問題的能力。”
五
結語
深度合成已經成為世界人工智能領域競爭的新賽道,以ChatGPT、元宇宙為代表的一批風靡全球的應用技術為人類譜寫數字化生存的新篇章提供了無限可能。掌握人工智能治理的話語權、規則制定權,搶先形成新的國家競爭優勢,已經成為世界不同法域的努力目標。我國在個人信息保護和數據立法領域,可以說與歐盟、美國并行,在算法治理和深度合成治理領域則成為一定意義上的領跑者。然而,領跑不代表嚴苛,過強的監管并不一定形成制度競爭優勢;符合我國本土經濟、社會、政治、價值觀,能夠促進我國深度合成產業長遠健康合法發展的治理制度,才是我國真正的制度競爭優勢。歐盟正在不遺余力地努力成為人工智能治理的全球領導者,加強繼續引領圍繞人工智能監管的全球標準的討論。在這一背景下,既保障急用先行,避免新興技術帶來的問題,又不急于推行過于嚴格的人工智能方案以提高制度的可用性,是我國深度合成人工智能立法的努力方向。一方面在算法監管的經驗與框架中,繼續推進深度合成的治理;另一方面在深度合成治理的探索中,逐步形成通用人工智能立法的經驗,為未來統籌算法、算力、數據的人工智能治理作出更多有益嘗試,是目前深度合成治理路徑的最佳選擇。深度合成的治理,生長于算法治理,既需借助算法治理的既有制度資源與框架,又需要創新性地發展其作為人工智能專門領域的監管工具、分類分級制度、責任鏈條分配體系。我國深度合成的治理應適應中國本土亟需發展生成型人工智能產業的需求,同時發揮中國既有的信息內容治理優勢,以形成在全球更具影響力的深度合成治理法律制度體系。