AI善治論壇在京召開發布《人工智能法(學者建議稿)》
2024年3月16日上午,“AI善治論壇 人工智能法律治理前瞻”專題研討會在北京友誼賓館順利舉辦,會議發布了《中華人民共和國人工智能法(學者建議稿)》,起草專家組由中國政法大學數據法治研究院、西北政法大學法治學院、中國信息通信研究院、北京航空航天大學法學院、華東政法大學數字法治研究院、西南政法大學科技法學研究院、中南政法大學知識產權研究中心七家單位的專家組成。來自北京大學、清華大學、中國人民大學、中國人民公安大學、中國社會科學院、對外經濟貿易大學、北京電子科技學院等二十余所全國高校的專家學者出席了此次會議。
會議探討了如何更好地引導和規范未來人工智能產業的健康發展。起草專家組經過一年的緊張工作,特邀國內人工智能治理領域的技術專家、法律專家、實務專家提出建議,為完善《人工智能法(學者建議稿)》提出具體意見,共同回應現實需求,為立法建言獻策。會議分為兩個單元,分別就《人工智能法(學者建議稿)》和人工智能法律治理問題進行了深入的交流和討論。
中國政法大學副校長、數據法治研究院院長時建中教授對各位專家學者的到來表示歡迎并致辭。時建中指出,人工智能立法,需要明確《人工智能法(學者建議稿)》的定位和目標,確定調整范圍和對象,提煉需要立法解決的問題,特別是重點問題,進而提出相應的法律對策,并為技術進步和制度完善預留接口。同時,時建中教授認為,研究人工智能立法,對于人工智能相關學科的發展有著特別的助推作用。
第一單元 《人工智能法(學者建議稿)》交流
《法律科學》主編、西北政法大學法治學院教授楊建軍介紹了起草專家組成員,并就《人工智能法(學者建議稿)》起草背景進行了說明。起草專家組牽頭專家為聯合國高級別人工智能咨詢組的中方專家、中國政法大學數據法治研究院張凌寒教授,專家組成員包括《法律科學》主編、西北政法大學法治學院楊建軍教授;中國信通院政策與經濟研究所程瑩高級工程師;北京航空航天大學法學院院長助理趙精武副教授;華東政法大學數字法治研究院副院長韓旭至副教授;西南政法大學科技法學院副院長鄭志峰教授;中南財經政法大學知識產權研究中心徐小奔副教授。楊建軍教授指出推出《人工智能法(學者建議稿)》有如下三點動因:一是彰顯主張。本建議稿明確主張“高擎發展旗幟,彰顯人本主義”。現階段的中國的人工智能立法需明確發展目標,推動建立人工智能技術產業健康發展的良好生態。在制度設計中應彰顯人本主義,貫徹我國《全球人工智能治理倡議》中“以人為本”的人工智能治理主張。二是聚焦問題。學者建議稿意在拋磚引玉,通過對制度設計的重點和焦點問題的討論,為我國人工智能立法提供參考。三是凝練共識。未來由會議主辦單位成立的AI善治研究共同體,將組織系列論壇。匯聚各界主張與觀點,在多輪討論中深化產學研共識,營造監管、學界和業界充分交流的良好生態。
主持人中國政法大學數據法治研究院教授張凌寒對《人工智能法(學者建議稿)》的總體情況進行了介紹。建議稿共九章九十六條,主要內容包括一般原則、發展與促進、權益保護、安全義務、監督管理、特殊應用場景、國際合作、法律責任等,涵蓋未來人工智能治理的主要問題。張凌寒教授指出《人工智能法(學者建議稿)》以促進產業發展為主要特色。她指出,在目前全球激烈競爭的格局下,“不發展是最大的不安全”。我國人工智能產業“領先的追趕者”的獨特國際生態位要求我們在技術和產業的國際競爭中必須以發展為制度設計的主要目標,安全問題也需要通過技術發展來回應和解決。因此《人工智能法(學者建議稿)》中設立“促進與發展”專章,也在監督管理、責任設置等方面對此予以充分考慮,減輕人工智能產品和服務提供者的義務。
專家組成員趙精武副教授、韓旭至副教授、徐小奔副教授、程瑩高級工程師、鄭志峰教授分章節對《人工智能法(學者建議稿)》進行了介紹。
關于第一章“總則”,北京航空航天大學法學院院長助理、副教授趙精武指出“總則”部分的立法亮點主要有四個方面。第一,法治與德治結合,強調科技倫理審查的重要性。《人工智能法(學者建議稿)》將科技倫理審查原則置于所有基本原則首位,強調人工智能產業發展過程中科技倫理的重要調控作用。任何技術的創新發展都不應當以犧牲個人權益為代表,人工智能的技術應用同樣需要符合科技倫理的基本要求。并且,科技倫理審查的內容會隨著技術創新而一同變化,能夠靈活地根據人工智能技術發展前沿有所變化。第二,將人工智能安全拆解為數項基本原則。《人工智能法(學者建議稿)》在基本原則層面將人工智能安全這一立法目標予以細化拆解為公平公正原則、透明可解釋原則、安全可問責原則、正當使用原則。第三,算力資源發展成為基本原則的重要內容!度斯ぶ悄芊ǎ▽W者建議稿)》提出了發展基礎設施和綠色發展原則,這兩項基本原則與算力資源統籌規劃、算力互聯互通等基礎制度密切相關。第四,明確人工介入原則,最大限度控制技術風險!度斯ぶ悄芊ǎ▽W者建議稿)》創新性地提出人工介入基本原則,避免完全自動化決策對個人權益可能產生的負面影響。并且,在兼顧技術創新與技術安全的雙重立法目標下,通過人工介入的方式最大限度地預防用戶終端可能產生的各類技術安全風險,避免對技術研發環節作出過多的限制。
關于第二章“發展與促進”,華東政法大學數字法治研究院副院長韓旭至副教授認為,《人工智能法(學者建議稿)》重點考慮以下內容:一是立足人工智能三要素設置促進措施。在算力層面,提出加強算力基礎設施建設,推動算力標準體系建設,建立算力基礎設施資源調度機制,推動公共算力資源平臺建設與利用;在算法層面,提出要支持算法與關鍵技術創新,加強算法模型保護,推進開源生態建設;在數據層面,提出要提升高質量數據要素供給能力,建立人工智能產業數據資源統籌機制,建立人工智能數據資源共享機制等措施。二是設置人工智能保險制度,鼓勵保險公司探索和開發適于人工智能產品和服務的網絡安全保險、第三方責任險等,鼓勵構建人工智能保險責任機制。三是強化提升數字素養,政府應當提升數字公共服務,推進無障礙環境建設,組織開展經常性的人工智能科普及相關法律宣傳教育工作。
關于第三章“使用者權益保護”,北京航空航天大學法學院院長助理、副教授趙精武重點強調了以下內容。一是將平等權作為使用者權益保護的首項權利,能夠預防“唯數據主義”導致的人工智能產品、服務被應用于不合理、不科學的社會群體分類目的。二是將知情權作為使用者權益保護的重要內容之一,因為該項權利是使用者行使其他權利的前提條件,只有充分知曉人工智能產品、服務的基本情況,使用者才能合理地評估和判斷是否要采取相應的措施。三是正面回應了生成內容知識產權問題,《人工智能法(學者建議稿)》采用“按照貢獻程度”的動態認定模式明確相關的權利主體,并且明確按照現行的著作權法或專利法對生成內容是否構成“作品”或者“發明創造”予以判斷;同時,《人工智能法(學者建議稿)》明確否定了人工智能作為權利主體的可能性,僅允許個人、法人等法律主體作為著作權或專利權的權利主體。四是關注勞動者和數字弱勢群體權益保護,《人工智能法(學者建議稿)》針對人工智能技術被用于人力資源管理活動這一情形,明確規定禁止用人單位侵害勞動者的合法權益,尤其是利用人工智能技術對勞動者的工作情況開展不合理、不合法的監控活動,禁止完全依據人工智能決策結果作出懲罰、解雇等決定。此外,《人工智能法(學者建議稿)》還特別關注到數字弱勢群體可能面臨的數字鴻溝問題,明確人工智能開發者、提供者應當專門增設面向數字弱勢群體權益保護的特殊功能模塊。
關于第四章“義務規范”,中南財經政法大學知識產權研究中心徐小奔副教授介紹了人工智能開發者與提供者的義務與規范。《人工智能法(學者建議稿)》重點區分了一般人工智能和關鍵人工智能,強調關鍵人工智能需要在組織機構、風險評估、風險披露、安全應急處理等方面所應該承擔的關鍵義務,同時應該在不同行業領域對關鍵人工智能作出特別規范。徐小奔教授在發言中提到根據流程階段設計義務規范的重要性,即在開發階段、提供階段對于人工智能的正確使用提出不同的義務要求。最后,徐小奔教授強調了知識產權利益平衡規范的重要性,《人工智能法(學者建議稿)》對于人工智能產品或服務的開發、提供、使用等環節中涉及的知識產權問題進行了回應,力求在現有法律框架內探索有益于促進人工智能健康發展的制度安排,使人工智能立法與知識產權強國戰略綱要等國家知識產權戰略相一致。
關于第五章“監督管理”,中國信通院政策與經濟研究所高級工程師程瑩從監管統籌協調機制、分級分類監管模式、完善人工智能監管舉措三方面介紹了《人工智能法(學者建議稿)》亮點。其一,建立人工智能監管統籌協調機制,發揮其在戰略規劃、風險管控、規則制定、社會服務體系建立等方面的總體協調作用;相關人工智能主管部門則在各自職責范圍內負責規范制定和宣傳指導等工作。其二,建立分級分類監管制度,根據技術發展、行業領域、應用場景等因素動態調整人工智能分級分類標準,對關鍵人工智能實施特殊監管,確保關鍵人工智能風險可控。其三,完善監管沙箱試點制度,一方面在準入條件、風險評估、審計、法律責任等方面給予主體相應便利、激勵或者責任減免,為人工智能技術產業發展提供寬松環境;另一方面加強風險管控和評估評測,統籌建立國家人工智能評估評測平臺,發揮多元協同力量,優化評估認證社會化服務及評測結果互認。
關于第六章“特殊領域義務”,中南財經政法大學知識產權研究中心徐小奔副教授介紹了《人工智能法(學者建議稿)》對通用人工智能研發、基礎模型應用活動提出的特殊義務。就國家機關使用人工智能的活動,以及通用人工智能、司法、新聞、醫療、生物識別、自動駕駛等重要領域人工智能,《人工智能法(學者建議稿)》重點明確了相關利用規則。徐小奔教授介紹,對于超越人類智能、具有顯著不可控風險的通用人工智能研發者,應當在研發活動中,采用價值對齊等技術手段確保風險可控,根據風險、系統能力進行階段性風險評估,向人工智能主管部門報送紅隊測試結果、嚴重安全事件等信息。基礎模型應用于千行百業,建議稿對基礎模型衍生開發、開源模型使用限制作出要求。
關于第七章“國際合作”,中國政法大學數據法治研究院教授張凌寒就國際治理、反制措施、打擊犯罪進行重點介紹。一是明確人工智能國際治理規則。《人工智能法(學者建議稿)》提出共同、綜合、合作、可持續的全球安全觀,堅持發展和安全并重的原則。人工智能安全風險全球化背景下,應當重視人工智能治理的國際合作與交流,積極參與制定人工智能有關國際規則、標準,促進形成具有廣泛共識的人工智能治理框架和標準規范,防范人工智能安全風險,推動構建開放、公正、有效的全球人工智能治理機制。同時,作為聯合國安全理事會常任理事國之一,中國履行聯合國安全理事會常任理事國的應盡責任,積極參與全球人工智能治理,維護聯合國安全理事會權威與地位。二是制定反制條款。面對美國等發達國家試圖通過制裁手段遏制中國的人工智能發展的國際競爭局勢,《人工智能法(學者建議稿)》對此專門制定反制條款以維護國家利益。三是強調打擊人工智能犯罪的國際合作。全球化背景下,人工智能犯罪具有跨國性,打擊人工智能犯罪需要加強國際間的執法、司法合作。
關于第八章“法律責任”,西南政法大學科技法學研究院教授鄭志峰從行政責任、民事責任和免責事由三方面進行了介紹。首先,《人工智能法(學者建議稿)》對行政責任進行了規定,設置了行政處罰的一般條款,包括暫停新使用者注冊、下架應用、停止更新等措施,以及針對嚴重違法行為的罰款和從業禁止措施。其二,《人工智能法(學者建議稿)》規定了民事責任。提供者的民事責任根據一般人工智能與關鍵人工智能進行區分,前者采取過錯歸責,后者適用過錯推定責任;使用者的民事責任則明確適用過錯責任。《人工智能法(學者建議稿)》規定提供者與使用者共同承擔責任的情形,以與產品責任相協調。針對人工智能服務提供者規定了新的避風港規則,明確其與使用者的責任承擔。此外,《人工智能法(學者建議稿)》還規定了懲罰性賠償、保險責任與公益訴訟。其三,關于免責事由,《人工智能法(學者建議稿)》一方面明確了利用基礎模型以及開源基礎模型從事人工智能研發、提供、使用活動的,由衍生利用一方承擔法律責任,同時基礎模型提供者需要負擔適當的注意義務;另一方面規定了合規免責條款,明確開發者、提供者、使用者在合規基礎可以相應豁免行政和刑事責任。
第二單元 人工智能法律治理問題研討
該單元由中國信通院政策與經濟研究所高級工程師程瑩擔任主持人,她談到Chat GPT的廣泛應用變革人類社會的生產生活方式,需要我們從更深層次了解大模型和人工智能。我國目前正處于邊發展邊治理的過程,無論是對學術研究還是監管層面都提出了更高的要求。人工智能立法要結合實際探索的過程,而非照搬國外。在此背景下,希望以《人工智能法(學者建議稿)》為靶點推動政產學研各方面討論交流。
清華大學計算機系教授、國家高端計劃人才張敏提出:第一,目前我國在人工智能硬件上面臨較大的卡脖子風險,未來人工智能會實現軟硬件結合的技術突破,《人工智能法(學者建議稿)》可以增加有關人工智能硬件方面的促進性規定。第二,術語定義有待進一步明確。關于人工智能的定義,即人工智能是探討用計算機來模擬人類智能行為的科學。關于人工智能研發者的定義,目前的定義僅覆蓋到了特別小的部分,實際上產品和服務只是其中的一點,人工智能研發者還涉及從事機理、模型、算法,軟件和硬件的研究和開發活動的個人和組織。關于通用人工智能的定義,建議將效果和定義區分開,暫且不論其是否達到人類的智力水平,只要其模擬人類智能行為即可。比較準確的描述是,通用人工智能具有比較廣泛的認知能力,在不同任務里理解和學習完成特定任務。立法既要看到通用人工智能,也不要忽略領域和專業人工智能。第三,人工智能是一門科學,應當把人工智能的方法、技術、系統、產品和服務區分開來。第四,關于人工智能研發者、提供者“不得收集非必要個人信息”的要求,什么是“必要的”不太容易界定,是否考慮強調用戶知情和授權更為合適。第五,關于特殊領域、關鍵人工智能的范圍無法實現完全列舉,可以進行概括性描述。此外,社交機器人的提法可以再進一步完善。
北京大學法學院副院長、副教授戴昕指出:第一,需要建設比較客觀的認知環境,使用戶或者公眾理解如何規范應用人工智能。如果有風險,應當明確風險的具體指向。第二,需要優化數據供給環境。數據要素供給是一個一般性的討論,相關部門如果希望將公共數據向人工智能產業開放和授權利用,需要有明確的指引。第三,可以結合保險機制設計責任救濟制度。在結合保險與合規免責的基礎上,可以考慮運行成本更低的嚴格責任,避免人工智能領域過錯責任認定帶來的復雜問題。
中國社會科學院法學研究所研究員支振鋒提出:第一,我國《人工智能法》應基于自身實踐和國情,同時廣泛吸納借鑒歐盟,美國等人工智能相關立法。第二,法律必須服從規律,法律不能挑戰規律,人工智能立法不能突破人工智能技術創新規律、人工智能產業發展以及立法內在規律。第三,立法的關鍵在于解決問題。要找準當前中國人工智能開發利用中存在的具體實踐問題,在立法中給出綜合性、框架性解決方案。第四,人工智能立法中涉及的數據要素供給、防止個體生物識別信息濫用等問題,有賴于相關立法的協同推進。第五,應當成立人工智能發展與監管的主管部門,避免九龍治水。第六, 人工智能立法涉及的相關主體,如人工智能研發者、提供者和使用者等,要與我國既有立法體例相協調。
中國人民大學未來法治研究院執行院長、法學院副教授張吉豫認為,人工智能法在把控風險的同時,也要促進人工智能發展。事前的科技倫理審查確有必要,但可以考慮刪除一些不必要的事前義務。對于所有大型基礎模型未來是否都進行較嚴的監管是需要考慮的,并非所有人工智能均需要備案,備案是進入市場的前置要求還是僅為一項待完成的任務有待思考。從促發展的角度而言,監管行為本身的規范也是比較重要的方面。責任方面,絕大多數情況下適用過錯責任原則是比較合適的,法律責任條款之間的銜接性有待明確。服務提供者的定義需要進一步明確,因為這涉及責任界定問題。條款主要針對生成式人工智能,對于其他類型人工智能的服務提供者也應納入討論范疇。
中國人民公安大學數據法學研究院院長、法學院教授蘇宇提到,第一,關于統籌規劃的問題。統籌規劃條款不一定適用人工智能,建議克服思維定式。第二,不能把人工智能法的調整對象默認為大模型或者生成式人工智能。諸多條款主要針對生成式人工智能,會對大部分人工智能產生限制效果。例如大部分人工智能產品并不會涉及隱私保護問題,也不需要訓練數據,應當充分考慮人工智能的多樣性。第三,研發者例外問題。針對投放市場和科研專用這兩種情形的例外制度是必要的。研發者不能默認為大企業,還可能是個人從事人工智能研發,例如個人研發者進行人工智能研發沒有能力建立科技倫理審查委員會。第四,定義問題。一是機器學習和強化學習是不能并列的;二是訓練數據的定義與歐盟人工智能法的差異較大,歐盟的定義更為合理。此外,人工智能研發者、通用人工智能的定義也有待進一步討論。第五,大模型技術治理的細節問題。例如,在大部分情況下在輸出時標注數據來源是不現實的,建議加入“盡可能”。第六,部門法細節問題。具體行政行為一詞已經用得比較少了,行政罰款也是一個比較怪的用法。國家機關作出行政行為只符合法律和行政法規的規定是不夠的。
對外經貿大學法學院數字經濟與法律創新研究中心主任、副教授許可指出,人工智能法是一部非常難立的法。為此,在立法之前,應當有非常審慎的準備。首先,有必要先確立一個可行、漸進和包容的“立法議程”,即引入企業、學界、技術專家、社會公眾和政府部門等多利益相關方,遵循商談邏輯和議題形成程序,就人工智能法的步驟、議題和解決方案凝聚社會共識,推動市場、科技、監管和全球治理的同頻共振。其次,應明確人工智能法的定位問題,是采取體系導向型立法還是問題導向型立法。再次,應明確人工智能法的性質問題,是管理法、促進法、權利法、交易法,還是保護法。第四,應明確人工智能法的立法宗旨,是基于風險的規制還是基于權利的保障。第五,應明確人工智能法的聚焦問題,梳理發展中的具體瓶頸,以及可能面臨的具體風險點。第六,應明確人工智能法的限度。人工智能法存在內在與外在的限制,就內在限制而言,要協調好倫理、技術、法律之間的關系,就外在限制而言,要考慮其與個保法、數安法、網安法等法律的銜接問題,對此可以使用模塊化立法方案。
中國社會科學院大學互聯網法治研究中心執行主任劉曉春談到,《人工智能法(學者建議稿)》針對復雜而動態的人工智能行業發展,秉持促進發展和行業規范并重的思路,勾勒了基本原則體系,建構了基本的立法框架,確立了“研發者、提供者、使用者”的主體類型并分別設置權利義務和法律責任,對我國人工智能立法進程具有實質性的貢獻。她接著從完善角度提出以下三方面建議。第一,人工智能領域主體類型化和權利義務、法律責任匹配的問題。使用者的主體范圍要充分考慮作為消費者的用戶之外的商業使用主體來設置相關規則;提供者和研發者的義務體系,應當考慮兩者之間義務匹配的區分和銜接,避免研發者義務過重,且根據提供者的可能業態來配置義務和責任,特別是充分考慮應用層功能的提供者,和開源生態的情況。第二,建議在立法上構建支撐人工智能發展的促進型基礎設施,例如建立促進高質量數據集合的生產和獲取、促進算力資源優化分配的基礎機制等。第三,在承擔加重義務的特定類型人工智能部分,例如關鍵人工智能、通用人工智能、特殊類型人工智能等,建議明確科學、清晰、風險導向的基礎概念和類型,為人工智能產業快速健康發展樹立具有較強確定性的規則和責任機制。
北京電子科技學院副教授王玎認為,第一,將“立法依據”改為“立法目的”,立法目的決定人工智能立法定位和內容范疇,是人工智能法基本原則的原則。人工智能法應有三個直接目的和一個根本目的。三個直接目的是“支持、規范、防范”,即推動人工智能技術、產業創新發展,規范人工智能研發、提供、使用活動,防范人工智能技術應用損害國家安全和個人、組織的合法權益。一個根本目的是“推動人工智能技術支撐和引領經濟社會發展,增進人民群眾福祉,全面建設社會主義現代化國家”。第二,將“政務人工智能”改為“國家機關使用人工智能”,建議對行政機關使用人工智能的范圍、條件、程序作出明確規定。
最后,中國政法大學副校長、數據法治研究院院長時建中為會議做了總結發言,他指出立法是一件非常不容易的事情,各位專家對《人工智能法(學者建議稿)》提出了非常具有建設性的意見。并指出,基本概念的界定十分重要,如何將技術術語轉換為法律語言值得思考。通過法律和技術良性互動,促進人工智能向善發展。
結束語
本次“AI善治論壇”研討會的成功召開,為未來我國人工智能立法和實踐提供了寶貴的參考經驗,更為我國人工智能法律的未來發展提供了寶貴的思路和方向。
未來“AI善治論壇”也將不斷探索與實踐,力爭成為推動我國人工智能領域治理進步的重要平臺。論壇將密切關注人工智能發展動態和治理重點,定期舉辦會議,匯聚各方智慧,總結人工智能治理的最佳實踐和最新進展,推動建立健全我國人工智能治理體系,確保技術發展與社會價值觀的和諧統一,以“善治”促“善智”,使AI善治論壇成為促進我國人工智能健康發展的重要力量,助力中國人工智能立法發展。
本次會議得到了《法律科學》《法商研究》《現代法學》《華東政法大學學報》《北京航空航天大學學報(社會科學版)》《北方法學》《數字法學評論》《北航法律評論》的大力支持。
附《中華人民共和國人工智能法(學者建議稿)》