隨著數字時代智能化的深入發展,如何在國家現代化治理的語境中科學建構人工智能法律制度,具有重要的現實意義。中共中央、國務院以及國家互聯網信息辦公室等部門和地方出臺系列關于人工智能與數字治理的相關法規、政策、標準,以期促進人工智能升級應用,推動數字經濟健康發展。
而以ChatGPT為代表的生成式人工智能正在引發新一輪的人工智能革命。所謂生成式人工智能,是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。生成式人工智能產品通過海量的數據累積和強大的計算能力,可以充分理解并記憶用戶習慣,進而自動生成符合用戶需求的高質量內容,具有極強的模仿力和創造力。在此背景下,應進一步厘清生成式人工智能法律規制的重點并明確監管方式,形成科學完備的法律制度,有效增強人工智能法律制度的張力,制定有針對性的規制路徑,從而提升國際社會對我國全球治理思路和社會實踐的認同。
第一,進一步細化、完善分類分級監管規則。隨著生成式人工智能的高速發展,復雜多變的法律需求和現實樣態對治理方式提出了更高的要求。分類分級監管能夠幫助監管部門兼顧考量不同場景下人工智能應用風險可能存在的差異性,在堅持良法善治的基礎上科學地針對各個領域實踐現狀進行具體展開,充分進行理論補正和規則完善,從而進一步增強人工智能法律規制中的合理性和準確性。我國在最新實施的《生成式人工智能服務管理暫行辦法》中明確了對生成式人工智能服務實行分類分級監管的主要原則,但在具體監管細則以及實施方式上仍可進一步細化。通過聚焦不同類別生成式人工智能的應用特點,提出特定的監管要求,并根據行業特性在不同行業內形成一整套完備的生成式人工智能風險評估標準,推動公共數據分類分級有序開放,在特定場合適用不同的監管模式并考慮采取差異化的監管處罰措施,合理地因情施策。
第二,堅持包容審慎監管理念,重視數據的真實性和安全性。包容審慎監管自提出以來逐步成為政府新的執法監管理念,一方面要求監管部門為生成式人工智能提供充分的發展空間和容錯環境,鼓勵生成式人工智能在技術手段、數據資源建設、轉化應用、風險防范等方面開展創新應用,另一方面也要求對生成式人工智能可能引發的安全風險予以適當防范。這不僅有利于促進創新和依法治理相結合,保障追求效率與安全之間達成和諧的動態平衡,同時也有助于破解傳統監管困局。在包容審慎監管過程中,應充分重視數據安全和隱私的保護。生成式人工智能收集的數據往往具有重要的價值,不僅涉及個人隱私,還可能關系到國家重要基礎信息。數據來源、處理方式的合法性以及數據的真實性應當是法律規制的重點關注對象。此外,應注意避免生成式人工智能學習虛假的數據或者存在價值偏差的數據,有效控制風險。
第三,劃定底線,保護相關權利主體的知識產權。為減少侵權事件的發生,應立足于生成式人工智能的核心要素與衍生內容,有針對性地對相關法律問題予以回應。如生成式人工智能在前期對大量數據進行學習和使用時,尤其是在數據輸入而未得到數據提供者授權的情況下,如何避免侵權行為的發生。在現有知識產權制度框架下,應進一步設立全面的數據知識產權保護規則并制定相應的懲罰措施,防止生成式人工智能對知識產權的侵害行為。此外,應確定生成式人工智能的衍生內容是否屬于知識產權保護范疇。后續立法可以圍繞衍生內容的獨創性,結合人工智能的技術特征,確立其衍生產品獨有的知識產權授權與確權規則。
第四,推動監管主體形成監管合力,構建系統性人工智能法律規范體系。生成式人工智能技術在各行業、各領域不斷進行創新應用,其可能導致的風險會涉及多個領域,現有監管方式也主要呈現多頭監管。鑒此,應當堅持以發展和安全并重的理念為指引,廣泛團結協作,完善監管主體的溝通協作機制,并進一步加強人工智能治理專業委員會等機構的指導力度以及影響范圍。通過形成主體層面的監管合力,合理地提升人工智能監管效率,避免監管規則的沖突以及監管資源的分配不均,促進人工智能的高效聯動和協同治理,推動構建開放包容、安全穩定的監管法律制度。從現有法律規則設置而言,生成式人工智能相關的法律規定以原則性的內容為主,可以在具體標準、實施方式、責任劃分等方面進一步完善,通過在立法、執法、司法層面形成穩固的價值理念,推動生成式人工智能產業健康發展。