国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

人工智能價值鏈的法律關系與倫理治理學術會議綜述
發布日期:2025-02-12  來源:中國政法大學法治政府研究院

2025年1月13日,由中國政法大學法治政府研究院、互聯網與法律規制研究中心主辦,阿里巴巴集團科技倫理治理委員會協辦的“人工智能價值鏈的法律關系與倫理治理”研討會于北京順利召開。本次研討會設置“人工智能價值鏈與法律規制”、“科技倫理與法律的關系”、“人工智能治理中企業自治與政府監管的邊界”、“如何在具體場景中探尋人工智能倫理原則與開展人工智能倫理審查”四個主題。來自科技部科技評估中心、中國信息通信研究院、北京師范大學、對外經濟貿易大學、首都師范大學、中國人民公安大學、中國政法大學的專家學者,以及來自阿里、百度、抖音等互聯網企業的行業專家圍繞主題進行了熱烈的交流與探討。



中國政法大學法治政府研究院院長、互聯網與法律規制研究中心主任趙鵬教授主持會議,并介紹了會議主旨。趙鵬教授指出,本次會議圍繞人工智能治理中兩個關鍵議題進行研討。一是探討人工智能倫理治理與法律規制的關系。前沿技術的應用會引發人際關系和社會交互方式的深刻調整,產生相應的規范議題。從歷史經驗來看,這種規范往往是由產業界、學術界率先推動,先形成具有自律性質的倫理規范,然后被國家法律引入、確認并強化。信息技術領域的公平信息實踐、生命科學領域的生命倫理便是典型例證。這提示,科技與包括倫理、法律在內的社會秩序具有相互影響、共同演化的特質,我們需要在理解技術實質的基礎上,充分地辯論其影響,采取契合事物本質的規制方案。而倫理治理與法律規制的結合與互動便是科學、理性的規制的關鍵之一。因此,針對人工智能的發展,如何落實傳統的倫理治理與法律規制銜接機制、如何實現倫理先行以及軟法向硬法的轉化、如何實施科技倫理審查制度,對于當前的人工智能治理具有至關重要的意義。二是探討如何圍繞人工智能價值鏈來分配注意義務和相應的法律責任。科學的責任設計對于在防止、填補損害的同時為創新提供確定性至關重要。從歷史來看,自互聯網興起以來,圍繞作為網絡社會“超級節點”的平臺的責任設計一直是互聯網法律政策的核心爭論之一,法律對注意義務邊界的明確也在很大程度上造就了數字經濟的繁榮。就此而言,人工智能的研發、生產及應用過程是多主體參與的價值累積結果,體現了商業運營中的價值鏈特性。我們是否可以考慮依據這一價值鏈特性,為研發者、應用者等相關主體設定合理的責任。本次研討會誠邀各位專家圍繞這些議題研討,以期呈現不同角度的思考,探尋共識的方向,為法律和監管制度完善提供理論支撐。

中國政法大學法與經濟學研究院副教授謝堯雯分享了生成式人工智能價值鏈法律規制。生成式人工智能發展牽涉多主體參與、共同創造價值,體現了價值鏈特征。與傳統軟件研發價值鏈不一樣,人工智能價值鏈涵蓋的數據、軟件工具與主體更多元,各參與者間的關聯更錯綜復雜。法律需要從兩個方面規制人工智能價值鏈。一是基于研發、生產與應用階段劃分認定價值鏈核心主體,將責任配置給最低成本風險預防者;二是,核心主體履行義務可行性取決于能否從其他行動者處獲得必要信息,因此需要建立上下游之間的信息共享機制。在生成式人工智能價值鏈規制中,基礎模型研發者應當履行數據公平保障義務和系統安全保障義務、專業模型研發者應當履行算法影響評估義務、生成式內容服務提供者應當履行內容管控義務,同時關注基礎模型提供者與下游部署者之間的信息共享。價值鏈責任設置需要考慮行政監管與侵權責任的匹配。法院在責任配置上具有信息場景優勢,但存在專業不足。因此,行政監管設置底線規則,同時法院在績效標準與內部管理型標準框架下,通過個案明確行業習慣與守則是否符合合理設計注意,以此推動行業不斷完善自我規制、尋求行業最佳實踐共識。

阿里巴巴控股集團法務合規部法務總監王瑩結合生成式人工智能價值鏈的具體產業實踐,探討了行業實踐層面銜接法律與倫理的難點。首先,王瑩老師介紹了生成式人工智能系統從基礎模型預訓練、微調到模型對齊研發過程中的訓練數據實踐,并提出大模型研發中的數據保護制度具體設計可能需要區別于傳統規則。典型如,敏感信息和畫像數據對于進行偏差檢測、糾正至關重要,嚴苛的數據保護規則可能會帶來技術不公平的結果。隨后,將生成式人工智能價值鏈劃分為基礎供應、模型訓練、服務上線、內容生成、內容傳播階段,并分享每一階段涉及的風險源與控制措施。每一階段所涉及的風險控制主體之間的關系非常復雜,依賴法律法規、標準規范、倫理道德對技術研發設計與技術應用進行規制,實現多方協同治理目標。最后,分享阿里巴巴科技倫理治理的六項基本準則,并提出倫理原則具體化的實踐困境。倫理原則具有抽象性特征,企業內部科技倫理審查目前欠缺明確審查標準,企業審查行為程序、行業守則與法律規范如何協調完善倫理治理,且倫理治理不阻礙新技術發展或帶來不必要創新負擔,是當下科技治理的重點難點。

抖音法律研究總監王潔從模型訓練的法律問題、生成物的法律保護與侵權風險、虛假信息治理角度討論了生成式人工智能帶來的法律挑戰。針對訓練階段高質量數據集的構建而言,日本、韓國、新加坡等紛紛通過立法或指導意見等形式為大模型訓練合理使用版權數據等提供了合法性基礎。就生成物的法律保護與侵權風險而言,需考慮其生成過程的因果關系復雜性和責任主體多元化等特征,應堅持價值鏈主體的權責一致原則,并考慮大模型具有智力普惠的工具屬性,克制對生成環節的過度干預。就生成內容虛假信息的治理問題而言,分享了抖音對生成內容標識的技術探索與實踐,提出虛假信息治理依賴價值鏈上下游主體高度協作。

百度集團AI業務法律合規負責人徐全全分享了AIGC行業合規實踐與AIGC倫理治理的探索。在行業合規實踐方面,徐老師重點分享了合成數據用于訓練、AIGC垂類小模型訓練等新技術融合發展趨勢可能帶來的合規治理新挑戰。倫理治理方面,徐老師提出應鼓勵創新技術的正向價值發揮即“向善”價值,而非單純強調管控風險“去惡”。關于AI“價值對齊”,徐老師提出,行業實踐維度,強調具體的落地路徑及兼顧價值對齊和技術創新發展的解決方案。價值對齊一方面涉及工程師與算法之間的價值對齊,另一方面也會關注AI與社會公眾期待、監管機構指導要求等多方生態位的價值對齊,本身是一個復雜需要持續探索的過程。因此,在動態的價值對齊過程中,AI生態各方需建立協同治理、互信合作的共贏關系,協同努力達成目標。

科技集團數據合規總監兼DPO朱玲鳳分享了AIGC風險規制理念以及軟法與硬法的銜接。就AIGC風險規制理念而言,朱老師認為應進行風險分級管理,不同風險級別與技術能力的人工智能系統應匹配不同的風險防護機制。人工智能風險包括網絡安全風險、生物核武器風險與自主風險,目前如何確定風險等級、風險劃分的標準,是風險規制的重點。就軟法與硬法銜接而言,朱老師分享了行業實踐被監管標準吸納的典型案例。歐盟 GPAI 行為守則的草案中,吸納了行業層面關于“分級評估+外部紅隊測試”的實踐標準,以及 Anthropic RSP 的停訓承諾與 DeepMind “能力檢測”模式。美國NIST 指南(2024 年 7 月草案)在附錄中引用了部分行業最佳實踐,如“多階段部署與風險閾值劃分”等,與 OpenAI 預備框架 Beta 版本提出的多維評估結構較為一致。這體現人工智能治理中,從“企業自發實踐—行業形成共識—監管吸納共識發布規則”的軟法-硬法銜接過程。

淘天集團高級法務合規專家姜文分享了科技倫理審查與AIGC標識規則完善。就科技倫理審查而言,姜老師認為人工智能倫理審查需要關注價值鏈不同主體在不同階段如何將倫理共識嵌入至技術設計與應用中,尤其是需要關注前端研發者與后端應用者的責任配置方案。在生成式人工智能倫理審查中,前端模型研發與模型專業應用的倫理審查側重點不同,姜老師以AIGC在電子商務領域中的專業應用為例,分享行業實踐倫理審查側重點。就AIGC標識規則而言,姜老師分享了設置標識主體與標識范圍需要考慮的因素。應當關注價值鏈各主體標識能力差異,綜合特定場景下的應用風險可預期程度確定標識方案。此外,應特別關注國內第三方機構推動建設的AIGC內容標識檢測平臺,發揮治理優勢。

中國人民公安大學法學院教授蘇宇分享了人工智能價值鏈法律規制的制度設計。首先,為價值鏈參與者設定的行為義務應當考慮該主體能力、行為風險、成本-收益比較等因素。例如,應當建立模型分類測評基準,根據不同模型的技術底層和風險特征選擇和適用相應測評方案。在信息共享義務方面,上游模型研發者的信息共享范圍設定應當考慮商業秘密和知識產權保護因素,一定范圍內共享特定場景的算法解釋信息、法律規定的模型測評信息、特定前提的安全風險報告即可。其次,在價值鏈沒有發生增量風險時,不應對價值鏈各參與者實施重復監管。目前生成式人工智能價值鏈上下游參與者都需要履行同樣的備案與評估義務,為部分下游部署者帶來了過度的規制負擔。再次,對于由哪些主體來制定價值鏈參與者行為標準議題,需要考慮各規制主體的信息優勢與專業能力。人工智能價值鏈中各主體行為與結果的關系、技術設計是否嵌入倫理考量,極其復雜且專業,而法院欠缺專業優勢,也無法像立法過程一樣調動足夠的資源和參與,因此應盡可能使治理規則形成任務前置,而不是依賴法院確定。同時,在具體個案中,如果價值鏈參與者違反了行政監管規則,可適用過錯推定的歸責原則。最后,人工智能價值鏈規制可引入“風險增量規制”理念。價值鏈各主體應當為自己行為負責,只有當參與者的后續行為產生了實質性的新風險,才需要進行風險評估和增量治理。

北京師范大學法學院副教授王靜分享了如何完善人工智能倫理治理與法律治理。首先,人工智能科技倫理治理旨在為科技研發者設定行為準則,確保人類社會的核心道德準則與價值觀被嵌入至技術系統。其次,相較于其他國家,我國科技倫理治理實踐尤為注重通過法律促進倫理治理。典型如,我國頒布了專門的《科技倫理審查辦法》,這有助于增強倫理治理的規范性與強制性。但在具體實踐中,倫理規范如何向法律規則的轉化、如何設置具體的倫理審查程序、倫理審查是否應納入行政訴訟等議題,仍有待厘清和完善。再次,處理好人工智能倫理治理與法律治理關系關鍵在于,協調好自下而上治理與自上而下治理的關系。在人工智能規制領域,政府層面存在信息與專業能力不足,應當依賴企業與行業發展符合最佳實踐的倫理準則與技術標準,并協調好軟法向硬法轉化的路徑。最后,在數字政府發展背景下,應當關注到公共監管部門研發、應用人工智能與私主體研發、應用人工智能可能需要不同的制度規范。

首都師范大學政法學院副教授崔俊杰分享了如何完善人工智能價值鏈法律責任與人工智能倫理治理。首先,有必要區分價值鏈參與者的行為責任與結果責任,前者體現為行為過程的合規義務,后者關注行為導致的最終結果。其次,人工智能價值鏈法律責任是一個多維度、立體化的責任體系,這其中尤其需要重視公法責任與私法責任的不同制度功能,從而建立相互補充與制約的公私法協同責任體系。再次,不同于道德,倫理是基于程序得到的共識,這種共識包括“去劣”與“擇優”。在“去劣”方面,通過程序達成“不能做什么”較為簡單,難點在于得出“什么是善的行為”的結論。為此,需要借助倫理審查與商談程序進行價值對齊。 但基于程序得出的共識具有較大不穩定性,如果轉化為法律規則,則屬于法律中的“不確定概念”。最后,人工智能治理依賴行業守則、倫理原則等軟法規范,但某一軟法規范是否是最佳實踐難以評判,這為法院在具體個案中評判某一軟法規范是否符合合理注意標準帶來了挑戰,因此需要進一步探索軟法規范轉化為硬法規則的標準與程序。

對外經濟貿易大學法學院副教授孔祥穩分享了人工智能價值鏈法律責任設置考慮因素與倫理法治化的制度意涵與難點。首先,責任體現為行為義務的分配,因此為價值鏈各主體分配行為義務需要考慮:相關主體是否開啟了風險,相關主體是否對風險具有控制能力。其次,倫理法治化包括兩個層面的方式——將某些基本倫理原則轉化為法律要求,或者設置特定的法律裝置要求科研主體進行倫理審查。將倫理原則轉化為法律需要考慮倫理的特殊性。一方面,倫理與道德不同,后者具有很強的個體差異性,而前者是社會成員共同認可的基本準則。但在科技倫理中,各方主體對科技發展的態度存在重大差異,基于什么樣的機制產生的共識能夠轉化為法律規則,是科技倫理治理法治化面臨的難點。另一方面,倫理具有多層次化特征,科技應用的不同場景存在不同的倫理要求。因此,需要明確將哪些倫理規范轉化為法律由公共部門執行,哪些倫理規范交由倫理審查或企業信息披露等機制執行。最后,目前倫理審查制度仍然較為薄弱,欠缺明確和具體的審查標準,且很多法律將倫理審查責任界定為“承擔相應責任”,欠缺威懾效力。

中國政法大學人文學院講師陰昭暉從倫理學視角分析了“自動駕駛電車難題”。首先,“自動駕駛電車難題”可從邏輯學與倫理學兩個視角分析。從邏輯學看,這一難題屬于沖突情境下的非單調推理問題。從倫理學看,智能機器會按照預先設定的倫理算法,對交通參與者的生命安全進行分配決策。其次,在倫理選擇方面,后果主義或功利論主張以整體利益最大化或損失最小化為原則;康德義務論強調人的生命至高無上,人絕非手段;羅爾斯公正原則倡導通過“無知之幕”的方式進行選擇。再次,研究發現,不同文化背景下的人們在部分選擇上存在全球道德共識,比如傾向于保護多數人、人類、年幼者和守法者。但在某些選擇上也存在差異,如東亞和中東部分地區保護年幼者的意愿相對較低,而中國更注重保護車內乘客等。再次,德國相關倫理規則指導報告體現出康德義務論,并兼顧功利論考量,遵循羅爾斯“無知之幕”原則,確保駕駛算法的公正性。最后,對于AI的可解釋性問題,基于邏輯的方法有助于提升AI決策的可解釋性,這對AI的法律規制、倫理審查等至關重要。

中國政法大學法與經濟學研究院助理教授遲舜雨從敏捷治理與公司治理兩個視角闡述人工智能科技倫理治理制度設計。人工智能科技治理倫理主要包含兩個維度。一是“不作惡”,二是“做善事”。不作惡指的是負責任地運用AI,避免創造負外部性,需要自上而下的規制路徑,依賴敏捷治理。敏捷治理則強調以整體性、關聯性、動態性為主導的多主體共治與多主體交流,建立暢通的交流機制。政府負責制定監管規則和法律框架,設定宏觀政策;企業積極探索構建內部治理體系,尋求發展與倫理規制之間的平衡;行業協會和科研機構制定行業規則和準則。做善事,即讓做善事的公司獲得收獲,創造正外部性,依賴公司治理。公司治理理論的經典觀點認為公司經營和治理應以股東價值最大化為目標,但近年來,隨著企業社會責任、可持續發展、環保意識等理念的興起,股東中心主義逐漸朝多元利益主義發展,這與倫理治理相契合。如何判斷公司真正做了善事,可通過統一標準化的信息披露和第三方審計來評估,但披露標準和指標仍有待進一步完善。

中國信息通信研究院互聯網法律研究中心工程師杜安琪分享了當前人工智能治理面臨的問題和可行的治理機制。就治理問題而言,人工智能治理涵蓋整體性和要素性兩方面。目前在整體性上,我國關于責任劃分、監管機制等需要完善。在要素方面,目前關于數據、算法、算力等要素規制制度仍然有待完善。就治理機制而言,人工智能治理機制包括政策、法律、科技倫理、標準、技術、自治六大層面,不同治理機制的選擇取決于具體問題的表現形式。法律具有穩定可預期性以及普遍約束力,主要關注權利與義務,旨在“定分止爭”;科技倫理具有指引性、基礎性、可以凝聚廣泛共識;企業自治具有適應性、自主性、模式多樣性的特征。我國人工智能治理應當充分考慮技術產業發展階段、不同治理手段的優勢特點、立法認知水平等,從關鍵問題出發,考慮應用各種治理機制。

科技部科技評估中心知識產權與法務部處長鄧益志分享了人工智能倫理治理與法律規制的關系。當前,人工智能技術快速發展為人類社會帶來諸多便利,同時也帶來巨大變革和挑戰,人工智能倫理、安全和社會問題日益凸顯。現有人工智能相關法律規范零散、系統性和操作性不強、規章效力層級較低,科技倫理規范剛性約束不足、涉及人工智能倫理審查監管的可操作性制度規范有待健全,亟需加強人工智能倫理治理和法律規制,以期實現人工智能技術向善與增進人類福祉并向前行。人工智能立法需要厘清倫理與法律的關系,倫理與法律各有特性,倫理治理和法律規制相輔相成,實現人工智能治理手段的“軟硬結合”。人工智能治理要遵循良法善治,將倫理基本原則和立法原則相結合,提升倫理原則的指引力和執行力,形成倫理與法律的合力。通過立法設置人工智能管制框架和紅線,明晰各類主體的權責關系,建立系統的人工智能倫理審查監管制度,以及人工智能倫理風險評估和監測預警機制,設定人工智能研發和應用相關主體違反法律和倫理規范的問責機制,確保人工智能創新發展與安全可控。

中國政法大學法學院行政法研究所所長成協中教授對會議進行總結,并對人工智能治理中軟法與硬法關系進行了分享。本次研討會就人工智能法律規制取得了三點核心共識。一是人工智能規制需要法律與倫理并行,發揮法律規制與倫理治理回應科技發展的制度優勢,同時做好倫理與法律的銜接。二是人工智能價值鏈規制需要在研發與應用階段進行不同的規則設計,同時,需要結合不同行業特征與應用領域,為價值鏈主體設置不同法律責任。三是人工智能法律規制需要處理公法與私法的關系。對于高度復雜的技術專業問題,法院在分配注意義務方面存在專業不足,應更依賴立法前端分配價值鏈主體行為義務。成協中教授隨后指出,人工智能法律治理與倫理治理需要協調好軟法與硬法關系,并就此進行了分享。一是,在存在硬法供給不足時,軟法可以作為規范試驗。人工智能技術發展迅速,且其帶來的行為方式具有開放性,因此缺乏確定性規則通過硬法規范。不同于硬法基于政治權力形成規則,軟法在規則生成上具有自下而上屬性,更有助于引到產業尋求符合自身發展特征治理規則。因此,在人工智能領域,軟法發揮規范準備與試驗功能。根據軟法實施情況,可以即時將共識性較強的軟法規范轉化為硬法實施。二是,軟法有助于形成多中心治理格局。軟法與硬法在實施方式上存在區別,前者依賴說服、指導等柔性方式,后者依賴權力強制方式。在人工智能技術發展實踐中,這種柔性治理方式有助于發揮社會主體治理能力,激勵產業界形成共識,有助于推動人工智能治理形成多中心治理格局。


責任編輯:高瀚偉
本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
^