国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

《個人信息保護法(草案)》中的平臺算法問責制及其完善
發布日期:2021-02-24  來源:經貿法律評論

目錄

一、《草案》確立的平臺自動化決策治理框架

二、揭開平臺技術面紗:平臺算法問責制的初步確立

三、平臺算法問責制的框架完善與制度細化

四、結語

2020年9月,為征求意見而公布的《中華人民共和國個人信息保護法(草案)》(下稱《草案》)確立了我國算法自動化決策治理的基本框架,為自動化決策嵌入平臺經濟、數字政府運行劃定了合法邊界。算法是數字平臺處理海量用戶數據、繪制用戶畫像、精準定價與個性化推送的“生產工具”,已經成為平臺運行的核心動力。聯合國教科文組織于2018年發布的《重塑文化政策報告》指出,算法既是平臺的支配力量,也是文化表達和獲取的變革力量!恫莅浮穼λ惴ㄗ詣踊瘺Q策的相關規定,即增加平臺義務、設置監管框架、強化平臺責任等,勢必將深度影響數字經濟產業發展。筆者從《草案》中有關平臺算法自動化決策治理的基本框架展開,探討《草案》給平臺責任帶來的變化。平臺算法治理已經基本建立了算法問責制框架,一定程度上擺脫了傳統平臺責任的認定困境,走向了“技術之治”,但仍須對制度進行一定細化,建立完善的平臺算法問責體系。

一、《草案》確立的平臺自動化決策治理框架

《草案》給出了算法自動化決策治理的中國方案,從事前設計部署、事中運行與事后結果輸出的自動化決策全生命周期為平臺的算法自動化決策設置了義務框架。

(一)算法影響評估:平臺自動化決策治理時點前移

《草案》第54條確立了自動化決策的事前評估制度,其第1款規定“個人信息處理者應當對下列個人信息處理活動在事前進行風險評估……(二)利用個人信息進行自動化決策……”。其第2、3款規定:風險評估的內容應當包括:(一)個人信息的處理目的、處理方法等是否合法、正當、必要;(二)對個人的影響及風險程度;(三)所采取的安全保護措施是否合法、有效并與風險程度相適應。風險評估報告和處理情況記錄應當至少保存三年!

根據《草案》第54條的規定,平臺須在算法自動化決策上線前進行事前評估。風險評估的內容既包括算法自動化決策的合法性與必要性,也包括其影響及風險。隨著十余年平臺經濟的高速發展,算法自動化決策的濫用與倫理缺失的累積危害已經進入了顯現期。為避免平臺部署缺陷性算法自動化決策可能對公民財產和人身權利,以及對公共利益和國家安全帶來的危害,建立平臺算法事前評估制度已時機成熟。

要求平臺在事前對自動化決策進行評估,是將平臺治理時點前移的重要標志。近年來,網絡平臺治理的逐漸前移由以下原因驅動:其一,事后追責機制已經不能滿足網絡平臺算法自動化決策的治理需求。平臺算法的計算對象是數以萬計的平臺用戶數據,其一旦發生價值觀偏差,對社會的不利影響會具有延展性與持續性。事后對平臺的追責機制不能有效應對,各種補償制度難以從根本上解決問題。其二,平臺責任事后如何確定和劃分成為新的挑戰,具體業務的平臺規范適用出現空白。2019年以來興起的平臺新業態,如直播帶貨、人臉識別等新型業務并無具體的法律對其規制,法律責任很難確定。算法自動化決策的風險是平臺內生的,伴隨著平臺作為設計者的決策與行為,依賴事后追責機制,可能會造成未來不斷出現平臺新的算法自動化決策治理缺位。

《草案》首次在法律層面從個人信息保護的角度確立了算法自動化決策風險評估制度。法律層面對于平臺算法自動化決策的事前評估不再僅僅指向網絡安全與數據安全,此前“四部委”及行業協會組織的隱私與個人信息保護評估有了法律層面的依據。

(二)算法審計制度:平臺自動化決策治理手段升級

《草案》第53條確立了事中的算法審計制度。其規定:“個人信息處理者應當定期對其個人信息處理活動、采取的保護措施等是否符合法律、行政法規的規定進行審計。履行個人信息保護職責的部門有權要求個人信息處理者委托專業機構進行審計。”根據第53條的規定,監管部門的監管對象從外部直接“穿透”至平臺內部的算法運行層面。《草案》要求平臺應對其算法自動化決策等信息處理活動定期進行審計,必要時監管部門有權啟動對平臺的第三方外部算法審計。

算法審計制度的確立體現了平臺自動化決策治理手段的升級:其一,監管部門直接將算法作為監管的對象。這一監管手段在近年來成為各國平臺治理的常用手段,如2019年澳大利亞競爭與消費者委員會(ACCC)宣布計劃設立專門分支機構“主動監視”平臺算法運行,賦予其要求披露算法詳細信息的權限。其二,監管部門的活動直接指向平臺內部日常運營活動,穿透了平臺法人的外殼。我國算法審計制度規定監管部門有權啟動外部審計,體現了在事態嚴重時監管部門可直接對企業組織內部結構與事務進行干預監管。無獨有偶,在“劍橋分析” 事件后,美國聯邦貿易委員會(Federal Trade Commission,FTC)在Facebook設立三個委員會,其工作人員不由企業任免并可向FTC直接匯報工作。其三,平臺的算法治理引入了多方主體參與。在算法審計制度中,企業自律與第三方機構扮演了重要角色。一方面,平臺要定期進行自我審計。這也成了世界各大平臺公司的日常實踐,如微軟設立人工智能倫理委員會,聯邦政府與亞馬遜合作并與企業合作開發促進算法公平性的項目。另一方面,第三方機構在平臺多元治理中扮演越來越重要的作用。如為了人民組織(ProPublica)即通過算法審計發現量刑算法存在的種族歧視問題,紐約大學的AI Now研究院則專門針對紐約市算法監管行動發布報告,評價政府監管行動的得失并提出建議。我國現有的第三方機構發揮作用不足,預計在出臺后的《個人信息保護法》相關制度的推動下將有所發展。

要求平臺進行定期算法審計已經成為世界各國的通行做法。以印度《個人數據保護法案》為例,其要求數據控制者聘請獨立的數據審計方對算法的數據處理行為進行一年一度的審計,審計的內容包括算法的透明度、企業的相關保障措施等,審計結果體現為對數據控制者的信用評級打分。此外,當監管部門認為數據控制者有可能造成算法的損害結果時,也可啟動算法審計。

平臺算法審計制度的確立,既體現了監管部門直接穿透平臺法人的外殼干預平臺日常運營,又初步建立了企業自律與第三方共同參與的算法多元治理框架。《草案》不僅建立了算法影響評估的事前監管制度,也對事中算法運營進行日常監管。

(三)相關用戶權利:平臺自動化決策義務增加

《草案》第25條確立了平臺對算法自動化決策結果事后的相關義務。其規定:“利用個人信息進行自動化決策,應當保證決策的透明度和處理結果的公平合理。個人認為自動化決策對其權益造成重大影響的,有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。通過自動化決策方式進行商業營銷、信息推送,應當同時提供不針對其個人特征的選項!

根據《草案》第25條的規定,平臺須對自動化決策的結果承擔如下義務:第一,保證自動化決策過程的透明和結果的公平合理。這一條款針對一直以來被詬病的對特定人群的算法歧視、大數據殺熟等問題。根據平臺對算法應用的場景,算法透明度的要求可能涉及代碼、邏輯、模型、目標、決策等多個方面,而結果的公平合理可能涉及機會平等或結果平等,以避免平臺利用算法處理海量個人數據可能造成系統性地使某些社會群體處于不利地位。第二,對決策結果予以說明。這一條款與歐盟《通用數據保護條例》(GDPR)第22條類似,個人有權要求平臺對其造成“重大影響”的自動化決策作出說明,但“重大影響”尚未有明確規定。第三,平臺須對用戶提供不針對個人特征的自動化決策選項。這一規定是對《中華人民共和國電子商務法》第18條第1款的再次強調,即“電子商務經營者根據消費者的興趣愛好、消費習慣等特征向其提供商品或者服務的搜索結果的,應當同時向該消費者提供不針對其個人特征的選項,尊重和平等保護消費者合法權益”。

《草案》第25條直接為平臺的自動化決策結果設定了相關義務,并作出了如下突破:第一,突破平臺一直以來采用的“技術中立”抗辯,要求平臺為算法自動化決策結果承擔責任,須保證算法自動化決策結果的公平合理。第二,擴張平臺用戶的知情權,確立了有限制的“算法解釋權”,用戶既可以要求自動化決策結果的透明,也可以在涉及“重大影響”時獲得平臺說明。這一制度致力于打破用戶與平臺之間的信息不對稱,為平臺施加了信息披露的義務。第三,要求平臺打破算法個性化推薦給用戶打造的“信息繭房”,要求平臺保障用戶的知情權。推薦算法的個性化推送、個性化定價,是當前各大互聯網平臺普遍使用的增加利潤的武器。研究顯示,算法根據用戶個人信息定制的結果排名總是高于其他任何因素。2015年優步僅根據動態定價算法就創造了68億美元的利潤。此條要求網絡平臺不得以此損害消費者利益,不得利用個性化推薦損害用戶的知情權以及對用戶進行價格歧視。

總體而言,《草案》設定了平臺算法自動化決策事前、事中與事后的全生命周期的監管框架,既借鑒了近三年來世界各國立法的相關制度,也沿襲了我國既有的相關實踐。

二、揭開平臺技術面紗:平臺算法問責制的初步確立

《草案》將平臺監管對象深入至平臺的底層技術邏輯——算法層面,為平臺的算法自動化決策的設計部署、運行與結果輸出等設置了注意義務,并以此作為平臺責任的承擔依據!恫莅浮烦醪酱_立了我國的平臺算法問責制和以平臺治理為核心的算法自動化決策治理框架。

(一)平臺追責的直接指向:平臺的算法自動化決策

《草案》確立的平臺自動化決策治理框架,體現立法者將“主體—行為—責任”的傳統法律追責思路更新為技術治理思路。立法者充分認識到算法在平臺日常運行中的核心作用,因此對于平臺責任不再糾結于主觀過錯與違法結果等傳統法律責任的認知體系,而是直接將平臺算法作為法律監管的對象。

監管部門將平臺責任追究指向算法層面,解決了法律面臨的如何認定平臺“行為”的理論問題。平臺的運作功能和盈利模式,或者學界提出的“架構”等,均關系到平臺的法律定性以及功能描述。然而,“平臺”一詞至今尚無標準定義。根據現有研究,平臺的雙邊市場效應特征十分突出。平臺的功能已經超越市場主體,實際上已通過算法架構建立了基于數據挖掘與分析的數據服務市場,并且在此市場中,糅合了多向度和多方面的法律關系。平臺算法的計算結果來源于用戶提供的原始數據,而數據提供者并非僅有用戶,還包括交易產生的數據,甚至包含政府提供的公共數據。因此,平臺盡管是“數據控制者”,但平臺通過算法收集、抓取和分析數據,并提供大數據產品(如用戶畫像),同時通過與其他市場主體簽訂服務協議,構建平等主體間的民事法律關系。在這樣一個紛繁復雜的多邊市場中,可落入傳統法律規制對象的既包括平臺用戶協議的解釋規則、平臺對所呈現內容的事前審查,也包括對所提供服務的質量保障義務與相關事后義務,以及基于算法自動化決策所產生的個性化推送等。

由于平臺作為多邊市場存在多重法律關系,因此長期以來在平臺責任的追究問題上一直存在著“平臺責任中行為人與責任人相分離”“平臺本應技術中立所以承擔的是無過錯責任”的理論困境,甚至在刑事責任的追究上也存在“幫助犯正犯化”的爭議!恫莅浮分衅脚_作為個人信息的處理者,平臺要為算法加工個人數據產生的數據質量承擔具體的法律義務。因此,算法自動化決策乃至平臺架構均被納入“行為”的范圍,平臺的算法自動化決策無法逃脫過錯責任的承擔,技術中立與無差別技術抗辯已經無法產生責任規避的效果。

平臺責任中個人信息的使用原則和行為邊界,最終仍須著落于平臺處理個人信息的工具——算法的設計部署、運行的控制上。根據平臺處理個人信息的正當性與合理性原則,平臺還須對算法自動化決策結果的輸出承擔一定的注意義務,保證“自動化決策結果的公平合理”。至此,平臺責任追究的對象已穿透平臺的技術面紗,直抵平臺技術的底層邏輯——算法。

(二)平臺注意義務的擴張:從算法設計到結果輸出

平臺責任的認定機制中,平臺注意義務從簡單的“明知應知”被擴張至算法設計、算法運行直到結果輸出的全過程。平臺這一注意義務的擴張趨勢有學者在理論上早有提及,并于2018年以來逐步被各國立法實踐所采納。

美國法學家萊斯格早在《代碼2.0》中即指出,代碼(算法)搭建了網絡空間架構,建構和引導了用戶行為。萊斯格首次將架構納入法律社會學分析,提升到與法律、市場、社會規范平行的高度,并系統地說明(甚至預言)架構如何“規制”社會主體的在線行為,影響諸如版權、隱私、言論這樣的法律制度,進而提出賽博空間的根本問題:誰最終控制架構的生產和運作。2011年,Cavoukian提出“設計隱私”的理念,主張平臺在算法設計時就有責任考慮用戶的隱私保護。學界主張基于平臺算法(架構)對平臺運行與用戶權利的影響,平臺算法設計階段即應負起相應注意義務。

平臺算法運行中的注意義務也在各國司法實踐中獲得實質性推進。GDPR建立了算法數據處理評估制度、算法認證制度,官方于2019年發布了“行為指引與認證標準”。歐盟議會的《算法責任與透明治理框架》提出建立“算法影響評估”(AIA)機制,歐盟部長委員會向成員國提出立法建議,應對算法對內容與用戶行為的“過程操縱”能力。GDPR的風險預防型立法逐漸獲得各國立法者的青睞,美國、加拿大和德國也逐漸重視算法系統的事前風險防范制度,要求企業承擔更多的信息披露義務,以減少監管機構的負擔。無論是GDPR的算法專條還是美國的《算法問責法案》(Algorithmic Accountability Act of 2019),其中的算法透明度、可見性、評估、認證等制度均充分體現了算法風險預防型流程監管的加強趨勢。實踐中,“西班牙谷歌案” “武爾夫夫人訴谷歌案”等一系列司法判例,以及行政機關的一些行政處罰案都表明了對平臺算法有從設計階段問責的傾向。

同時,各國也加強了算法造成危害結果后對平臺的問責。平臺作為算法的使用者與控制者,有義務在不利后果發生后報告并證明算法系統設計和決策應用的合理性,并有義務減輕算法可能帶來的任何負面影響或者潛在危害。

(三)平臺算法治理的目標:平臺的算法問責

平臺算法治理的核心目標是厘清平臺責任的認定與分配,具體而言是解決“誰負責、怎么負責、負什么責”的問題。平臺算法治理必須既符合技術邏輯,也符合法律責任主客觀相一致的法律原理,打造“負責任”的平臺算法責任體系。

技術一旦應用,則需要對來自人類社會的各種倫理訴求作出負責任的回應。算法問責制有確保平臺負責任地開發和使用算法系統,從而改善人類福利并造福社會的功能。在諸多算法治理手段中,算法透明度和算法問責制之間既有區別又有聯系。其中一個重要區別是,問責制主要是個人或組織的一項法律和道德義務,即對其活動進行說明,承擔責任;而算法透明度可作為實現這一目標的工具,要求平臺以透明的方式披露算法運行過程與結果,算法的結果透明度、目標透明度和影響透明度比算法本身的透明度對算法問責更有意義。歸根結底,透明度、數據出處日志、代碼更改和其他記錄保存都是重要的技術治理工具,平臺責任制度設計的根本目標是建立明確的法律責任鏈。

平臺算法治理以平臺算法問責制作為目標,相比其他治理目標具有優勢。個人數據保護進路的算法治理存在重大局限,強調權利保護而不明確算法責任的歸責主體、歸責條件和規則事由,使得個人權利保護進路的算法監管無法落地。歐盟提倡的“設計隱私”理念過于狹隘,無法涵蓋算法治理的公平、安全等重要價值。美國的事后監管模式事實上是“一事一理”,難以被他國學習、復制。FTC調查程序漫長、反應滯后,事后監管也未形成令人信服的可供對標的最佳實踐,盲目借鑒將會造成司法管轄的低效能,并使得行政監管權限與邊界模糊化,F有《草案》中應以行政賦能作為主要手段,以平衡用戶與科技巨頭“算法權力”的不對等現狀,來滿足未來算法問責制的需求。

平臺從提供“連接”服務走向智能化與自動化后,網絡平臺應當基于“算法責任”的主觀過錯,將“客觀損害結果”和之前已經事先存在的“算法責任”相結合,建立權責一致、責罰相當的監管框架與法律責任體系。

三、平臺算法問責制的框架完善與制度細化

我國平臺責任存在監管時點滯后、責任機理模糊、調整對象過淺的情況,因此常被詬病為“事故型問責”或“按需求處罰”,導致問責的必要性、合理性存疑!恫莅浮反_立了算法問責制的基本框架,但遺憾的是,對于平臺算法責任的機理與層次尚不明晰。因此,應以符合法理和技術邏輯的科學問責思路來校正監管部門與生俱來的“越早越好”和“越嚴越好”的擴張邏輯,使平臺責任設置和追究走向科學化、體系化,監管力度與平臺過錯相適應。

(一)平臺算法注意義務的適度擴張

為了避免事后僅根據損害結果客觀歸責,必須通過制度在事前進行算法設計部署的相關信息披露以確定事后的問責點。對平臺責任中平臺是否盡到注意義務的考察應在事前進行,并以某種形式將事后的問責點固定下來。這樣既能夠避免事后平臺隱瞞與錯誤披露的可能,也可以預防風險,避免錯誤的算法計算反復被適用于海量主體,從而導致損害彌散化。

算法評估標準應當適度擴張。遺憾的是,《草案》對于平臺自動化決策的評估基于其立法目的限于“對個人的影響及風險”,而平臺的自動化決策遠不止于此。例如,平臺匹配工作任務與勞動者的算法,影響就業的薪酬與機會,事關就業公平;平臺對商戶的信用評分算法,對商戶獲得流量與業務至關重要;甚至互聯網保險公司采用的算法決定是否允許用戶投保以及保費高低,已具有了一定的公共服務色彩。平臺是數字經濟中組織社會生產的核心組織,其算法設計直接關系到社會經濟運行,對參與生產與資源分配的社會主體具有深遠影響。

2018年以來,立法者逐漸認識到數據保護制度偏重私權與合規,無法顧及公共利益與網絡治理,因此算法規制成為網絡治理的新抓手。目前,歐盟及各成員國呈現算法立法與數據立法分立且并重的態勢。例如,GDPR的數據處理評估制度(DPIA)即是針對高風險數據處理活動對數據控制者設置的預警自查義務。AI Now研究院也提出了類似的“算法影響評估”制度,要求在重要的公共部門使用算法前,應采取關鍵步驟來確定何時以及如何產生潛在危害的,包括增加其專業知識和能力以有效評估算法系統,并允許第三方審計公共部門的算法。由于近三年英國脫歐事件與歐洲各國大選,算法對網絡信息內容的決定性作用與社會動員力量引起了立法者的關注。歐盟議會指導意見要求在線平臺確保政治廣告透明性、闡述算法推薦內容機制并允許第三方驗證,以應對算法操縱新聞議程。

《草案》的算法事前評估制度可類比建設項目的環境影響評估制度。算法可能產生的公共利益、公民權利等風險的評估,包括風險的來源、性質、特殊性和嚴重性等。在數據實踐中,個人信息的隱私與數據安全并不可截然分開,如許多個人信息泄露是由于未能有效維護信息安全而導致的。有他國實踐主張,算法的設計部署者應提供更為廣泛的評估,包括算法應用對人權、隱私和數據保護的影響等;有的學者主張,算法設計部署應著重提供“社會影響聲明”“歧視影響評估”,甚至“人類影響聲明”等。我國未來應以行政法規或規章對《草案》確立的算法評估制度具化細化,依據算法應用場景、算法處理數據風險、算法使用部門、算法的法律后果等多種風險評估標準,采取不同的算法監管強度。

(二)平臺算法問責制度的細化

第一,應明確平臺啟動算法評估的條件。我國并未明確平臺對算法自動化決策進行評估的啟動標準,應在未來實施細則中具體明確以方便今后平臺的合規工作。我國的《信息安全技術個人信息安全規范》將“處理超過100萬人的個人信息”作為評估啟動的標準,但對于《草案》中的算法評估在何種條件下啟動并未明確。將算法應用涉及的用戶數量作為高風險標準是為了避免算法造成的系統性風險。這種適用范圍的確定以美國《算法問責法案》為代表,針對有權訪問大量信息的大型公司,適用于年收入超過5 000萬美元,擁有至少100萬人或設備的信息或主要充當買賣消費者數據的數據經紀人的公司。法國也將當前(或將來)接觸軟件應用程序的用戶數量構成了確定監管措施是否適當的重要基準,認定每月連接數超過500萬的平臺比連接數較少的平臺受到更嚴格的監管?梢灶A見,我國未來可能建立以用戶數、企業規;蛩惴ǚ旨墳榍爸脳l件的評估啟動條件。

第二,應明確平臺啟動算法評估的后果。算法評估報告是否應公布,并在何種范圍內公布?對公眾披露的最大風險在于算法的設計信息可能會被競爭對手獲取,或被用戶不當使用。例如,網絡用戶在掌握搜索引擎排名權重等信息后,通過搜索引擎優化(SEO)技術對排名和搜索建議進行操縱。這些風險可通過將披露對象限定于監管部門而得以避免。在各國制度中,美國的《算法問責法案》擬要求平臺對監管部門(FTC)披露信息,澳大利亞反壟斷部門的平臺算法監管措施也僅限于對監管部門的披露,而在英國數據保護機關ICO的調查報告中建議數據處理評估的結果應該公開。數據處理評估在實踐當中已經逐漸開始發揮作用。曾供職荷蘭數據保護機關的 Sjoera Nas在EDPL撰文披露了微軟公司Office ProPlus 軟件的影響評估報告。這份報告由荷蘭政府中央采購部門披露。報告披露,微軟在未經用戶同意的情況下,對用戶使用Word、Excel、PowerPoint以及Outlook等常用軟件進行數據收集。微軟隱私和法規事務副總顧問事后予以回應,稱相關軟件已經升級,并對算法進行數據收集的問題進行了修繕!恫莅浮窇谖磥淼木唧w制度設計中明確算法評估報告的公布范圍。

(三)平臺多元治理體系的完善

平臺運行過程中的算法審計是針對算法運行過程進行問責的主要依據。應鼓勵建立多元主體的平臺問責體系,由平臺對算法進行自我審計與評估,以幫助提前識別和減輕算法可能帶來的風險,這既有助于為日后的問責提供充分有效的信息,又符合鼓勵行業自律的自證合規原則。

平臺的自我審計與評估應包括對算法與使用數據在運行階段的頻繁評估,以檢查是否有任何偏見(例如,錯誤的分類、不準確的預測、對個人的負面影響),并制定解決任何偏見因素的方法。算法審計系統應構建為自動決策的準確性和相關性進行的定期審查,并應包括周期性地防止基于敏感數據的錯誤和不準確而發生歧視的程序和措施。政府對平臺的算法監管需要把握侵入平臺內部運行的限度,盡量形成合作規制,通過低成本“輕推”的監管方式調動平臺的技術力量自我規制。如Facebook自2018年起就遭到其偏愛左傾新聞來源的批評,盡管美國并未展開相關調查,Facebook還是對其算法的政治偏見進行了內部審計。

從技術的角度來看,對測試結果的正確解釋可能受到技術能力的限制,尤其是對于機器學習的算法內部如何達成結果可能無法進行有效解釋。這限制了監管部門提供證據確認平臺算法設計和運行中的過錯。因此,還需要事前就設立不同算法的技術標準、測試程序,審核算法設計運行是否達到了相關標準。政府部門應制定測試程序和審計統計技術標準的計劃,并在必要時根據應用領域進行區分。專業技術支持部門應在算法測試中發揮主導作用。

(四)平臺算法責任的體系化設置

《草案》確立了平臺數據活動造成的損害的過錯責任原則(過錯推定原則)。《草案》第65條規定:“因個人信息處理活動侵害個人信息權益的,按照個人因此受到的損失或者個人信息處理者因此獲得的利益承擔賠償責任……個人信息處理者能夠證明自己沒有過錯的,可以減輕或者免除責任。”由此可以推斷,平臺算法自動化決策(數據活動)造成損害的歸責原則也應為過錯責任原則,那么,如何根據不同的過錯程度設計體系化的平臺算法責任,仍有待未來法律與實踐的回答。

首先,平臺算法問責應對不同類型風險設置不同層次的法律責任。對“高風險”的應用場景可采取風險規制思路,強化事前監管,對應用準入設置必要的評估等要求,完善相應責任立法體系。對于高風險的“關鍵算法系統”可適當采取嚴格責任或無過錯責任,對于風險適中的算法則采取過錯責任原則。

其次,平臺對算法的評估與審計不符合標準,或進行虛假評估與審計時,監管部門可以強制要求披露或介入平臺運營。例如,法國2019年《反網絡仇恨法案》提出提高數據處理透明度,接受技術資源高級視聽委員會的監督,并向后者上報所收到問題的處理情況和必要數據;加強與法國司法系統的合作,取消違法用戶的匿名權利并提交用戶信息,接受獨立檢察官的依法審核及必要介入。

最后,我國可以在復雜領域通過司法審判對具體案件進行平臺算法責任的探索,通過個案析理提升立法清晰度。《草案》中的平臺算法問責制多為統籌性、原則性立法,在具體案件適用過程中存在清晰性不足的問題。

四、結語

人工智能時代,法律的重要任務是保障自動化決策公平的核心公共利益!恫莅浮分械钠脚_算法治理框架以保障用戶的個人信息與財產權益為目標,應積極發揮促進公平、發展等民眾福祉的作用。隨著風險社會的來臨,以及平臺權力和算法權力的崛起,法律與監管部門應主動防治風險,建立完善的平臺算法問責制度,形成符合法理和技術邏輯的科學問責思路和監管思路,以促進“負責任”的平臺算法設計與運行體系。

 

責任編輯:楊燕
本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
^