国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

張凌寒:算法治理應首先立足保障算法權利
發布日期:2023-10-16  來源:中國社會科學網  作者:張凌寒


  算法治理應首先立足保障算法權利。算法權利是指個體享有的,用于知曉、參與或改變、拒絕算法自動化決策的權利,目的是確保個體利益不受到算法自動化決策的侵害,以及受到侵害后能夠獲得救濟。算法權力是指公共機構和平臺通過一定算法面向相對人、用戶和公眾主動施加的一系列作用和影響,這種作用和影響借助精心設計的算法模型和互動機制體現并實施了公共機構和平臺的意志。

  在算法治理體系中,算法權力是算法治理的直接抓手,卻并非最佳發力點。過于將算法風險防范與治理寄托于算法權力規制,會忽視算法權利保障同樣是風險重要成因,也脫離了算法治理的最終目標——保障個體在數字時代的福祉。 

  權利保障機制薄弱同樣是風險成因

  算法權利保障而非算法權力監管應當成為算法治理的首要立足點。算法權利并非創制,而是具有傳統權利的邏輯基礎,用以調適算法自動化決策中畸輕的個體權利,如此方可消弭法律實然權利與應然權利的鴻溝,在人工智能時代以新的制度來實現古老的平等、自由、正義的目標。目前,“算法歧視”“算法霸權”等算法權力失范現象,現實地影響用戶權益和公民權利。很多學者主張算法權力監管應當成為算法治理立足點,實踐中算法權力監管的相關制度也成為現階段防范算法風險的主要路徑。然而,不可忽視的是,算法權利保障機制的薄弱同樣是風險成因。   

  近年來,我國算法治理體系的思路緊緊圍繞算法權力規制展開。如2022年我國頒布實施了《互聯網信息服務算法推薦管理規定》(以下簡稱《規定》),充分把握了算法的內生性風險和應用型風險,圍繞算法權力的監管有針對性地設計了風險防范規則。但遺憾的是,我國算法治理體系中缺乏有效的私權救濟路徑,而個體多樣化的損害無法通過算法權力規制獲得有效救濟。在算法自動化決策中,隱私、個人信息保護、消費者保護和平臺勞工權益等多樣化的權利,勢必無法被算法權力監管制度一一周全覆蓋。目前算法權利的私權救濟路徑不暢造成了此類損害的救濟過于倚重行政監管,形成路徑依賴。然而受制于資源,行政監管往往不充分。且公法手段須以有法律明文規定處罰為限,應對靈活多變的實踐問題難免捉襟見肘。一方面是人工智能時代給原有法律權利體系帶來的挑戰,另一方面是算法權力監管無法完全覆蓋算法風險的預防與損害的救濟,這促使了 “算法權利”在學理層面的出現。

  現階段算法治理應立足算法權利保障機制

  算法權利應該成為下一階段算法治理的立足點。算法權利中,既有傳統法律權利在人工智能時代的延續,如個體依據合同制度、消費者權益保護制度、行政法制度本應享有的權利;也有為應對人工智能時代的挑戰,基于政策考量和利益衡量并經特別制度設計的權利。算法權利的目的是確保個體利益不受到算法自動化決策的侵害,以及受到侵害后能夠獲得救濟。算法權利近年來逐漸被各國立法認可與確定,但其種類、內涵與外延尚存爭議。在各國立法中,較早提出算法權利的是2018年實施的歐盟《通用數據保護條例》(以下簡稱GDPR)中關于數據主體對算法自動化決策的相關請求權。例如在GDPR的背景序言第71條提出數據主體具有知曉算法自動化決策的權利:“應該采取適當的保障措施……保證數據主體獲得對此類評估之后達成的決定的解釋,并對決定提出質疑。” 《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)、我國《電子商務法》以及《信息安全技術個人信息安全規范》等法律法規,也賦予個體在算法自動化決策中的知情權、解釋權、脫離自動化決策權等相關權利。《個人信息保護法》第24條規定:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”

  第一,算法權力重在限制與規范,而算法權利可兼顧保障與救濟。算法權利并非憑空創制,而其中每一項權利既有著傳統權利的制度基礎,也體現了法律制度應對人工智能時代算法決策大規模應用的因應性變革。算法權利本質是請求權,當個體成為或即將成為算法自動化決策的對象,即享有了相關的算法權利。在商業算法自動化決策中,個體通過用戶協議與算法應用者締結合同關系,基于合同制度而生的意思自治、信賴利益等權益生成了算法解釋權、算法決策拒絕權等。進而商業自動化決策算法應用者與個體的不對稱權力關系,使得個體也具有消費者的法律地位,算法解釋(知情)權、算法決策拒絕權本質上是由消費者權益保護制度中的消費者知情權、自主拒絕權、公平交易權演變而來。在行政算法自動化決策中,算法解釋(知情)權是行政公開原則的應有之義,算法決策拒絕權也可在對行政相對人的救濟中找到請求權基礎。因此,算法權利本質是一組被算法自動化決策的個體所享有的請求權,兼具保障與救濟個體權益的功能。

  第二,如果說規制算法權力是要求算法“不作惡”,立足算法權利則是要求算法“做好事”。算法權利是施加于算法應用者的法律負擔,目的在于分擔算法決策的一部分社會風險。算法權利要求算法應用者向個體告知、解釋算法決策,并提供個體參與和提出異議的機會,以及為個體提供退出算法決策的選擇。將算法決策的風險分配給算法的開發者和使用者出于如下考慮:其一,算法的開發和使用者具有分散風險的能力。相對人的力量過于弱小,應把風險分配給技術力量更為強大的算法開發者和使用者,可誘導可控制風險之人盡可能初期就降低風險以避免損害發生。其二,保護個體對算法自動化決策的信賴利益是算法開發者和使用者需承擔相關算法義務的基礎。合理信賴之保護的不斷加強一直是法律現代化進程中的主線之一。個體基于信賴利益委托算法應用者利用個人數據進行自動化決策,因此有理由期望在發生危害和錯誤時,算法應用者以公正和負責任的態度做出回應。這種合理要求并不因法律或用戶協議沒有專門提及或排除而消失。法律這樣分配風險有助于形成人對算法自動化決策的基本信任,而工業的發展、科技的研發等都需要一種信任模式的建立和良性運作。

  第三,在已有足夠算法權力規制的背景下,應及時構建算法權利作為算法治理的“安全網”。“安全網”一詞常被用于描繪社會保障體系的作用,指當公民遭遇變故與不幸時,社會保障體系能夠滿足公民基本需求,緩解社會焦慮。如果算法治理體系中的一系列事前的風險防范制度、事中的正當程序以及事后問責制度都未能起到作用,私權利性質的算法權利就成為保護用戶個人權利、恢復社會信任的最后一道防線。因此,“安全網”一詞形象地描述了算法權利在算法治理體系的定位。算法權利行使的成本可通過具體制度的設計而逐步降低,但不能以此作為其沒有制度價值的理由,至少其能宣告個體權利,彰顯法律態度。正如為了實現產品質量安全,法律設計了多層次的制度體系,包括事前的行業準入制度、產品質量體系標準,事中的行政部門質量抽查檢測,事后的刑事、行政責任以及產品侵權責任。雖然不能寄希望于以私權性質的產品侵權責任發揮最為重要的作用,但產品侵權責任作為私權救濟路徑有其必要的存在價值。

  過于偏重規制算法權力會忽視算法治理最終目標

  首先,算法治理的最終目標是個體的平等及其合法權益的保障。算法被平臺公司與公共部門廣泛用于處理海量數據,作出瞬時性的自動化決策,個體處于被決策的地位。算法通過對數據的占有、處理與結果輸出成為調配資源的新興力量,演化為資源、商品、財產、中介甚至社會建構力。如在平臺架構中,算法直接成為行為規范,影響和控制個體行為。在政府部門中,算法輔助甚至代替公權力,作出具有法律效力的自動化決策。一旦算法作出不公正的決策,則有可能因其廣泛適用于海量用戶造成嚴重的社會后果。例如在美國,私營企業和政府公共部門采用算法和大數據作出的自動決策,曾使得數百萬人無法獲得保險、貸款、出租房屋等一系列服務,如同被監禁在“算法監獄”。平等的內涵隨著時代變遷不斷改變,早已從強調自由和人權的政治平等,擴展到強調資源和福利的經濟平等,進而到強調機會和能力平等的社會平等。人工智能時代產生了新的不平等,而這種不平等更加隱蔽和嚴重——知識、信息獲得和掌握的不平等。這種數據、算法與算力的不平等,嵌入了社會固有的權力架構,使得本就弱勢的個體可能受到的不公平待遇更加隱蔽。而算法權利則是個體在人工智能時代的數字生產體系與數字政府治理中應享有的必要權利。無論是與掌握數字生產的平臺相比,還是與在數字治理中效率極大提升的政府相比,個體都居于極為弱勢的地位。因此,算法治理的最終目標,是個體的平等及其合法權益的保障。

  其次,唯有算法權利是用戶啟動的算法治理路徑。算法權利的設置正是為了平衡算法決策使用者和個體之間這種極為懸殊的權力關系,為可能受到不利的算法決策的個體提供救濟,從而達到法律所追求的平等。在現有的算法治理體系中,算法問責制、算法透明度、平臺自律等制度要么由政府以監管為目標推進,要么代表算法應用者的立場。在政府、平臺和用戶三方力量的對比中,個體既沒有政府公權力那樣強大的力量抗衡平臺,也沒有技術力量做自動化決策算法的審查,甚至沒有力量用腳投票離開平臺。唯有算法權利是可以由用戶啟動的算法治理路徑。因此,私權利保護路徑具有不可替代的作用。為此,我國算法治理制度中,也針對未成年人、老年人、勞動者和大數據殺熟等場景,分別配置相應的行為規則(《規定》第19條至第21條)。為了實現自下而上的算法治理,《規定》通過權利路徑,賦予個人對抗算法決策的權利。

  最后,算法權利制度能夠更好救濟“數字弱勢群體”。由于搜索、掌握、處理、使用信息設備的知識能力的差別,某些個體成為“數字弱勢群體”,并極易被不均衡的技術權力所操控。“數字弱勢群體”的產生除主體自身原因外,更重要的還在于技術發展所帶來的社會秩序變革、 社會矛盾轉變和社會結構革新等,使得原有社會制度供給與新的公眾訴求不匹配。算法權利可保障數字弱勢群體有獲得幫助的權利,從而實現個體在人工智能時代獲取、運用技術上的平等。具體包括獲得接入網絡的權利,也包括獲得在數字中基于幫助享有同等法律權益的權利,其目的在于實現社會的數字平等。

  (作者系中國政法大學數據法治研究院教授)



責任編輯:譚則章
本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
^