国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

汪慶華:算法透明的多重維度和算法問責(zé)
發(fā)布日期:2021-02-02  來源:《比較法研究》

內(nèi)容提要:隨著算法在社會經(jīng)濟(jì)中的廣泛應(yīng)用,算法如何向公眾負(fù)責(zé)成為一個重要的法律議題。在算法引發(fā)的偏見、歧視和支配的討論中,平等保護(hù)、正當(dāng)程序和反不正當(dāng)競爭機(jī)制將發(fā)揮重要的作用。作為算法規(guī)制的一般化原則,算法透明是實(shí)現(xiàn)算法問責(zé)的重要機(jī)制。我國《個人信息保護(hù)法(草案)》明確了算法自動化決策的透明度要求。就具體規(guī)制手段而言,算法透明包含著從告知義務(wù)、向主管部門報備參數(shù)、向社會公開參數(shù)、存檔數(shù)據(jù)和公開源代碼等不同形式,算法解釋權(quán)也可以看成是算法透明原則的具體化體現(xiàn)。算法透明的目標(biāo)在于化解人類對算法決策可能失控的風(fēng)險的憂慮。算法監(jiān)管需要將事前監(jiān)管和事后監(jiān)管結(jié)合起來,在事前監(jiān)管中建立算法透明原則,監(jiān)管強(qiáng)度需結(jié)合場景和目標(biāo),對現(xiàn)有算法引發(fā)的消費(fèi)者保護(hù)、中小商戶利益、公眾知情權(quán)等問題進(jìn)行有針對性的回應(yīng),基于比例原則,選擇適當(dāng)?shù)耐该骰x務(wù),通過多重維度的算法透明機(jī)制的構(gòu)建實(shí)現(xiàn)算法問責(zé)。

關(guān)鍵詞:算法透明;報備參數(shù);影響性評估;算法問責(zé)

 

  算法已經(jīng)廣泛應(yīng)用于社會的各個場景。平臺利用算法對用戶進(jìn)行個性化推薦,警察運(yùn)用算法預(yù)測某一地區(qū)犯罪的情形以決定警力配置,社會福利部門利用算法決定申請者能否獲得失業(yè)補(bǔ)助,人事部門利用自動化程序?qū)ι暾垜艏娜诉M(jìn)行審批,法院利用算法輔助量刑和作出假釋決定。無論是商業(yè)運(yùn)用還是政府決策、輔助司法,算法已經(jīng)成為市場、政府之外的重要的泛在性技術(shù)力量算法是技術(shù)理性的象征,它在社會中的廣泛應(yīng)用帶來了自由意志和正義等具有主體性色彩的價值之間的緊張。

 

一.算法的運(yùn)用與規(guī)制

  算法可能的誤用和濫用引發(fā)了規(guī)制的呼聲和行動,而算法在政府自動化決策中的系統(tǒng)性失誤直接引發(fā)了相關(guān)的訴訟。2019年,格蘭特包瑟曼(Grant Bauserman)、卡爾威廉姆斯( Karl Williams)和泰迪博爾(Teddy Bore)在密歇根法院提起了對該州失業(yè)保險局的集團(tuán)訴訟,他們主張,在利奇施耐德(Rich Snyder)州長任期內(nèi),利用密歇根融合數(shù)據(jù)自動化系統(tǒng)(Michagan Integrated Data Automated System, MIDAS)對申請失業(yè)補(bǔ)貼進(jìn)行審核,由算法決定申請者是否欺詐,并施加處罰。這是一個自動化行政裁決的程序。最后發(fā)現(xiàn),這套系統(tǒng)存在著93%的出錯率,40000人受害 澳大利亞社會保障部的智能催債(Robo-Debt)系統(tǒng)Centrelink發(fā)生了幾乎類似的算法裁決錯誤,成千上萬的福利申請者收到了Centrelink系統(tǒng)的郵件,要求他們證明未冒用資格獲得社會福利,該系統(tǒng)存在20%的錯誤率,收件人或者根本沒有獲得過社會福利或者政府求償數(shù)額超過當(dāng)事人應(yīng)當(dāng)給付的。這一自動化算法受到了激烈的批評,國會工作小組建議暫停這一系統(tǒng)的使用密歇根融合數(shù)據(jù)自動化系統(tǒng)以及Centrelink的重大缺陷直接向我們呈現(xiàn)了算法裁決錯誤給民眾社會福利權(quán)帶來的系統(tǒng)性侵害。心理學(xué)研究表明,人類在面對計算機(jī)給出的正確解決方案的時候傾向于無視或不去搜索相反的信息,人類一般不太愿意偏離或者質(zhì)疑算法形成的結(jié)果。這一人機(jī)互動形成的對自動化/算法的過度依賴被稱之為自動化偏見,人類對計算機(jī)系統(tǒng)有一種過度的信任,在面對自動化形成的解決方案時往往無視那些和其方案相矛盾的信息,一般更不會去搜索和它相反的信息。所以,在這兩套系統(tǒng)最初出現(xiàn)錯誤,民眾對錯誤反饋的時候,算法的運(yùn)營者對這類信息基本采取無視的態(tài)度。除了官僚體制的慣性之外,對自動化決策的過度信賴也難辭其咎。算法決策日益普及,這將會帶來行政程序的結(jié)構(gòu)性調(diào)整。現(xiàn)有的法律規(guī)制框架應(yīng)當(dāng)確保受到算法決策影響的人能夠理解和挑戰(zhàn)這些決定。

 

  在系統(tǒng)性風(fēng)險之外,算法的應(yīng)用還會帶來算法歧視、算法支配以及算法黑箱的問題。數(shù)據(jù)本身反映了社會的現(xiàn)實(shí)狀況、人民的心理和社會的偏見。數(shù)據(jù)驅(qū)動的算法/人工智能將會重復(fù)、再現(xiàn)乃至強(qiáng)化數(shù)據(jù)中的偏見。算法所利用的數(shù)據(jù)中隱含的偏見問題是一個社會事實(shí)。偏見進(jìn),必然是偏見出。輸入的數(shù)據(jù)暗含偏見、測度偏差、變量不足以及不適當(dāng)?shù)臉?biāo)準(zhǔn)等原因都有可能導(dǎo)致數(shù)據(jù)挖掘和算法帶來對特定群體的不利影響。弗吉尼亞尤班克斯(Virginia Eubanks)在《自動化不平等》中指出,當(dāng)大數(shù)據(jù)分析和算法應(yīng)用于窮人和工人階層的時候,數(shù)據(jù)和算法機(jī)制帶來現(xiàn)狀的自然演化,而非革命性變革,它進(jìn)一步強(qiáng)化和延續(xù)了近代的濟(jì)貧措施中的道德主義傾向和懲罰性后果。另外,算法也因?yàn)槭鼙娙后w在性別、年齡、膚色、地域等問題上而產(chǎn)生不同的影響,帶來差異性的后果,乃至直接的歧視;無論社會事實(shí)還是差異性后果都可以運(yùn)用平等保護(hù)的原則和理論進(jìn)行回應(yīng)。

 

  就算法支配而言,其可以分成兩個層面:公民個體層面,應(yīng)當(dāng)以技術(shù)性正當(dāng)法律程序去建構(gòu)算法救濟(jì)機(jī)制,用戶在算法規(guī)制之外,應(yīng)當(dāng)有接近司法/正義的機(jī)會。任何一種決策機(jī)制,當(dāng)它對相對人的權(quán)利義務(wù)造成直接影響的時候,賦予其救濟(jì)的權(quán)利、聽取其意見和陳述是正當(dāng)法律程序最基本的要求。我們很難將算法本身界定為正當(dāng)程序,將算法界定成正當(dāng)程序是誤會了正當(dāng)程序本身和正當(dāng)程序需要規(guī)制的對象。監(jiān)管者執(zhí)法是市場秩序維護(hù)的一種常規(guī)手段,或者說在某些行為具有外部性時進(jìn)行干涉的手段。更為重要的機(jī)制,仍然應(yīng)當(dāng)放在對消費(fèi)者/用戶/公民個體行為的激勵上。

 

  在企業(yè)層面,如果算法改變了市場結(jié)構(gòu)、損害消費(fèi)者福利,這將引發(fā)反不正當(dāng)競爭乃至反壟斷的執(zhí)法。平臺企業(yè)利用算法完善定價模型、優(yōu)化客戶服務(wù)以及預(yù)測市場發(fā)展趨勢。算法合謀成為監(jiān)管者關(guān)注的現(xiàn)象,2017年OECD《算法與合謀:數(shù)字時代的競爭政策》報告中指出,因?yàn)樗惴ǖ难杆侔l(fā)展,競爭對手之間可以即時互動、利用代碼作為媒介,達(dá)成共同目標(biāo)。數(shù)字經(jīng)濟(jì)環(huán)境下,協(xié)議的概念應(yīng)和傳統(tǒng)的協(xié)議有所差別。2020年11月10日,國家市場監(jiān)督管理總局公布的《關(guān)于平臺經(jīng)濟(jì)領(lǐng)域的反壟斷指南(征求意見稿)》針對平臺經(jīng)濟(jì)的業(yè)務(wù)模式特點(diǎn),細(xì)化了橫向壟斷協(xié)議和縱向壟斷協(xié)議的概念,對濫用數(shù)據(jù)優(yōu)勢、算法合謀和軸輻協(xié)議進(jìn)行了直接的規(guī)制。平臺規(guī)則、數(shù)據(jù)和算法成為平臺經(jīng)濟(jì)反壟斷的重要考量因素。

 

  算法黑箱這一隱喻對算法監(jiān)管的影響非常關(guān)鍵。黑箱的隱喻表達(dá)了由于算法不透明而引發(fā)人類失去對決策過程控制這一風(fēng)險的擔(dān)憂。人類將影響自身權(quán)利義務(wù)的決策賦予了自己無從理解的黑盒子,這似乎意味著算法透明的困難乃至不可能。算法黑箱輸出的結(jié)果就成為不可避免的事情,就像自然界的力量一樣,只能被馴服,無法被控制。算法面紗也許是一個比算法黑箱更為合適的隱喻,將自動化決策背后的人類決定和價值判斷披上了一層面紗。面紗的好處是它邀請人類隨時把面紗揭開來,從而露出算法的真實(shí)面貌。

 

  目前存在著算法透明的不同立場,有觀點(diǎn)認(rèn)為,算法透明是一種迷思,是法律人對技術(shù)不理解情況下的一種遐想,應(yīng)當(dāng)放棄算法透明的追求。反對算法透明,一般不外乎下面三個理由:算法透明不可能,算法透明無意義以及算法透明損害相關(guān)的利益。對這三個理由的直接回應(yīng)就是,不同程度的算法透明具有不同的意涵,從算法運(yùn)用的告知義務(wù)、報備參數(shù)、公開參數(shù)到公開源代碼,算法透明不僅可能而且可行;算法透明對于用戶/公民的知情權(quán)以及其他權(quán)利的保障具有實(shí)質(zhì)性意義;算法透明本身就是在公民和企業(yè),以及公民和國家直接對失衡的天平的校正機(jī)制,算法透明的程度要求是在比例原則下作出。算法透明是實(shí)現(xiàn)算法問責(zé)的重要機(jī)制。正由于算法無法將環(huán)境的整體性作為決定的基礎(chǔ),而只能“看到”之前人類編程讓它們看到的東西。算法無法將輸入之外的信息作為其決策的依據(jù)。所以,算法透明機(jī)制顯得愈發(fā)重要。
  綜合而言,算法透明仍然是法律回應(yīng)的各種路徑當(dāng)中最直接、有效和恰當(dāng)?shù)姆绞健1疚慕Y(jié)合我國和歐盟在關(guān)于算法方面立法的情形,進(jìn)行一個類型化的分析,由表及里,并結(jié)合這些透明性規(guī)則的實(shí)施效果,提出有關(guān)算法透明性規(guī)制進(jìn)路、實(shí)施機(jī)制和救濟(jì)機(jī)制的框架性主張。2020年10月21日全國人大常委會公布的《個人信息保護(hù)法(草案)》規(guī)定了自動化決策的透明度要求以及處理結(jié)果公平合理。這是我國在立法中對算法透明原則的確認(rèn),將對算法秩序的形成,數(shù)字正義的實(shí)現(xiàn)起到基礎(chǔ)規(guī)范作用。算法透明包括兩個面向,即對政府披露和向公眾披露。算法透明具體包含著從告知義務(wù)、向主管部門報備參數(shù)、向社會公開參數(shù)、存檔數(shù)據(jù)和公開源代碼等不同形式,算法解釋權(quán)也可以看成是算法透明原則的具體化體現(xiàn)。

 

二.算法部署的披露義務(wù)

 在數(shù)字經(jīng)濟(jì)背景下,平臺基于信息優(yōu)勢,借助用戶畫像, 對消費(fèi)者實(shí)行差別化定價,最大程度地獲取消費(fèi)者剩余,從而可能會由于價格歧視而侵犯消費(fèi)者權(quán)利。我國現(xiàn)行立法對此進(jìn)行了相應(yīng)的規(guī)制。《中華人民共和國電子商務(wù)法》(以下簡稱《電子商務(wù)法》)對平臺利用大數(shù)據(jù)分析和算法技術(shù)進(jìn)行個性化推薦的實(shí)踐予以限定,明確電子商務(wù)經(jīng)營者根據(jù)消費(fèi)者的興趣愛好、消費(fèi)習(xí)慣等特征提供商品或者服務(wù)的搜索結(jié)果,需要同時向該消費(fèi)者提供不針對其個人特征的選項(xiàng)。我國文化和旅游部2020年7月20日發(fā)布的《在線旅游經(jīng)營服務(wù)管理暫行規(guī)定》第15條對在線旅游平臺的大數(shù)據(jù)殺熟行為進(jìn)行了具體化的規(guī)制。該條規(guī)定,在線旅游經(jīng)營者不得濫用大數(shù)據(jù)分析等技術(shù)手段,基于旅游者消費(fèi)記錄、旅游偏好等設(shè)置不公平的交易條件,侵犯旅游者權(quán)益。這兩部立法層級各異、調(diào)整對象也有差異,但它們都反映了規(guī)制者對于算法技術(shù)向平臺公司集中帶來的企業(yè)濫用技術(shù)和數(shù)據(jù)優(yōu)勢的擔(dān)憂及回應(yīng)。
電子商務(wù)經(jīng)營者基于消費(fèi)者的消費(fèi)行為記錄、移動設(shè)備位置信息、計算機(jī)類型、擁有或使用過的設(shè)備、對相應(yīng)商品和服務(wù)的偏好、用戶信息和消費(fèi)歷史,將這些信息與物聯(lián)網(wǎng)數(shù)據(jù)進(jìn)行融合,比如汽車、打印機(jī)、健身器材、醫(yī)療器械中輸出的信息,對用戶的支付能力和意愿進(jìn)行建模和預(yù)測,進(jìn)行精準(zhǔn)畫像,推送廣告、商品和服務(wù),這是互聯(lián)網(wǎng)企業(yè)的主要商業(yè)模式,但這一基于用戶畫像的商業(yè)模式也存在極大的濫用風(fēng)險。如果平臺基于占有的用戶個人數(shù)據(jù),利用雙方高度的信息不對稱,對用戶進(jìn)行價格歧視,將會損害用戶的權(quán)益。研究表明,盡管企業(yè)利用大數(shù)據(jù)和算法實(shí)現(xiàn)完美價格歧視有一定困難,比如存在數(shù)據(jù)的有限性,算法理性和人的非理性以及樣本規(guī)模局限,平臺仍然可以采用價格操縱、不完美意志力以及提升產(chǎn)品復(fù)雜性等方法采取近乎完美行為歧視。基于此,《電子商務(wù)法》對平臺的算法這一技術(shù)性對象進(jìn)行了事先規(guī)制,要求提供非個人畫像的選項(xiàng)。從個人信息權(quán)的角度看,這個條款體現(xiàn)了用戶在電子商務(wù)中免于自動化決策的權(quán)利。國家互聯(lián)網(wǎng)辦公室2019年12月15日發(fā)布的《網(wǎng)絡(luò)信息生態(tài)內(nèi)容治理規(guī)定》第12條規(guī)定,網(wǎng)絡(luò)信息內(nèi)容平臺運(yùn)用個性化算法推薦技術(shù)推送信息的,應(yīng)當(dāng)設(shè)置符合本規(guī)定相關(guān)內(nèi)容要求的推薦模型,建立健全人工干預(yù)和用戶自主選擇機(jī)制。這一條款和《電子商務(wù)法》第18條類似,賦予用戶個性化推薦的退出權(quán),接近免于自動化處理的權(quán)利。同時,對人機(jī)關(guān)系進(jìn)行了相應(yīng)的引導(dǎo),強(qiáng)化人工的介入。
《電子商務(wù)法》規(guī)定,電商平臺經(jīng)營者應(yīng)當(dāng)根據(jù)商品或服務(wù)的價格、銷量、信用等多種方式向消費(fèi)者顯示商品或服務(wù)的搜索結(jié)果;對于競價排名的商品或服務(wù),應(yīng)當(dāng)顯著標(biāo)明“廣告”;違反標(biāo)示義務(wù)的,依照《廣告法》規(guī)定進(jìn)行處罰。有學(xué)者將這一條款的前半部分概括為搜索結(jié)果的自然展示義務(wù),價格、銷量具有客觀的色彩,它們似乎是很少受到人為的干預(yù)。但是,刷單炒信的普遍存在,實(shí)際上使得信用作為參數(shù)并不像我們想象的那么客觀。該條款的后半部分則是算法透明的一種最簡單的要求,當(dāng)商品或服務(wù)的排名是競價的結(jié)果時,這意味著排名本身已經(jīng)受到支付能力的影響,更不是自然展示的結(jié)果,為保護(hù)消費(fèi)者的權(quán)利,立法者從消費(fèi)者知情權(quán)的立場出發(fā),對電商平臺的垂直搜索課加了一種公開的義務(wù)。這是一種最低程度的透明度要求。這一義務(wù)和證券法上的信息披露義務(wù)相類似。法律設(shè)定這一義務(wù)的目的在于打破算法決策的秘密性,使得消費(fèi)者知道其獲取的信息是由算法形成的。
《電子商務(wù)法》大數(shù)據(jù)殺熟和搜索結(jié)果自然展示義務(wù)這兩個條款在制定的時候具有一定的前瞻性,對算法進(jìn)行了初步的回應(yīng)。但這一事先規(guī)制只是披露了算法自動化決策的存在,并沒有披露算法模型運(yùn)行本身。這些條款并沒有明確算法學(xué)習(xí)和決策過程中的監(jiān)管方式,特別是在機(jī)器學(xué)習(xí)算法的規(guī)制上具有相當(dāng)?shù)木窒扌浴5苯咏槿爰夹g(shù)內(nèi)部的監(jiān)管進(jìn)路在當(dāng)前階段稍顯激進(jìn),在監(jiān)管強(qiáng)度和密度上需要考慮數(shù)字經(jīng)濟(jì)的發(fā)展、算法技術(shù)的創(chuàng)新以及現(xiàn)有的監(jiān)管能力。歐盟要求互聯(lián)網(wǎng)平臺披露參數(shù)實(shí)質(zhì)性,這一做法提高了透明化的水平,相較于目前電商法的監(jiān)管模式更具實(shí)際意義。與深入算法技術(shù)內(nèi)部的監(jiān)管相比,對企業(yè)而言,更少侵入性,則更具可行性。此外,《個人信息保護(hù)法(草案)》明確規(guī)定,在公共場所安裝圖像采集、個人身份識別設(shè)備,需要滿足三個要件:為了維護(hù)公共安全這一公共利益所必須,符合正當(dāng)法律程序,同時要進(jìn)行顯著標(biāo)示。顯著標(biāo)識的義務(wù)可以看成是人臉識別和算法部署的具有一般化效果的透明度要求,對于人臉識別技術(shù)的濫用有一定的防范作用。

 

三.參數(shù)規(guī)制和算法解釋權(quán)

目前的立法已經(jīng)就參數(shù)規(guī)制形成了兩種模式:向行政機(jī)關(guān)報備和向社會公眾披露。相比于向社會公眾披露,向行政機(jī)關(guān)報備的模式能夠兼顧商業(yè)利益與公眾保護(hù)之間的平衡,競爭性的利益相對而言可以獲得更好的保護(hù)。機(jī)器算法在金融、醫(yī)療衛(wèi)生、食品藥品等事關(guān)經(jīng)濟(jì)秩序、民眾健康和社會穩(wěn)定的行業(yè)得到越來越多的運(yùn)用,在這些領(lǐng)域向主管機(jī)關(guān)報備參數(shù)不失為提升算法透明度的舉措。

 

(一)向行政主管部門報備參數(shù)

 

2018年3月28日,中國人民銀行、中國銀行保險監(jiān)督管理委員會、中國證券監(jiān)督管理委員會、國家外匯管理局聯(lián)合發(fā)布了《關(guān)于規(guī)范金融機(jī)構(gòu)資產(chǎn)管理業(yè)務(wù)的指導(dǎo)意見》(以下簡稱《資管新規(guī)》)。該指導(dǎo)意見對人工智能在金融領(lǐng)域的應(yīng)用進(jìn)行了規(guī)制,從勝任性要求、投資者適當(dāng)性以及透明披露等方面對智能投顧中的算法進(jìn)行穿透式監(jiān)管。

 

《資管新規(guī)》明確規(guī)定,運(yùn)用人工智能技術(shù)開展投資顧問業(yè)務(wù)應(yīng)當(dāng)取得投資顧問資質(zhì)。金融機(jī)構(gòu)運(yùn)用人工智能技術(shù)開展資產(chǎn)管理業(yè)務(wù)除了要遵守投資者適當(dāng)性、信息披露、風(fēng)險隔離等一般性規(guī)定外,金融機(jī)構(gòu)還應(yīng)當(dāng)向金融監(jiān)督管理部門報備人工智能模型的主要參數(shù)以及資產(chǎn)配置的主要邏輯。報備智能投顧模型的主要參數(shù)意味著算法黑箱的打開,算法透明得到了一定程度的貫徹。《資管新規(guī)》還要求在智能模型缺陷或者羊群效應(yīng)的背景下,金融機(jī)構(gòu)必須進(jìn)行人工介入。無論《資管新規(guī)》還是《網(wǎng)絡(luò)信息生態(tài)內(nèi)容治理規(guī)定》關(guān)于人機(jī)關(guān)系的規(guī)定體現(xiàn)了一個重要的立法思路,即在特定情形下,人工對于算法/人工智能的介入/接管成為處理人機(jī)關(guān)系的一個重要準(zhǔn)則。

 

自動化決策并不意味著算法替代了人,它只是改變了人工作的方式。設(shè)計者和工程師需要充分意識到,自動化決策不僅是一個技術(shù)問題,同時也是具有社會、倫理和法律后果的行為。這意味著自動化決策需要有倫理面向的考量。設(shè)計者在設(shè)計系統(tǒng)的時候必須要考慮自動化的程度,以及何時需要人工介入。對于封閉狀態(tài)下無需靈活性的任務(wù),系統(tǒng)性失靈的可能性較小時,可以實(shí)行完全的自動化,而對于動態(tài)環(huán)境下外在條件和約束明顯,高度自動化可能就不是那么明智。在自動化程度這一因素之外,為實(shí)現(xiàn)價值導(dǎo)向,設(shè)計者需要將設(shè)計階段的價值判斷以可以理解的方式記錄下來并方便后來的審查。算法規(guī)制應(yīng)當(dāng)隨算法技術(shù)的迭代而升級,算法的設(shè)計、部署和運(yùn)行都應(yīng)當(dāng)要貫徹透明原則的要求;應(yīng)當(dāng)將透明原則引入算法的設(shè)計和訓(xùn)練階段,因?yàn)樗惴ㄗ畛醯膬r值設(shè)定對于算法結(jié)果有決定性的影響。

 

(二)向社會公眾披露參數(shù)并說明理由    

 

《電子商務(wù)法》規(guī)定不得利用技術(shù)優(yōu)勢排除或限制競爭,對二選一的行為進(jìn)行了明確的禁止。在每年雙十一大促銷的時候,都會爆出很多企業(yè)強(qiáng)制二選一,平臺可以利用技術(shù)優(yōu)勢對商家采取搜索降序、直接屏蔽等措施。商家在很大程度上依賴電商平臺。對此,大部分的商家無法和平臺進(jìn)行平等對話,只能默默忍受這樣不太合理的交易條件。由于商戶在舉證上的困難以及與該條款相對應(yīng)的責(zé)任條款無法對違法者的行為形成有效的威懾,該條款在實(shí)施中并沒有達(dá)到立法者預(yù)期的效果。就法律關(guān)系的調(diào)整而言,電子商務(wù)法的重心一方面在平臺和消費(fèi)者之間的關(guān)系,另一方面在平臺和平臺內(nèi)商戶的關(guān)系的透明化,并且,以透明化促進(jìn)公平性也是算法規(guī)制的重要目標(biāo)。歐盟2019年6月19日通過的《平臺和商戶間公平性和透明度法》第5條的規(guī)定和我國《電子商務(wù)法》第35條的規(guī)定非常接近。就其規(guī)定的形式而言,是通過規(guī)制搜索算法的參數(shù),要求向公眾披露參數(shù)來實(shí)現(xiàn)對平臺權(quán)力的有效規(guī)制。

 

《平臺和商戶間公平性和透明度法》第5條規(guī)定:“線上中介服務(wù)提供商應(yīng)在其條款中列出決定排名的主要參數(shù)以及這些主要參數(shù)相對于其他參數(shù)的相對重要的理由。(1)在線搜索引擎的提供商應(yīng)在其在線搜索引擎上列出并說明主要參數(shù),這些參數(shù)在排名方面具有決定性并且相較其他參數(shù)具有相對重要性。說明應(yīng)當(dāng)是通俗易懂的,易于獲得的,并時刻保持更新。(2)主要參數(shù)包括對商業(yè)用戶或企業(yè)網(wǎng)站用戶向各自提供商支付的直接或間接報酬可能對排名產(chǎn)生的影響,該提供商還應(yīng)根據(jù)第1和第2款的要求,說明報酬對排名的影響。(3)如果一個在線搜索引擎提供商在特定情況下改變了排名,或者在第三方通知后將某個網(wǎng)站下架,企業(yè)網(wǎng)站用戶應(yīng)該有權(quán)能夠查看該通知的內(nèi)容。”電子商務(wù)領(lǐng)域之外,瑪麗×楊(Mary L. Young)和阿爾弗雷德×赫米達(dá)(Alfred Hermida)在新聞算法領(lǐng)域提出了類似的主張。他們認(rèn)為新聞應(yīng)當(dāng)完整地向公眾公布在信息處理過程中涉及的參數(shù)、機(jī)器學(xué)習(xí)的規(guī)則和邏輯推理過程。在新聞算法中,研究者更擔(dān)心這一技術(shù)帶來的信息繭房效應(yīng)。

 

(三)算法解釋權(quán)

 

算法解釋權(quán)也可以看成是算法透明原則的具體化體現(xiàn)。相對于形式化的算法部署告知,算法解釋權(quán)更是一種實(shí)質(zhì)性的算法透明度的實(shí)現(xiàn)方式。算法解釋權(quán)在2018年5月25日生效的歐盟《通用數(shù)據(jù)保護(hù)條例》中被明確下來,成為了一項(xiàng)實(shí)證化的權(quán)利。這一權(quán)利在歐盟范圍內(nèi)得到了廣泛認(rèn)可,并在各國通過政策標(biāo)準(zhǔn)予以具體化。2020年5月20日,英國信息專員辦公室與阿蘭×圖靈研究所共同發(fā)布了《人工智能決策說明指南》,為算法解釋提供了指引。我國《個人信息保護(hù)法(草案)》規(guī)定,個人認(rèn)為自動化決策對其權(quán)益造成重大影響的,有權(quán)要求個人信息處理者予以說明。這一條款采用的是對個人權(quán)利的重要影響標(biāo)準(zhǔn),相對于歐盟《通用數(shù)據(jù)保護(hù)條例》中將算法可解釋權(quán)限定在影響公民權(quán)利義務(wù)的自動化決策,顯得還要廣泛些。這一解釋權(quán)同時也是實(shí)現(xiàn)《個人信息保護(hù)法(草案)》所要求的自動化決策結(jié)果公平合理的權(quán)利機(jī)制。

 

由于法學(xué)研究對權(quán)利話語的路徑依賴,尤其是在歐盟《通用數(shù)據(jù)保護(hù)條例》中明確了算法解釋權(quán)條款后,相當(dāng)?shù)难芯课墨I(xiàn)將算法規(guī)制和算法解釋權(quán)聯(lián)系起來,并期待通過可解釋指向算法問責(zé)。用戶對算法的解釋權(quán)成為算法法學(xué)研究的核心命題之一。算法解釋權(quán)領(lǐng)域積累有了大量的研究文獻(xiàn)。算法解釋最后的形態(tài)仍然是對算法決定的結(jié)果或者算法內(nèi)在的邏輯作出具體的、合理的描述。對算法結(jié)果的解釋和對算法相關(guān)的邏輯的解釋是算法解釋的一個重要分類。GDPR的算法解釋權(quán)如要落實(shí),數(shù)據(jù)處理者就需要承擔(dān)算法邏輯解釋的義務(wù)。另有學(xué)者提出了“具體決策”的解釋和“系統(tǒng)功能”的解釋,這對應(yīng)于前述劃分,具有類似的效果。算法可解釋性存在明顯的限度,問題不在于算法的復(fù)雜性,而在于算法建立的數(shù)據(jù)可能是沒有辦法解釋的。此外,在機(jī)器學(xué)習(xí)算法中,對于監(jiān)督學(xué)習(xí),我們能夠知道輸出和輸入之間的關(guān)聯(lián);但非監(jiān)督學(xué)習(xí)中,我們并不知道輸入轉(zhuǎn)化成輸出的時候應(yīng)用了哪些特征值和哪些相關(guān)的信息。盡管算法解釋權(quán)面臨技術(shù)上的困難,為了建立數(shù)據(jù)主體和數(shù)據(jù)控制者之間的信任,建構(gòu)恰當(dāng)?shù)乃惴ń忉寵?quán)體系仍然有助于幫助數(shù)據(jù)主體理解決策是如何作出的,如何獲得對該決策的救濟(jì),以及如何通過改變自己的行為從而獲得自己期待的結(jié)果。

 

算法決策和其他類型的決策存在的不同特征導(dǎo)致需要算法解釋,算法存在難以理解(inscrutability)和非直覺性(non-intuitive)兩大特點(diǎn)。歐盟《通用數(shù)據(jù)保護(hù)條例》第13條至第15條所要求的數(shù)據(jù)主體應(yīng)當(dāng)能夠獲得自動化決策邏輯相關(guān)的有意義的信息。美國《公平信用報告法》(FCRA)和《信用機(jī)會平等法》(ECOA)都規(guī)定了“不利行動告知”(adverse action notice)條款,要求貸方就不利的算法評分向金融消費(fèi)者進(jìn)行解釋,包括拒絕提供信貸、拒絕錄用或提供保險服務(wù)等其他信用評估輸出結(jié)果的具體原因,這兩部法律同時還建立了賦予金融消費(fèi)者就信息的不準(zhǔn)確或不充分獲得相應(yīng)救濟(jì)的權(quán)利。

 

無論是美國《公平信用報告法》、《信用機(jī)會平等法》,還是歐盟《通用數(shù)據(jù)保護(hù)條例》,它們主要的都是在回應(yīng)算法的難以理解。上述立法沒有解決無監(jiān)督學(xué)習(xí)下的輸入和輸出之間的非因果性,沒有能夠?qū)λ惴ǖ姆侵庇X性進(jìn)行回應(yīng)。在很多情形下,直覺是對規(guī)范進(jìn)行描述性陳述的橋梁。由于機(jī)器學(xué)習(xí)的價值恰恰在于它發(fā)掘的是有違直覺的統(tǒng)計學(xué)關(guān)系,而非因果關(guān)系。在特定情形中,哪一些統(tǒng)計學(xué)的關(guān)系是決策的基礎(chǔ)是很明顯的,但為什么存在這樣的統(tǒng)計學(xué)關(guān)系猶如謎團(tuán)。要理解算法決策為什么是它們所呈現(xiàn)的樣子,現(xiàn)有的立法要求解釋模型本身仍有不足。如果算法是可評估的,算法模型在輸入和輸出之間的非因果關(guān)系或者說非直覺性問題不能被忽視。

 

四.公開源代碼的可能與限度

算法透明的最激進(jìn)的主張,莫過于公開源代碼。源代碼是程序員所寫的人類可讀的指令。在復(fù)雜系統(tǒng)中,源代碼由成千上萬行代碼組成。對于政府規(guī)制代碼的爭議一直存在。在互聯(lián)網(wǎng)時代的早期,互聯(lián)網(wǎng)基于端對端的交互,并沒有規(guī)制的空間,那些為互聯(lián)網(wǎng)的搭建作出巨大貢獻(xiàn)的代碼作者在觀念上會對政府規(guī)制代碼的行為加以抵制,為政府規(guī)制代碼設(shè)置重重障礙,但是,當(dāng)代碼的編寫日益商業(yè)化并且開始越來越集中于少數(shù)大公司的時候,它就能夠而且應(yīng)該被規(guī)制,因?yàn)樯虡I(yè)機(jī)構(gòu)能夠被規(guī)制。政府將通過直接規(guī)制代碼以間接規(guī)制行為,利用對代碼/架構(gòu)的規(guī)制達(dá)成具體的目的。商業(yè)機(jī)構(gòu)在設(shè)計正在到來的社會架構(gòu)時,政府在商業(yè)利益之外確保公共利益和公共價值能夠被納入到架構(gòu)之中,這應(yīng)當(dāng)是政府的職責(zé)所在。代碼是價值觀念的數(shù)字化。代碼作者已經(jīng)成為網(wǎng)絡(luò)空間的立法者,他們決定互聯(lián)網(wǎng)世界的默認(rèn)規(guī)則是什么,匿名是否可能,隱私保護(hù)的程度。他們在一定程度上決定了互聯(lián)網(wǎng)的面貌。代碼已經(jīng)成為網(wǎng)絡(luò)空間的規(guī)制者,它在塑造著網(wǎng)絡(luò)空間,決定了網(wǎng)民的自由的程度和范圍,對于代碼的規(guī)制是網(wǎng)絡(luò)時代正義實(shí)踐的主題。
     2016年,紐約市嘗試通過立法強(qiáng)制政府機(jī)構(gòu)披露源代碼。來自布魯克斯東區(qū)紐約市議會的成員詹姆斯×瓦卡(James Vacca),提出算法立法議案要求,市政府機(jī)構(gòu)運(yùn)用自動化決策系統(tǒng)分配福利、維護(hù)治安和進(jìn)行處罰的時候,必須公布源代碼。這一立法動議直接監(jiān)管到算法技術(shù)的核心——源代碼——的披露而顯示出其激進(jìn)性。惟需注意的是,它規(guī)制的是政府自動化決策行為,而并非對市場主體算法的規(guī)制。立法背后的擔(dān)憂仍然是政府公權(quán)力和技術(shù)性權(quán)力的結(jié)合而帶來的對個人權(quán)利的侵犯和控制。
這一立法議案引發(fā)了多方的批評。企業(yè)認(rèn)為這不僅損害了企業(yè)的經(jīng)營自主權(quán),也會傷害到企業(yè)的核心商業(yè)秘密。算法在知識產(chǎn)權(quán)法體系下受到的保護(hù)非常有限,但可能會收到商業(yè)秘密法的保護(hù)。有學(xué)者在研究法國關(guān)于算法法律保護(hù)的路徑后指出,根據(jù)法國商業(yè)秘密保護(hù)法的規(guī)定,任何同時符合以下三個條件的信息,可以作為商業(yè)秘密而獲得保護(hù):(1)信息不為同一產(chǎn)業(yè)部門普遍認(rèn)識;(2)由于信息的秘密性從而具有現(xiàn)實(shí)或潛在的商業(yè)價值;(3)信息受到合理措施的保護(hù)。如果一種算法符合上述標(biāo)準(zhǔn),并輔以相關(guān)措施保護(hù)其秘密性,該算法就可以被認(rèn)定為是受法國商業(yè)秘密法所要保護(hù)的商業(yè)秘密。強(qiáng)制要求企業(yè)披露源代碼,從激勵角度來說將導(dǎo)致企業(yè)猶豫簽訂為政府提供公共服務(wù)的合約。還有企業(yè)主張,它們對于算法擁有財產(chǎn)性權(quán)利 (proprietary-information argument)。這種財產(chǎn)性權(quán)利或者是基于數(shù)據(jù)產(chǎn)品而生,或者是因?yàn)樯虡I(yè)秘密所具有的財產(chǎn)價值而產(chǎn)生。一些企業(yè)組織了游說公司在紐約展開活動,以改變草案的內(nèi)容。另外,一些網(wǎng)絡(luò)安全專家也指出,如果這些源代碼被不法分子利用,則將會產(chǎn)生難以預(yù)料的后果,對公共安全造成難以修復(fù)的損害。紐約市最后通過的立法要求成立工作小組就自動化決策的下列相關(guān)問題提交建議:(1)公民對算法的可解釋權(quán);(2)公民是否遭受算法歧視;(3)對遭受歧視者提供救濟(jì);(4)存檔算法和數(shù)據(jù)可行性。
紐約市的算法立法從動議到最終通過,對于算法的規(guī)制從一種實(shí)質(zhì)性的約束成為一種政策倡導(dǎo)型的主張,突出表現(xiàn)了商業(yè)利益和公共利益之間的緊張。當(dāng)越來越多的公共服務(wù)基礎(chǔ)設(shè)施采購市場主體的軟件商品和服務(wù)的時候,商業(yè)秘密的主張和政府決策的民主性透明性之間的沖突也愈發(fā)凸顯。該法案通過之后,引起了法學(xué)界和輿論界的普遍關(guān)注和批評。一些批評者認(rèn)為立法已經(jīng)被企業(yè)的利益所扭曲。茱莉亞×鮑威爾(Julia Powles)在紐約客發(fā)表的文章認(rèn)為,紐約市規(guī)制算法的立法嘗試是大膽的,但充滿了遺憾和錯誤。 弗蘭克×帕斯奎爾(Frank Pasquale)認(rèn)為,商業(yè)秘密對于效率和創(chuàng)新有一定的激勵作用,但政府的合法性和公共利益擁有壓倒性考量。重要的公共決定如果由黑箱作出,這是政府的失職。凱西×奧尼爾(Cathy O’Neil)在《算法霸權(quán):數(shù)字性殺傷武器的威脅》中強(qiáng)調(diào),算法世界是一個丑陋的蟲洞世界。算法應(yīng)當(dāng)接受公眾的審視;否則,算法的霸權(quán)將成為人們生活的宰制者。
在公布源代碼之外,還有反向工程學(xué)(reverse engineering/output testing)的方法可以打開黑箱。反向工程學(xué)是實(shí)現(xiàn)算法透明的重要技術(shù)手段。反向工程學(xué)在算法新聞領(lǐng)域有比較充分的討論。法國工程師紀(jì)堯姆×沙洛(Guillaume Chaslot)曾為谷歌工作三年,他認(rèn)為YouTube讓人們看到的事實(shí)是扭曲的,而且其算法是以增加用戶黏性為導(dǎo)向,他建議公司改進(jìn)未果,后被公司辭退。2018年他創(chuàng)辦了算法透明網(wǎng)站(algotransparency.org),向社會公開了他運(yùn)用反向工程學(xué)的方法解碼YouTube的算法偏見,將平臺如何扭曲事實(shí)的技術(shù)公之于眾。反向工程學(xué)根據(jù)輸出結(jié)果逆向測試、推演算法的運(yùn)行邏輯,目的在于解決算法在輸入數(shù)據(jù)和輸出結(jié)果之間的統(tǒng)計學(xué)關(guān)系,而非因果關(guān)系,回應(yīng)算法的非直覺性特征的挑戰(zhàn)。反向工程學(xué)是算法透明的一種技術(shù)手段,但這一技術(shù)手段必須要考慮各國具體法律的限制。反向工程學(xué)存在著很多法律上的挑戰(zhàn)。盡管美國在《數(shù)字千年版權(quán)法》之外,沒有法律直接禁止和限制反向工程學(xué),甚至《數(shù)字千年版權(quán)法》也有例外。但是,軟件供應(yīng)商在終端用戶許可協(xié)議中都會有專門的禁止反向工程學(xué)的條款,實(shí)施反向工程學(xué)行為可能會面臨違約的問題;但更大的法律障礙是在《計算機(jī)欺詐和濫用法》。我國刑法中的非法侵入計算機(jī)信息系統(tǒng)罪,以及個人信息的刑法保護(hù)都會對實(shí)施反向工程學(xué)行為進(jìn)行直接的規(guī)制。

 

五.算法影響性評估

影響性評估廣泛地運(yùn)用于個人信息保護(hù)、數(shù)據(jù)安全以及算法的設(shè)計、運(yùn)用和部署中。影響性評估是對數(shù)據(jù)項(xiàng)目的數(shù)據(jù)風(fēng)險進(jìn)行分析、辨識和最小化的制度。它不可能根除所有的危險,但是會有助于決定在特定環(huán)境下風(fēng)險的水平是否可接受。影響性評估使得風(fēng)險在很早的時候就可以被發(fā)現(xiàn),因此成為風(fēng)險社會中被廣泛采用的一種風(fēng)險防范機(jī)制。一般認(rèn)為,持續(xù)的影響性評估會有助于提升數(shù)據(jù)處理者隱私和數(shù)據(jù)保護(hù)的意識。另外的效果就是,影響性評估使得設(shè)計階段就參與進(jìn)來的人員在開始設(shè)計項(xiàng)目的時候就會考慮到隱私,并有助于采取設(shè)計隱私的進(jìn)路。根據(jù)歐盟GDPR的要求,數(shù)據(jù)控制者必須對那些對自然人的權(quán)利和自由造成高風(fēng)險的操作采取數(shù)據(jù)保護(hù)影響評估。當(dāng)數(shù)據(jù)處理是基于自動化系統(tǒng)作出的,或者是在大規(guī)模地處理特殊類別的數(shù)據(jù),以及大規(guī)模系統(tǒng)地監(jiān)控公開區(qū)域時,應(yīng)當(dāng)要進(jìn)行數(shù)據(jù)影響評估。影響性評估制度作為風(fēng)險防控方式,相當(dāng)于給數(shù)據(jù)處理加了一把安全鎖,是一種比較常見的個人信息和數(shù)據(jù)安全的保護(hù)機(jī)制。

 

在技術(shù)中立的背景下,算法往往由于價值缺失、設(shè)計缺陷或信任危機(jī)而產(chǎn)生嚴(yán)重的算法風(fēng)險。作為計算機(jī)程序,價值目標(biāo)的混亂或者扭曲輕則引發(fā)算法侵?jǐn)_,重則帶來系統(tǒng)性的權(quán)利侵犯。深度偽造對于人臉識別的濫用、機(jī)器生產(chǎn)新聞對于言論市場的扭曲、大數(shù)據(jù)殺熟對消費(fèi)者剩余價值的獲取,所有這些不過是算法價值目標(biāo)喪失帶來的諸多負(fù)面效應(yīng)之一。此外,因軟件設(shè)計模塊的缺陷而產(chǎn)生的算法系統(tǒng)性安全風(fēng)險,因數(shù)據(jù)殘缺或數(shù)據(jù)偏見而帶來的內(nèi)生性的算法偏見,因算法結(jié)果歧視而引發(fā)的信任危機(jī),等等,這些都是算法風(fēng)險的具體表現(xiàn)。為了回應(yīng)這些風(fēng)險,算法影響性評估成為算法問責(zé)的一個重要的制度設(shè)計。建立算法影響評估制度和建立健全算法問責(zé)方案成為機(jī)器學(xué)習(xí)算法有效規(guī)制的途徑。美國算法立法就將影響性評估作為最重要的算法規(guī)制手段。2019年4月10日,美國參議院科瑞×庫克(Cory Cooker)和羅恩×韋登(Ron Wyden)提出了《算法問責(zé)法(草案)》,要求對算法進(jìn)行系統(tǒng)和數(shù)據(jù)保護(hù)的影響性評估。違反該法的行為將會被認(rèn)定為不公平商業(yè)行為或?qū)嵺`,引發(fā)競爭法的規(guī)制。《算法問責(zé)法(草案)》認(rèn)為,算法指的是基于機(jī)器學(xué)習(xí)、統(tǒng)計學(xué)、其他數(shù)據(jù)處理或人工智能技術(shù)的計算過程作出的決定或輔助人工決定。該法的管轄對象包括:(1)連續(xù)三年?duì)I業(yè)額達(dá)到500萬美元;(2)處理或控制的個人信息超過100萬人次或100萬臺終端設(shè)備;(3)收集、歸集、持有非其用戶的個人信息作為主營業(yè)務(wù)的數(shù)據(jù)中間商或商業(yè)實(shí)體。以其管轄對象的具體內(nèi)容來說,《算法問責(zé)法(草案)》的覆蓋范圍是非常廣泛的,幾乎所有的互聯(lián)網(wǎng)企業(yè)都會成為該法適用的目標(biāo)。

 

高風(fēng)險算法在該法案中引發(fā)了特別的關(guān)注,《算法問責(zé)法(草案)》基于算法的特點(diǎn)、應(yīng)用的領(lǐng)域、處理數(shù)據(jù)信息的內(nèi)容而將以下算法認(rèn)定為高風(fēng)險算法:(1)由于算法的新穎性以及性質(zhì)、范圍、內(nèi)容和目的,對消費(fèi)者個人信息隱私和安全帶來高風(fēng)險的算法;(2)帶來歧視性后果的算法;(3)基于個人的工作表現(xiàn)、經(jīng)濟(jì)狀況、健康、個人偏好、地理位置和行為軌跡而作出的影響個人權(quán)利的算法;(4)涉及相當(dāng)數(shù)量消費(fèi)者的種族、膚色、政治觀點(diǎn)、宗教、工會身份、生物數(shù)據(jù)、健康、性別、性傾向、犯罪記錄、逮捕記錄的算法;(5)系統(tǒng)性監(jiān)控大型公共場所的算法。

 

《算法問責(zé)法(草案)》中的算法影響性評估的內(nèi)容包括:(1)算法的詳細(xì)描述,包括設(shè)計、訓(xùn)練、數(shù)據(jù)及其目標(biāo)。(2)數(shù)據(jù)最小化的要求、個人信息及決策結(jié)果存儲的時間。(3)消費(fèi)者對決策結(jié)果的獲取權(quán)、修改權(quán)。(4)評估算法對個人信息隱私和安全影響,以及歧視性后果方面的風(fēng)險。(5)算法主體采取的降低風(fēng)險的措施。

 

就算法影響性評估機(jī)制的構(gòu)成而言,其最重要的面向仍然在于算法的透明化要求,這一透明化兼顧數(shù)據(jù)和算法本身,可以看作穿透式監(jiān)管在算法領(lǐng)域的一個運(yùn)用。算法影響性評估可以運(yùn)用在新聞算法、搜索算法、自動化行政等不同場景當(dāng)中,作為算法規(guī)制的一個共同進(jìn)路,應(yīng)當(dāng)結(jié)合具體領(lǐng)域的安全敏感性并考慮技術(shù)特點(diǎn),將算法劃分成自由使用、限制使用和禁止使用等不同等級。在影響性評估機(jī)制的設(shè)計中,算法透明是其中的重要要求,猶如美國《算法問責(zé)法(草案)》所明確的那樣,但就透明化的程度仍應(yīng)結(jié)合算法的具體運(yùn)用場景考慮透明度的具體形式。

 

六.結(jié)語

 社會經(jīng)濟(jì)活動和關(guān)鍵基礎(chǔ)設(shè)施基于算法的自動化運(yùn)用日益普遍。自動駕駛汽車依賴機(jī)器學(xué)習(xí)算法作出決定和“看到”路上的障礙物。機(jī)器學(xué)習(xí)算法被用于精準(zhǔn)醫(yī)療/個體化醫(yī)療(personalizing medicine)、輔助手術(shù)和優(yōu)化電網(wǎng)系統(tǒng)。作為回應(yīng),政府行政規(guī)則制定和決策的自動化程度也將更為深入。在監(jiān)管主體方面,算法監(jiān)管需要政府統(tǒng)一規(guī)制、專家判斷、事先監(jiān)管,因此可以模仿FDA模式建立專門的算法規(guī)制機(jī)構(gòu)。為了更好地促進(jìn)數(shù)據(jù)驅(qū)動的算法數(shù)字經(jīng)濟(jì),政府需要發(fā)展出以算法透明為目標(biāo)的自動化的規(guī)制體系。
算法黑箱是一個常見的隱喻。這個隱喻會誤導(dǎo)人們的認(rèn)識,遮蔽民眾的認(rèn)知。黑箱似乎是無從打開,打開了也是沒有意義的。這一對算法黑箱的隱喻實(shí)際在強(qiáng)調(diào)算法系統(tǒng)的復(fù)雜性以及這種復(fù)雜性讓外行人無法理解。有效的學(xué)習(xí)算法模型包含海量的數(shù)據(jù)和大量的代碼,根據(jù)輸入的數(shù)據(jù),動態(tài)調(diào)整內(nèi)在的決策模式并更新代碼內(nèi)容,代碼一直處于迭代的過程中,這時候設(shè)計者和運(yùn)營者很難說明算法的決策過程。反對者將算法透明等同于打開黑箱,披露源代碼,從而反對算法透明的主張。這是將算法透明原則的最嚴(yán)格情形普遍化,從而反對作為一般性原則的算法透明,實(shí)際上并不能成立。在算法問責(zé)的工具箱中,從法律角度而言,算法透明仍然是最為恰切的手段之一。就人類立法的經(jīng)驗(yàn)而言,對于主體、行為和后果進(jìn)行調(diào)整仍然是最為普遍的立法模式。算法作為一種技術(shù),算法開發(fā)者、利用者、部署者的責(zé)任,算法帶來的歧視性后果以及算法可能引發(fā)的壟斷問題都可以作為法律規(guī)制的對象。
透明度是算法規(guī)制可欲的目標(biāo),目前已為我國《個人信息保護(hù)法(草案)》所接受和采納。算法透明作為一種信息監(jiān)管機(jī)制,是數(shù)字社會化和社會數(shù)字化趨勢下的必然選擇,它有助于打消公眾對決策自主性喪失的憂慮。這種透明度并不等同于打開黑箱,公布源代碼。就目前世界各國的立法實(shí)踐而言,并不存在公布源代碼的立法例。從標(biāo)示義務(wù)到向監(jiān)管部門報備參數(shù),一直到向社會公開參數(shù)都是算法透明的重要方式。《個人信息保護(hù)法(草案)》為決策自動化設(shè)定了透明度的要求,透明成為個人信息處理、決策自動化的原則要求。在不同的場景和商業(yè)模式中,對于算法透明度的要求存在著披露程度上的差異,從一般人能夠理解的算法解釋決策的結(jié)果或者解釋算法決策的內(nèi)在邏輯,從技術(shù)人員可以理解的參數(shù)再到公布源代碼都可以成為算法透明的具體化實(shí)踐。算法透明是算法規(guī)制的重要原則,法律應(yīng)基于不同的場景對算法設(shè)定差別化的透明度要求。

 【作者】汪慶華(北京師范大學(xué)法學(xué)院教授、法學(xué)博士)

責(zé)任編輯:楊燕
本站系非盈利性學(xué)術(shù)網(wǎng)站,所有文章均為學(xué)術(shù)研究用途,如有任何權(quán)利問題請與我們聯(lián)系。
^