當下,基于數據、算法的自動化決策技術已經與社會各領域實踐深度嵌合。除了利用算法向用戶進行個性化推薦、差異化定價等商業實踐外,傳統的行政決定模式也迎來了“人機融合”與“人機轉換”的范式變遷。
就我國而言,利用自動化技術提升行政效率已經成為重要的國家戰略。《法治政府建設實施綱要(2021—2025年)》提出,要加強對大數據的分析、挖掘、處理和應用,善于運用大數據輔助行政決策、行政立法、行政執法工作。《國務院關于加強數字政府建設的指導意見》(國發〔2022〕14號)更是明確提出“構建數字化、智能化的政府運行新形態”,并對政務智能化運行提出了更為細致的制度設計。在此背景之下,自動化行政實踐不斷演進,如交通抓拍、智能化審批等,數據、算法與行政活動的嵌合日益深入。
利弊互現的是,自動化技術在提升行政效能的同時亦使傳統行政程序中的各個環節被壓縮、雜糅,進入一個未知的封閉空間。對于行政決定所運用的算法以何種邏輯與標準運行,在個案中認定或推定了何種事實,以及如何適用與理解相關的法律規范,當事人往往不得而知。這種算法所帶來的黑箱效應將導致傳統正當程序的空轉以及公民知情權、參與權、監督權、異議權等程序性權利的懸置。
欲破除自動化行政的黑箱效應,直接有效的法律方案即是強化行政機關對其決定的說明、解釋義務。對此,正當程序原則下的公開與說明理由制度,以及《個人信息保護法》中所規定的“告知義務”“算法解釋權”均提供了相應的規范基礎。然而,理論界對此尚缺乏體系化的分析。基于此,本文試圖綜合考慮客觀法秩序和當事人主觀權利保障,對自動化行政決定說明義務的內容、程度和方法等問題作出層次化的制度安排,進而消弭算法黑箱對程序理性以及相對人合法權益的沖擊與侵蝕。
一、自動化行政決定及其“黑箱風險”
“信息是燃料,沒有它行政機器就無法發動”,面對不斷膨脹的公共管理任務,行政機關對于信息的需求與日俱增。在信息爆炸的當下,行政機關缺乏的并非獲取信息的機會與途徑,而是對海量信息的處理和分析能力。對此,算法驅動的自動化技術具備賦能行政的強大功能,自動化行政決定的實踐與運用也因此而不斷普及。
本文所稱自動化行政決定是指,基于借助數據、算法而輔助人工甚至替代人工決策過程而作出的行政決定。從實踐來看,自動化行政決定分為半自動和全自動等不同類型。最初的自動化技術應用只是局部的,在整個決策環路上人工仍然占據著相當一部分的工作內容。例如,交通抓拍方面,公安機關交管部門對監控設備的抓拍記錄進行審核,人工審核通過的方可作為行政處罰的依據。但是,隨著技術的不斷發展與完善,全自動行政決定在部分公共管理領域逐漸嶄露頭角。例如,部分地區和部分行政機關就特定事項推出的“秒批”“秒辦”等新型智能化審批模式,全過程無需人工干預,相對人僅需要按照程序指示提交相應材料便可瞬時得到審批結果。
無論是全自動抑或是半自動,其本質均為自動化技術在行政權力運行過程中的介入,都意味著自動化技術與行政管理活動的嵌合。這既能夠帶來行政效能提升的紅利,也可能因為程序的壓縮與缺失產生一系列的問題,本文一并討論。
在行政審批領域,新興的“秒批”“秒辦”等智能化審批實踐充分體現了技術與行政嵌合的兩面性。具體而言,傳統行政審批的流程包括材料審查、條件審核、受理收件、批文擬定、制證簽發等環節。而“秒批”則是通過無人工介入的自動化比對方式,以既定算法邏輯瞬時得出審查結果,并在數秒內對符合條件的申請人直接提供帶有印章的審批意見及許可證照,極大地壓縮了傳統審批流程,大幅提升了行政效能。不可否認,傳統的人工審批模式無法實現瞬時的審查效率,亦無法達到算法級別的審查精度。但與此同時,自動化審批系統依據外部輸入數據瞬間生成審批結果的運行模式也在一定程度上犧牲了公民的程序性權利。公民被排除在審批決策的過程之外,無法獲知具體的決定依據和理由,更沒有機會進行陳述申辯。這意味著,利益相關者只能觀測到最終決定的輸出,而無法有效地觀察、理解其運行的內在邏輯,產生了顯著的黑箱效應。
這種黑箱效應與現代行政法所強調的正當程序追求存在嚴重沖突。正當程序扮演著控制行政決定合法性與合理性的重要角色,其通過設定相關的公開制度、告知制度、說明理由制度、回避制度等方式和步驟來規范行政權力的運行,進而保障行政相對人的合法權益。而自動化技術介入行政決定所帶來的高效性在很多時候是以程序的壓縮為代價,即剝奪了公民對于決定理由的獲知,降低了行政決定的可預測性與可接受度。
在這個意義上,自動化行政的風險就是程序性風險,更確切地說是新興程序與傳統程序的沖突性風險。傳統行政決定的作出往往是經過行政執法人員的現場調查,與相對人面對面的說明交流,聽取其陳述申辯,最終書面送達的過程。然而,自動化行政決定中“人”的缺席使得傳統正當程序的價值被侵蝕,也直接導致了政府與公民間權利義務結構的失衡,滋生了行政權力在“黑箱”內擴張與異化的風險。這可能加劇社會對“技術未知”的不安全感,消解公民與政府間的信任關系,甚至使得公眾陷入“算法掌權”的社會認同危機。
因此,要確保自動化技術協助行政活動更好地服務于人,而不是讓人被技術系統所支配,就需要破除這種黑箱效應,重建利益相關人對行政決策過程的參與和監督。這意味著,我們需要探尋因應數字時代內在邏輯的正當程序架構。而從現實來看,這種正當程序架構的關鍵就是強化行政機關對自動化決定的說明義務。
二、自動化行政決定說明義務的意義與價值
自動化行政決定在性質上屬于行政機關行使公權力就特定事項對特定主體作出具有法律效果的行政決定,但在過程當中應用了自動化技術,將傳統的人工決策過程轉化為通過代碼設置、數據運算與機器自動化判斷進行決策的一套機制。由于自動化行政決定不再單單是傳統行政權力的運行,而是兼具了算法權力參與的復合行為。行政機關對自動化行政決定的說明義務也具有了在傳統行政法治以及算法治理(governance to algorithm)場域內的雙重意義。
從行政法治原則來看,公開、透明、公眾參與、集體決策等理念已經成為行政合法與行政正確的公認原則。公民對行政活動的各種權利主張均以知情為基礎,而知情又以行政機關的說明為前提。因此,行政機關對決定理由的供給構成了維持行政法律關系平衡的支點。在此意義上,“法治”實為“理由之治”,其概念已與法律決定的作出者應當提供理由證成其決定這一觀念不可分離。換言之,如果一個法律體系的決定沒有公開、清楚、有力的理由支持,那么這一法律體系就會被認為不符合法治。總的來看,自動化行政決定的說明義務構成了法治的一項基本要求,在行政法律關系中發揮著公民權利保障的前提性與基礎性功能。
除了傳統“法治”課予行政機關的說明義務外,在數字時代的算法治理體系之中,算法透明作為破除算法黑箱的主要制度也已經成為一項核心原則。與上述基于對行政權力規制而確立的說明義務不同,算法透明并不拘泥于自動化行政決定的場景,而是針對算法決策行為的規制,即要求無論是私主體抑或是行政機關,只要利用算法進行決策便需要以一定的方式和程度向受決策影響主體或公眾說明自動化決策的內在邏輯,以及其他與算法相關的要素。可以說,算法透明的實質內涵就是對于算法的說明。
從規范層面來看,算法透明已經在諸多國家和地區達成了共識。我國2022年起施行的《互聯網信息服務算法推薦管理規定》第十二條明確規定,“鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優化檢索、排序、選擇、推送、展示等規則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛”。該條款雖然只是一種表達鼓勵態度的非強制性規定,且不適用于行政機關利用算法進行決策的情形,但本身已經體現了對于算法透明制度價值的肯定和承認。
從域外立法來看,部分國家對于行政機關利用算法進行決策的行為則有明確的透明度要求。例如,英國內閣辦公廳中央數字和數據辦公室(Central Digital and Data Office,CDDO)在2021年11月發布了《算法透明度標準》,專門為政府和公共服務部門提供有關利用算法工具支持決策的具體指導,要求算法工具在公共決策中的適用要保持適當的透明度,特別是在可能對個人產生法律或經濟影響的情況下。同樣,行政機關利用自動化技術進行決策的問題在美國也受到了重視。紐約市議會于2017年通過了《政府部門自動決策系統法案》(Auto Decision System Task Force Law),要求設立“算法問責特別工作組”(Algorithmic Accountability Task Fore),專門監督市政府使用算法的情況,其中一項重要的監督內容就是算法透明度。這些立法案例充分體現了當下算法治理對于算法透明的迫切需求。
總體來看,自動化行政決定的說明義務一方面是法治作為理由之治對于行政決定的必然要求,另一方面也是算法治理下算法透明原則的題中應有之義。這種說明義務貫穿行政權力運行的全過程,是法治程序性規范的重要組成部分。從程序工具主義和程序本位主義來觀察,算法說明義務的價值可以歸納為“工具價值”與“內生價值”。
就工具價值來說,現代行政法治已由“命令—服從”的傳統模式發展為注重溝通協商的合作模式,行政程序被視為形成人民權利與義務之有效手段。說明義務在工具價值層面體現了行政程序技術性、工具性的特點,具有形成正當程序,保障相對人知情權、陳述申辯權等程序性權利的功能,即“說明”直接滿足了相對人“知”的權利,而知正是“為”的前提。
在行政決定作出前,行政機關對擬適用的算法進行公開與系統性說明,為社會公眾以及行政機關內部的監督提供了條件,形成了算法問則與改進算法設計的有力工具;在行政決定作出的過程當中,行政機關就算法在個案中的具體化說明也為相對人的陳述申辯提供了基礎,使其能夠有針對性地提出異議,主張權利;在行政決定作出后的司法救濟階段,對算法的說明不僅是相對人提起救濟的基礎,也是司法審查的基礎。法院如果不涉及行政主體作出行政決定的理由,即算法的具體運行過程,則無法判定受司法審查的行政決定是否具有合法性。概言之,對于算法的說明可以迫使行政機關不斷地說理和論證,反思、檢視算法決策過程與方式的妥當性與準確性,進而增強自動化行政決定的理性化程度。
行政程序是實現行政目標的手段和工具,但又不僅僅是實現行政目標的手段和工具。說明義務的內生性價值是程序本位主義視角下獨立于結果的內在品質。因為,即便排除對最終行政決定以及相對人救濟結果的影響,對自動化行政決定的說明也為公眾與行政相對人創造了充分的理性價值與信任價值。“法治所要求的無非是國家無論做什么都是以一種可預期的、持續一致的方式作出并通過理由加以證成”。對此,行政機關說明義務的履行在不同程度上提升了行政過程的透明度,提升了公眾對自動化行政決定的可預見性,推動了算法作為數字時代的規則,發揮指引社會主體行動的功能。與此同時,其作為一種理由的闡述,實現了政府與公民間的理性化討論和說服,提升了行政相對人對行政決定結果的可接受度。
實際上,行政決定的作出過程也是一個公共商談的過程,公民的參與已經是現代行政的一項基本要素。行政機關說明義務的履行能夠提高公共辯論的質量。公職人員對于支持他們決定的理由的充分闡述會比不做闡述時更有可能導出正當的決定。除此之外,說明義務也能夠以一種消極的方式養成行政機關的自我規訓習慣。這種自我規訓不同于上述工具價值中公眾與行政內部的監督,而是作出行政決定的行政機關刀刃向內的自查自糾。通過算法的公開與解釋能夠實現算法的高度透明,進而創造出一種福柯稱為“全景敞視主義(panopticism)”下的監督效果。行政機關在作出自動化行政決定的過程中會處于一種有意識的和持續的可見狀態,在心理上感到時刻被監視,從而在行動上遵規守矩。
總體來說,說明義務對于自動化行政決定的法治化塑造具有重大意義,有助于公民理解決策是如何作出的,如何獲得對該決策的救濟,以及如何通過改變自己的行為從而獲得自己期待的結果。其工具價值與內生價值共同維護了自動化行政決定的程序理性,保障了公民的權利,并且在一定程度上建立了公民與政府、人與算法間的信任基礎。
三、自動化行政決定說明義務的兩個層次
行政決定的作出是具有過程性的,行政權力在不同階段的運行具有不同的要求和內容,因此,行政機關的說明義務也是隨之而動態變化的。本文以行政過程論的視角,將自動化行政決定在標準階段和行為階段的說明義務分為兩個層次:行政機關需對介入行政決定的算法面向社會進行系統性說明,主要包括算法的基本邏輯架構、考量因素等內容(第一層);行政機關還需在決定作出前向行政相對人與利益相關方就算法的適用進行更加全面深入的個案說明(第二層)。兩個層次的說明義務在自動化行政決定的語境之下均為必要,且同時具有傳統正當程序的制度基礎。它們勾連起了行政機關對算法說明的客觀義務以及公民就算法解釋所享有的主觀權利,形成了差序化的遞進式解釋秩序。
(一)雙層說明義務的分層邏輯
兩個層次的說明義務實際上分別回答了自動化行政決定中所應用之算法“是什么”與“為什么”的問題,二者看似互相獨立實則互相依存。特別是相較于私人部門對自動化決策的說明,公共部門借助自動化技術進行決策時,如果僅僅公開說明算法運行的基本原理與規則并不能有效實現公民權利的全面保障以及行政權力的規范行使。
首先,自動化行政決定不同于私主體的自動化決策,其在本質上即附有行政權力所天然蘊含的公共性與強制性。行政機關利用自動化技術進行決策,不僅無需個人同意,個人也無拒絕的可能。因此,為保障相對人能夠行使相應的權利以對抗可能存在的不法行政決定,第二層的具體個案說明是一項必備的前提性工作。
就自動化行政審批來說,雖然目前部分地方政府就其審批機關所運用的智能審批系統進行了籠統的說明,但這種說明僅能夠起到幫助公民了解系統基本運行模式以及使用方法的作用。對于個案中的行政相對人來說,這種程度的信息供給是明顯不足的。以青島市的“秒批”系統為例,青島市行政審批服務局公布了“秒批”事項所需的基本材料,并說明了系統所運用的“智能比對模式”,即自動抓取審批材料中的關鍵數據和信息,并進行針對性提取對比核驗。但在實踐中,這種單層說明義務的履行仍存在較大的局限性,相對人無法充分了解和掌握系統認定申請材料是否符合審批條件的具體過程與考量因素。僅對于算法規則的系統性了解并不能滿足相對人對個案決定結果的接受以及權利的主張與行使。可以說,在第一層說明的基礎之上進行個案的具體說明是幫助相對人理解決定結果,提出異議,開展監督的必要條件。
其次,第二層說明的缺位還將造成第一層說明義務的空轉,甚至引起行政權力的異化與擴張。實際上,第一層說明所對應的算法邏輯與運行規則脫離了第二層說明是無法被證實的,即便自動化行政決定未按照第一層說明之規則作出,相對人也難以洞察。也正基于此,在缺乏具體個案說明的情況下,行政權力的運行存在逸脫于第一層說明內容的可能,第一層說明義務也將面臨被架空的風險。
在黑箱效應的影響下,自動化行政決定的責任認定問題尤為突出。即便行政機關在事前對其所應用之算法的邏輯方式等基本內容進行了初步的說明,但這并不能夠保證所有的自動化行政決定就一定是以既定算法邏輯作出的。鑒于行政權力所天然具有的擴張屬性與異化風險,完全存在行政機關在自動化行政的過程中恣意行使權力的可能。事實上,當自動化行政決定存在瑕疵或錯誤并對相對人造成損害時,相對人無法探知與分辨損害的背后究竟是人為因素,還是技術故障,而在此情形下,行政機關則具有充分的能力與動機將責任輕易地嫁禍于算法技術。缺乏個案中的深度解釋說明義務,行政機關可利用相對人在技術上的弱勢將不法行為藏匿于算法的黑箱之中推卸責任,算法黑箱也將淪為行政權力擴張與異化的溫床。因此,為行政機關設定自動化行政決定的第二層說明義務,要求其在第一層說明的基礎上對個案中的算法應用進行更深層次的解釋說明,是有效保障行政權力在具體個案中的規范運行,以及進一步驗證行政機關是否忠實地按照已公開說明的算法運行規則作出了行政決定的必要之舉。
總體來看,自動化行政決定說明義務的雙層架構是必要的。第一層說明不是最終目的,而只是邁向信息可理解性的過渡性步驟。行政權力在個案中的規范行使,以及公民相關權利的主張都有賴于第二層說明義務的落實。如果缺乏在個案中細致的解釋與說理,個人幾乎沒有能力比較自動化行政決定結果的相對有效性和真實性。
(二)雙層說明義務的制度基礎
雙層說明義務雖然體現的是法律制度對人工智能時代算法決策的一種因應性變革,但實際上也蘊含著傳統正當程序的制度基礎。第一與第二層說明義務分別對應了行政公開與說明理由兩項既有正當程序裝置,向不同對象、以不同程度,對算法進行解釋說明。
就第一層說明義務來說,其對于算法基本運行原理的系統性解釋實際對應著正當程序原則下的行政公開措施,即要求行政主體在行使行政權力的過程中依法將行政權力運行的依據、過程和結果向行政相對人和社會公眾公開。
算法在自動化行政決定的作出過程中實際上扮演著與法律規范類似的,包括理性目標的抽象規則,其雖不具有行政規則的形式外觀,但在內涵與實效方面均發揮著行政規則的功用。具言之,自動化行政決定中無論是對于事實的認定抑或是法律的適用均是依據算法既定的方式具體開展。算法是對于法律規范的數字化轉譯,可以被認為是一種行政機關的“二次立法”,其對于不特定對象持續產生效力,即具有普遍且反復適用的特點,同時對行政決定的過程和結果產生難以逸脫的拘束力,構成行政權力運行全過程的基本邏輯與原則遵循。
據此,依據《政府信息公開條例》第二十條之規定,自動化行政決定中所適用之算法作為行政規則應當對社會公眾進行全覆蓋式公開。同時,公民、法人或者其他組織也可依據《政府信息公開條例》第二十七條向相應的行政機關申請獲取相關政府信息。除了原則性的信息公開要求外,部分單行法也對決定依據的公開進行了專門的規定。例如:《行政許可法》第五條、第三十條、第三十三條要求許可實施機關將有關行政許可的事項、依據、條件、程序等內容通過線下與線上的多元方式進行公示,并對公示內容進行說明、解釋;《行政處罰法》第五條、第三十四條亦規定行政機關需對行政處罰的依據,包括處罰裁量基準進行公布。總體來看,未經公布的規范不得作為行政決定的依據已經成為一項普遍意義上的原則。
需要強調的是,公開并不僅限于對相關事實信息的披露,而是要附帶相應的解釋說明,使信息轉化為行政決定參與者所必需的知識,有效促進政府和公眾的雙向交流與反饋,讓公眾不僅知道是什么,還知道為什么、怎么做,從而加強規范遵從的自覺性。因此,公開在本質上構成一種解釋說明,只是這種說明是一種較低程度的說明。
就第二層說明義務來說,其聚焦于個案,對算法在事實認定、法律適用以及整個行政決定的涵攝過程中所發揮的作用進行相對全面和具體的說明,對應了正當程序原則下的說明理由制度。
說明理由作為正當程序原則的重要組成部分,是現代行政法治的必然要求,更是貫徹落實法治作為“理由之治”的實踐根基,其要求行政機關在作出行政決定時,除法律有特別規定外,必須向行政相對人說明其作出該行政決定的事實因素、法律依據以及進行自由裁量時所考慮的政策、公益等因素。《全面推進依法行政實施綱要》明確提出,行政機關行使自由裁量權的,應當在行政決定中說明理由。《行政許可法》第三十八條、《行政處罰法》第四十四條亦將說明理由規定為行政機關在作出不利于相對人決定時的剛性義務。這種附條件的說明理由制度實際上已經在部分地方的行政程序立法實踐中得到了加強,如《湖南省行政程序規定》第七十八條、《山東省行政程序規定》第八十六條,均取消了“不利決定”與“裁量權行使”的說明前提,規定了行政機關在行政決定作出時的普遍性說明義務,并對說明理由的內容做了進一步細化,具體包括證據采信的理由、依據選擇的理由和行政裁量的理由。在自動化行政決定之中,算法決策很大程度上替代了人工決策,因此,對行政決定的理由說明主要就是對算法運作的具體解釋。在正當程序的總體框架內,過程性控制機制是多元的,如回避制度、聽證制度、告知與聽取意見制度等,但所有程序保障機制發揮功能的基本前提均為行政機關對理由的說明。相對人與利益相關方只有知悉并理解了行政決定的理由,才能夠真正有效地參與決策,提出異議,開展監督。由此可見,第二層說明義務所對應的說明理由制度在正當程序中占據核心地位,并發揮著廣泛的前提性作用。
除了行政法律規范,《個人信息保護法》作為領域法,既含有私法色彩,也具有公法屬性,同樣適用于行政機關。《個人信息保護法》第七條確立了個人信息處理的透明性原則,要求個人信息處理者公開個人信息處理規則,明示處理的目的、方式和范圍;第十七條也是將個人信息的處理方式納入了告知的范圍。而為了杜絕“告而不知”,在告知的規范要求中應當內含著解釋說明的成分,以實現實質而非形式上的告知。與此同時,《個人信息保護法》還賦予了個人與行政機關算法說明義務相對應的算法解釋權,實現了說明理由制度的雙向實現機制,加強了公民相對于行政機關的積極地位。雖然此類規定的直接規制對象為個人信息處理行為,但實際上對個人有實質性影響的算法決策一般也是基于個人信息的處理。因此,算法說明義務可謂一般意義上的個人信息處理者說明義務在算法決策場合的推演。
總體來看,在行政法與數據法的既有規范之中,雙層說明義務已有相對成熟的制度基礎,兩層說明分別以行政公開與說明理由為制度基礎,二者對于行政決定的理由供給雖各有側重但卻也一脈相承。從行政過程的視角觀之,第一層是針對標準階段的系統性說明,即保證社會公眾對算法系統的技術原理具備必要的理解和判斷能力;第二層則是對行為階段的個案具體說明,即保障相對人與利益相關方的程序權利。二者的結合能夠對于算法與行政權力的全過程耦合進行相對周延的解釋說明。
四、自動化行政決定雙層說明義務的具體構建
雙層說明義務在算法治理以及行政法治之中均已形成了基本的規范基礎與價值立場,但具體的說明內容、說明方法、說明邊界仍缺乏細致的制度安排。兩層說明的運行機理、制度目的,以及其中涉及的客觀限制與利益考量均存在明顯的差異。第一層說明為事前說明,側重于解釋抽象化的系統功能,而無法就一個特定決定的理由依據進行說明;第二層說明為事中的說明,其內容則可囊括個案中特定決定的理由依據。因此,對于二者的具體構建不可武斷且不加區別地籠統定之,需要從說明的對象、內容、重點與程度等方面入手,結合行政權力運行的特定階段以及特定場景下不同主體對算法說明的具體需求進行精細化的分層建構。
(一)第一層:事前的抽象化系統性說明
自動化行政決定是算法與行政權力的全過程耦合,為實現對算法的充分解釋以及相對人權利的無漏洞保護,需以行政過程論的視角對自動化行政決定進行全過程觀察,進而突破行政行為形式論截取決定最終時點進行靜態考察所帶來的局部化、片段化、靜態化偏狹。
按照行政過程論,行政權力運行過程的階段性法律構造大致包括標準階段、行為階段、執行階段、救濟階段,而整個過程的最前端即為標準階段。據此,對算法的解釋說明應盡可能提前,在“標準階段”開展實施,以最大程度降低算法侵害的系統性風險。
第一層說明所扮演的角色是對算法的事前抽象化系統性說明。其所負擔的使命是抽象性的理由供給,是一種經由規范邏輯進行演繹推理的結構,例如,“如果某人違反某法律規定,而違反該法律規定的人都要受到處罰,那么此人應受到處罰”。由此,第一層說明的內容是一種普遍的邏輯化理由,即對算法作為行政規則的解釋說明。
第一層說明的目的在于保障公眾對于算法的知情,該義務指向關于算法技術及其應用方面的有用信息,但無須涵蓋算法的技術細節和復雜的數學解釋。與此同時,鑒于第一層說明是向社會公眾進行的一種在算法適用于行政決定之前的解釋,行政機關需要公開的內容是一種對算法的精煉和概括,作出的解釋說明能夠使公眾基本了解算法運行機理并作出大致準確的預判即可。具體而言,第一層說明所需涵蓋的內容大致包含以下三項:
其一,行政機關需要披露在各類行政決定中算法的存在,以及介入行政權力運行的具體環節,初步打破算法決策的秘密性,使得相對人和利益相關方知道該行政決定的作出是有算法介入的。
其二,行政機關應對算法運行的基本機理與邏輯進行解釋。例如,“算法對決策過程中的貢獻程度和貢獻模式”“算法所依賴的數據及其來源”“算法對個人信息的具體配置模式”“算法對參數的處理方式以及對各項指標的加權幅度”“算法決策的范圍及可能產生的后果”等關鍵技術要素。只有實現了技術的公開,才有可能建立社會公眾對行政決定的預期,以及在個案中相對人對行政決定作出理由的理解。
其三,算法公開應當包含個人信息保護影響評估的內容。根據《個人信息保護法》第五十五條、五十六條之規定,行政機關利用個人信息進行自動化決策應當在事前進行個人信息保護影響評估。評估的具體事項包括:個人信息的處理目的、處理方式等是否合法、正當、必要;對個人權益的影響及安全風險;所采取的保護措施是否合法、有效并與風險程度相適應。可以看出,該制度的目的主要在于圍繞個人信息權益的保護對信息處理行為的風險治理進行前移以規避算法問責的滯后性問題。然而,在自動化決策的語境之下這種個人信息保護影響的評估實際上也是對算法影響的評估。具言之,我國個人信息保護影響評估制度系借鑒自歐盟《通用數據保護條例》(General Data Protection Regulation,GDPR)第三十五條規定的數據保護影響評估制度(Data Protection Impact Assessment,DPIA),二者在具體規定以及實質內涵上高度趨同。但隨著算法廣泛嵌入公權力的運行,歐美國家已經將DPIA發展為算法影響評估(Algorithm Impact Assessment,AIA)。就自動化行政決定來說,其適用的算法直接涉及處理個人信息的合法性、正當性、必要性,同時構成影響個人信息權益乃至社會公共利益的主要因素。因此,即便《個人信息保護法》第五十五條并未要求評估的強制公開,但行政機關基于行政公開之基本原則,應當對評估內容與結果予以公開。
總體來說,第一層說明義務的具體構建需側重于算法相關內容的公開,面向公眾就算法的介入情況、運行機理,以及可能產生的影響三個面向的內容進行一種抽象化的系統性說明。
(二)第二層:事中的具體化個案說明
在第一層初步系統性說明的基礎之上,第二層說明義務承擔著在事中對自動化行政決定進行個案語境下的具體化解釋職責,即將特定事實帶入某一法律要件作出決定的原因說明。
在說明對象方面,基于說明理由制度的內涵構造以及《個人信息保護法》第二十四條對于解釋權主體的限定,第二層說明僅針對行政相對人以及利益相關方,而不及于公眾。在說明內容方面,第二層說明相比于第一層說明更加側重于對算法在個案中對行政決定的作出以及相對人權益所產生的影響與程度,具有較強的場景性和針對性。從既有實定法規范來看,我國行政法律體系中說明理由的主流規定模式大致可以分為兩種:一種是“采選式”,即對個案中“證據采信理由”與“依據選擇理由”進行說明;另一種是“事情法”模式,即對行政決定的事理、情理、法理進行解釋。結合兩種模式之要點以及自動化行政決定中的算法特征,可以大致將第二層說明的內容歸納為三個方面:其一,算法識別案件事實,即主體資格、行為主體、行政決定構成要件等與決定作出相關的所有事實的理由。簡言之,就是要對個案中每一個輸入算法的元素進行解釋。其二,算法選擇適用法律規范的理由。其中可能涉及一般法與特別法的選擇、不同位階規范的選擇,以及規范沖突情形下的選擇等問題。其三,算法在涉及裁量的場景之下所適用的裁量基準、考慮的案件背景、具體情節等因素。當然,解釋要注重行政權力運行過程中的整體涵攝邏輯,將行政決定置于連續的動態的行政過程中加以考察。行政決定僅僅是位于行政過程末端的一個靜態的點,行政機關單純地列舉事實、所適用的法律以及相應的法律結論并不足以支持其所作出的行政決定。
對于說明方法,應當考慮相對人的理解能力,以清晰平實的語言以及可視化、示例解釋等“用戶友好”的方式進行。還可以考慮通過反事實解釋的方式,更改原始的輸入數據,以觀察結果的相應變化,來讓相對人更加直觀地驗證決定作出的正確性。從實用主義解釋理論的立場出發,“解釋的優劣在于是否滿足接受解釋者的興趣,它是心理學的和場景論的”。面對算法,相對人所關心的并非算法在抽象意義上的參數與邏輯函數等,而是算法在行政決定作出過程中所發揮的具體作用,以及如何影響了自身的權利與義務。在相對人普遍缺乏算法知識、理解能力有限的情形之下,對算法細節進行生硬的技術化解釋是無益于提升相對人對自動化決策的可預見性與可接受度的,顯然也不會滿足其對此類算法解釋的興趣。
(三)雙層說明義務的適用邊界
需要強調的是,行政機關對自動化行政決定的說明義務并非是無限的,兩層說明的適用同樣存在邊界。這一方面緣于實定法之既有規定,另一方面實際也是均衡性原則作為行政法基本原則的題中應有之義。
就第一層說明義務來看,其存在法定的豁免情形。依據《政府信息公開條例》第十四條、第十五條之規定,公開后可能危及國家安全、公共安全、經濟安全、社會穩定的政府信息,是被無例外禁止公開的;涉及商業秘密、個人隱私等公開會對第三方合法權益造成損害的政府信息,可由行政機關裁量決定是否公開。因此,對于涉及“三安全一穩定”的政府信息公開豁免是無需討論的。而對于“涉及個人隱私與其他第三方合法權益的政府信息”是否公開則需要進行相應的利益衡量。實際上,涉及個人隱私的政府信息往往是直接包含個人信息的拆遷方案、征收補償方案等,而在自動化行政決定的語境之下,算法作為實質意義上的行政規則并不涉及個人隱私,對其進行公開說明僅有可能與私主體所享有的商業秘密權益之間產生沖突。通過簡單的利益衡量便可得出結論,對商業秘密的保護并不能阻止行政機關對算法進行公開和解釋說明。具體而言,自動化行政決定中所適用之算法涉及重要的公共利益,且這些系統多是利用公共財政資金開發或采購的,向公眾開放并進行系統性說明的必要性足以壓倒對商業利益的考量。同時,對算法規則的知情權既是一種人權,也是可依據我國憲法推導出的公民權利。相對于私營公司的商業秘密保護,顯然價值位階更高。可見,在算法公開說明與商業秘密保護的博弈之中,勝負只有一種結果,行政機關在是否公開說明自動化行政決定中所應用之算法的問題上裁量空間實際已被壓縮為零。
第二層說明的適用同樣存在一定的邊界。在地方行政程序立法中,說明理由的豁免條款已經屢見不鮮。其不同于《政府信息公開條例》中公開豁免之規定,并未設定“不得說明理由”的剛性限制,而僅列舉了“可以不說明理由”的部分情形,即當行政決定存在以下三種情形時行政機關可以不說明理由:一是授益性行政決定,且第三人未提出異議的;二是情況緊急無法說明理由的;三是涉及國家秘密、商業秘密、個人隱私的。前兩種情形實際上并不構成實質上的義務豁免,當事人可通過提出異議來獲得行政機關的理由說明,而在決定作出當時無法說明理由的也需要在事后補充說明。重點在于第三種情形,其規定即便是涉及國家秘密的行政決定也不必然免除行政機關說明理由的義務,而是需要行政機關加以裁量判斷。對此,可以從風險的角度加以理解。將涉及國家秘密的信息對公眾進行公開與對具體當事人進行告知解釋相比,前者可能造成的國家安全風險要遠遠高于后者。同時,在個案中的解釋,也可通過多種方式對涉密信息進行控制,避免擴散。因此,雖涉及高位階的國家利益也并不阻礙算法在個案中的解釋說明。
從規范層面觀之,第二層說明并不存在剛性的適用邊界,然而,不存在剛性的適用邊界不代表其適用完全不受限制。從比較法的視角來看,不少國家的行政程序立法均規定了行政機關可以不說明行政決定理由的若干情況,而其背后的立法考量便是行政機關在每一個具體案件當中對當事人解釋說明決定的理由需要花費高昂的成本,同時還會喪失應有的行政效率。程序正義固然重要,但行政效率同樣是現代行政法治所需考量的重要因素。同時,均衡性原則作為比例原則的核心子原則也對第二層說明的適用施加了限制。具體而言,均衡性原則并非只關注權利損害成本,不當地耗費財政支出成本同樣是一種損害,是對納稅人權利的損害。盡管在個案中的算法解釋可能對第三方權利損害成本很小,但實施算法解釋的財政支出成本過大同樣是不符合均衡性原則的。因此,對于第二層說明的適用,我們需要探究程序正義核心的道德邊界,在這個邊界以內,對于算法的解釋說明無關成本;在這個邊界之外,即需要結合個案中當事人權利保障的重要性與解釋的成本,以及解釋可能對其他權益產生的限制進行綜合性考量。
總體來說,自動化行政決定中的算法以公開說明為原則,不公開說明為例外。兩層說明義務因各自的制度目的與運行機理不同所面臨的適用限制也不盡相同。第一層說明義務的適用邊界是由“三安全一穩定”所形成的剛性邊界;第二層說明義務的適用邊界則是由均衡性原則下程序正義與行政效率間的博弈所形成的可伸縮的彈性邊界。
五、結束語:走向自動化行政決定中的“理由之治”
雖然法治作為一種“理由之治”已經是現代民主政治所公認的價值準則,但鑒于我國行政程序法尚付闕如,相應的公開制度與說明理由制度并未在法律層面實現體系化的建構。在數字時代,算法與行政權力的耦合掀起了傳統行政程序的變革浪潮,這既是挑戰也是機遇。目前,對私主體利用算法實施的商業行為,立法已經作出了反應,互聯網信息服務中的算法備案、算法解釋等機制已經有了相對明確的規范依據,但對于行政機關利用算法開展的自動化行政活動,還未出臺專門的法律規范予以回應。這不僅不利于自動化行政背景下行政合法性與行政合理性的落實與監督,更是對相對人之合法權益構成了直接的威脅。應加緊行政程序立法,融合并優化算法治理與傳統正當程序中與算法解釋相關的制度措施,促進行政過程中理性化的討論和說服,推動自動化行政理由之治的構建,破除公民與政府、人與算法間的信任危機。
趙鵬,中國政法大學教授、博士生導師,法治政府研究院院長,兼任中國法學會行政法學研究會副秘書長,政府規制專業委員會副主任,文化和旅游部部級研究基地首席專家,入選國家級青年人才項目。主要從事行政法、網絡與數據法、科技法的研究,先后主持國家社會科學基金項目、北京社會科學基金項目、中宣部委托項目等四十余項。出版著作《風險社會的行政法回應:以健康、環境風險規制為中心》,主編法治政府藍皮書《中國法治政府發展報告》等,在《中國法學》《法學研究》等權威期刊發表論文三十余篇。
張碩,中國政法大學法學院博士研究生,主要從事行政法,網絡與數據法研究。