国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

自動化行政方式下的行政處罰:挑戰(zhàn)與回應(yīng)
發(fā)布日期:2020-06-08  來源:《政治與法律》2020年第4期  作者:馬顏昕

摘  要:由于行政處罰的負(fù)擔(dān)行政屬性,部分自動化是現(xiàn)階段自動化行政處罰的主流形態(tài)。自動化行政方式的高效可能導(dǎo)致處罰密度失衡,需要建立處罰標(biāo)準(zhǔn)動態(tài)調(diào)整機(jī)制予以平衡。在自動化行政時代需要堅(jiān)持和發(fā)展正當(dāng)程序原則,以解決在程序與證據(jù)方面面臨的挑戰(zhàn)。自動化行政對于數(shù)據(jù)的依賴與行政處罰中的數(shù)據(jù)特殊限制形成了悖論,應(yīng)當(dāng)通過將數(shù)據(jù)納入公物法規(guī)制與擴(kuò)張個人數(shù)據(jù)權(quán)利等方式,完善數(shù)據(jù)法治。責(zé)任方面,自動化行政處罰錯誤時的責(zé)任主體仍然是行政主體,歸責(zé)原則應(yīng)當(dāng)采用無過錯責(zé)任。

關(guān)鍵詞:自動化行政 行政處罰 人工智能 《行政處罰法》修改

引言

隨著圖像識別等人工智能技術(shù)的不斷推進(jìn),自動化行政的適用場景更是愈發(fā)廣泛。在行政處罰領(lǐng)域中,自動化行政也早已屢見不鮮,可以從兩個案例中一窺端倪。第一個案例是2005年的杜寶良案。杜寶良每日駕駛機(jī)動車在同一地點(diǎn)違反禁行規(guī)定,均被電子監(jiān)控裝置抓拍,累計(jì)105次,均未得到及時通知。直到他順帶查詢違章時才發(fā)現(xiàn),被公安交通部門共處以罰款10500元的行政處罰。后交警部門以內(nèi)部執(zhí)法監(jiān)督的方式對行政處罰予以糾正,隨即杜寶良撤訴。第二個案例是發(fā)生在2018年的聲吶電子警察第一案。何先生駕車時忽然收到交警支隊(duì)的短信通知,提醒其涉嫌違法鳴笛。交警支隊(duì)提供的關(guān)鍵證據(jù)為聲吶電子定位系統(tǒng)的定位與識別抓拍。何先生對處罰不服,提起行政訴訟。最終一審法院認(rèn)為證據(jù)確實(shí),程序正確,駁回了原告的訴訟請求。

這兩個案例一舊一新,在許多方面反映出了自動化行政方式對已有行政處罰制度的挑戰(zhàn)。作為一類重要的也是經(jīng)典的負(fù)擔(dān)行政行為,行政處罰的法學(xué)理論與法律制度構(gòu)建都相對較為完整。但隨著技術(shù)和社會的不斷發(fā)展,自動化行政方式逐漸普及和加強(qiáng),這使得行政處罰的形態(tài)發(fā)生了改變,也隨之帶來了新的法律問題,亟需理論上與制度上的回應(yīng)。恰逢《行政處罰法》頒布22年來的首次大修,對行政處罰制度變革的探討正當(dāng)其時。

一、自動化行政方式下的行政處罰形態(tài)

所謂自動化行政,就是一種人工智能在行政領(lǐng)域中的具體運(yùn)用,是指行政程序中特定環(huán)節(jié)或所有環(huán)節(jié)由人工智能或者說自動化系統(tǒng)代為處理,而無需人工的個別介入,從而實(shí)現(xiàn)部分或全部無人化的行政活動。依據(jù)自動化系統(tǒng)與人的分工情況、適用場景等因素,可以將自動化行政區(qū)分為自動化輔助行政、部分自動化行政、無裁量能力的完全自動化行政、有裁量能力的完全自動化行政等多個級別。

(一)部分自動化——自動化行政處罰的主流形態(tài)

在判斷自動化行政的級別,尤其是區(qū)分部分自動化與完全自動化時,需要對行政活動的具體環(huán)節(jié)進(jìn)行進(jìn)一步區(qū)分,從而判斷自動化系統(tǒng)與人在具體環(huán)節(jié)中的分工。從信息處理的角度,對于一項(xiàng)特定的行政執(zhí)法活動,可以將其具體區(qū)分為識別與輸入(surveillance)、分析與決定(analysis)、輸出與實(shí)現(xiàn)(action)三個環(huán)節(jié)。在杜寶良案與聲吶電子警察案中,自動化系統(tǒng)對違章車輛進(jìn)行了識別與證據(jù)固定,獨(dú)立完成了信息的識別與輸入。而在聲吶電子警察案中,系統(tǒng)還自動推送了違法通知短信,實(shí)踐了信息的自動輸出與實(shí)現(xiàn)。但在這兩個案例中,分析與決定環(huán)節(jié)仍然需要由人工完成。這也與《道路交通安全違法行為處理程序規(guī)定》中所設(shè)計(jì)的現(xiàn)行制度精神相一致。在現(xiàn)階段,這兩個行政處罰案例均屬于部分自動化行政行為,尚未實(shí)現(xiàn)行政程序全過程的完全自動化。

(二)不具有裁量能力的完全自動化——行政處罰領(lǐng)域的特別限制

實(shí)踐中,一些其他行政行為類型的自動化行政程度要走的更遠(yuǎn)。廣西、深圳等地的行政許可已經(jīng)在特定事項(xiàng)上實(shí)現(xiàn)了無人干預(yù)自動審批,在分析與決定環(huán)節(jié)也實(shí)現(xiàn)了無人化,達(dá)到了完全自動化。這些自動審批事項(xiàng)一般比較簡單,不存在裁量空間,屬于無裁量能力的完全自動化級別。但是在行政處罰中適用完全自動化行政方式(即使是無裁量的情況下),仍需高度謹(jǐn)慎。與一般性的行政許可不同,行政處罰是負(fù)擔(dān)行政,將會對相對人的權(quán)利產(chǎn)生結(jié)果性的不利影響。因此其在正當(dāng)程序上比一般性的授益行政行為的要求更高。在行政處罰的過程中,應(yīng)當(dāng)詳細(xì)說明理由、展示證據(jù),充分保障相對人的申辯權(quán)。這是現(xiàn)階段的自動化行政難以做到的。更進(jìn)一步說,即使技術(shù)上可以實(shí)現(xiàn),還需要考慮到相對人的可接受度。行政處罰中行政主體與相對人的關(guān)系相對緊張,新技術(shù)手段的運(yùn)用需要更為謹(jǐn)慎,以降低相對人的疑慮。在聲吶電子警察案中,當(dāng)事人的一大不滿就在于對聲吶證據(jù)的技術(shù)可靠性的懷疑。如果行政處罰實(shí)現(xiàn)完全無人化,這種疑慮將更為激化。這種心理上的疑慮和可接受度也應(yīng)該當(dāng)被納入考量范圍,正義不僅應(yīng)得到實(shí)現(xiàn),而且要以人們看的見的方式實(shí)現(xiàn)。因此現(xiàn)階段自動化行政處罰仍然主要限于部分自動化方式,自動化行政尚未在主體論方面給行政處罰制度帶來質(zhì)的沖擊。其在主體方面的影響主要局部體現(xiàn)在技術(shù)主體的介入對責(zé)任主體的影響。這部分將在后文予以進(jìn)一步探討。

(三)具有裁量能力的完全自動化——對自動化輔助異化的警惕

現(xiàn)階段由于技術(shù)和制度的限制,自動化系統(tǒng)還難以對不確定法律概念、效果裁量這樣的不完全信息做出妥善的決策,因此還尚未出現(xiàn)里程碑式的能夠自我進(jìn)行裁量的完全自動化行政行為,甚至在代表性國家的行政程序法中更是明確規(guī)定自動化行政只能適用于不存在裁量的情況。對于行政處罰來說,正當(dāng)程序的要求更高,距離這種更高級別的完全自動化行政的還尚遠(yuǎn)。

但是,從國內(nèi)外實(shí)踐來看,利用人工智能算法做出決策參考的情況已經(jīng)逐漸出現(xiàn),包括利用人工智能算法協(xié)助特定地區(qū)交通管制措施的確定;指導(dǎo)犯罪預(yù)防措施的實(shí)施;甚至是輔助刑事司法裁判。我國的《新一代人工智能發(fā)展規(guī)劃》中也提出要進(jìn)一步開發(fā)適于政府服務(wù)與決策的人工智能平臺,研制面向開放環(huán)境的決策引擎,在復(fù)雜社會問題研判、政策評估、風(fēng)險預(yù)警、應(yīng)急處置等重大戰(zhàn)略決策方面推廣應(yīng)用。在行政、司法、城市管理、環(huán)保等多方面發(fā)揮人工智能的作用,實(shí)現(xiàn)社會治理智能化。

這種算法的決策輔助,從形態(tài)上看,嚴(yán)格來說只是屬于自動化輔助行政,各個環(huán)節(jié)最終還是由人工把關(guān),自動化的級別并不高。然而實(shí)踐中很有可能出現(xiàn)由于對人工智能的信任,對機(jī)器的建議不加懷疑接納的情況,使得人工智能的決定在事實(shí)上就已經(jīng)變得自動存在了。甚至當(dāng)人類質(zhì)疑人工智能的自動化決策建議時,會反而被視為魯莽行事。在行政處罰中應(yīng)當(dāng)對此尤為警惕,應(yīng)當(dāng)通過程序的周密設(shè)置,對人工智能的自動化決策進(jìn)行有效監(jiān)督,對個案情境進(jìn)行充分考察。

二、處罰密度失衡——處罰標(biāo)準(zhǔn)的動態(tài)調(diào)整

(一)高效帶來的處罰密度失衡

自動化行政方式具有高效、客觀等固有優(yōu)勢,因此很快在各個行政領(lǐng)域中普及開來,這也包括行政處罰。但也帶來了大量挑戰(zhàn),這些挑戰(zhàn)需要相應(yīng)的制度回應(yīng)。有趣的是,本文將探討的第一個挑戰(zhàn)卻正來源于自動化行政的最大優(yōu)勢——高效。高效在節(jié)約成本帶來便利的同時,卻使得行政處罰的疏密程度嚴(yán)重失衡,產(chǎn)生了實(shí)質(zhì)性的處罰不當(dāng)問題。

杜寶良案就是一個典型。在自動化行政方式出現(xiàn)之前,交通違章等行政處罰的執(zhí)法工作主要由人力完成,執(zhí)法成本相對較高。如果想要對所有的交通違法行為都予以處理,其需要投入的人力成本將會是天文數(shù)字。因此在人力執(zhí)法時代,交通違章實(shí)際上是一種“抽查”。違章十次,可能僅僅會被抓住一次。從經(jīng)濟(jì)學(xué)的角度,要實(shí)現(xiàn)對違法行為的利導(dǎo),就應(yīng)當(dāng)保障“違法損失期望>違法收益”,而“違法收益”又等于“被處理的概率”乘以“被處罰的力度”。在人力執(zhí)法中,由于被處罰的概率遠(yuǎn)遠(yuǎn)小于百分之百,因此為了實(shí)現(xiàn)“違法損失期望>違法收益”,就必須相應(yīng)地提高“被處罰的力度”。

而交通抓拍等自動化行政方式的出現(xiàn),從根本上改變了這一局面。自動化系統(tǒng)一旦設(shè)置,就可以風(fēng)雨無阻的24小時進(jìn)行監(jiān)控,違法行為被處理的概率在特定條件下將被大大提升,甚至提升到接近百分之百。而此時,原有的處罰力度卻沒有得到相應(yīng)的調(diào)整,最終從整體上看,行政處罰的密度嚴(yán)重失衡,執(zhí)法畸重。

(二)處罰標(biāo)準(zhǔn)動態(tài)調(diào)整下的再平衡

從“被處理概率*處罰力度=違法損失期望”這一模型中,亦可以探尋到兩種解決處罰密度失衡的思路。第一種是降低自動化行政處罰的效率,從而緩解處罰過密的問題。這一方法看似因噎廢食,但是從特定角度上看,卻有一定意義。比如有美國學(xué)者指出,“低效和不確定性”看似是缺點(diǎn),但也更有利于情境化的決策、可以一定程度上降低技術(shù)對隱私等的危害、在輕微違法上給予公民相對更多的自由空間。這種觀點(diǎn)如果用一種更加?xùn)|方的表述,那就是“法理不外乎人情”,通過適當(dāng)降低自動化行政的效率來緩解自動化執(zhí)法的僵化。但這種方法的調(diào)整程度和范圍都相當(dāng)有限,否則不僅影響自動化行政方式高效優(yōu)勢的發(fā)揮,更可能破壞行政執(zhí)法的嚴(yán)肅性與可預(yù)測性。

因此本文提出的回應(yīng)方式主要還是基于第二種思路:隨著處罰概率的提升相應(yīng)降低處罰力度,換言之,建立行政處罰標(biāo)準(zhǔn)動態(tài)調(diào)整機(jī)制。傳統(tǒng)的行政處罰的處罰程度由法律法規(guī)所設(shè)定的具體條件、行為、情節(jié)、結(jié)果所限定。這個范圍一般是靜態(tài)的,且相對固定。如果出現(xiàn)原有靜態(tài)標(biāo)準(zhǔn)中沒有明確的因素,行政機(jī)關(guān)可以進(jìn)行裁量,但行政機(jī)關(guān)的裁量不得突破原有標(biāo)準(zhǔn)的上下限。這個上下限的范圍一般不會太寬,否則會賦予行政機(jī)關(guān)過大的裁量權(quán)。而在傳統(tǒng)行政處罰的靜態(tài)標(biāo)準(zhǔn)之下,被處罰概率這一因素并未被納入處罰程度的考量。當(dāng)技術(shù)手段極大地提高了被處罰概率時,行政機(jī)關(guān)能做的也僅僅是在不大的裁量范圍內(nèi)進(jìn)行平衡,而這對于自動化行政方式下被處罰概率動輒數(shù)十倍甚至上百倍的提高來說是遠(yuǎn)遠(yuǎn)不夠的。

靜態(tài)標(biāo)準(zhǔn)的不足也不僅限于自動化行政領(lǐng)域。行政處罰實(shí)踐中經(jīng)常出現(xiàn)的另一個問題是,作為處罰依據(jù)的法律法規(guī)規(guī)定了具體的處罰額度,但是由于經(jīng)濟(jì)發(fā)展、通貨膨脹、地區(qū)發(fā)展不均衡等原因,許多原有額度已經(jīng)明顯過低,無法起到足夠的懲罰效果。想要調(diào)整處罰額度,就必須通過法律法規(guī)修訂來完成,這存在不可忽視的周期與成本,甚至可能剛剛修訂就已經(jīng)滯后。這反映了靜態(tài)標(biāo)準(zhǔn)的本質(zhì)缺陷:靜態(tài)的標(biāo)準(zhǔn)無法適應(yīng)日新月異的動態(tài)社會。

為了解決這些問題,應(yīng)該建立行政處罰標(biāo)準(zhǔn)的動態(tài)調(diào)節(jié)機(jī)制。法律法規(guī)在設(shè)定行政處罰額度時,不再局限于條件、行為、情節(jié)、結(jié)果等固定指標(biāo),還應(yīng)該加入處罰概率、經(jīng)濟(jì)發(fā)展情況等可變指標(biāo),從而使得行政主體在進(jìn)行法律適用時,可以根據(jù)當(dāng)前情況進(jìn)行裁量。需要注意的是,從理論上,這并未增加行政主體的裁量空間,只是將其限定因素從固定指標(biāo)變成了可變指標(biāo),而這些可變指標(biāo)在每個特定時間是可以根據(jù)一定計(jì)算方式確定的。換言之,關(guān)于可變指標(biāo)本身,行政機(jī)關(guān)的裁量權(quán)并沒有增加。但從實(shí)踐上,這種可變指標(biāo)的確定過程的確可能給了行政機(jī)關(guān)一定“活動”的空間。為了防止這種情況的出現(xiàn),必要時可以通過裁量基準(zhǔn)來對可變指標(biāo)進(jìn)行確定,然后定期對裁量基準(zhǔn)進(jìn)行更新。裁量基準(zhǔn)的修訂成本要遠(yuǎn)低于立法修改,從而實(shí)現(xiàn)靈活性與確定性的平衡。

三、處罰程序與證明方式的挑戰(zhàn)——正當(dāng)程序原則的新發(fā)展

(一)現(xiàn)有程序制度在自動化行政處罰中的貫徹不足

行政處罰程序體系構(gòu)建相對比較完善,《行政處罰法》及相關(guān)法律法規(guī)中對告知、說明理由、當(dāng)事人陳述和申辯、聽證等具體程序制度進(jìn)行了規(guī)定,這些具體程序在限制行政權(quán)、保護(hù)相對人權(quán)益、增強(qiáng)行政行為的確定性與合法性等方面發(fā)揮了重要作用。自動化行政方式并沒有改變行政處罰的行為性質(zhì),其仍然屬于一種行政處罰行為,那么《行政處罰法》等法律法規(guī)中規(guī)定的相應(yīng)程序性要求就應(yīng)當(dāng)也適用于自動化行政處罰。雖然比較法上,有國家允許對某些批量做出的自動化行政行為予以一定的程序豁免,如無需簽名、特定情況下可以不說明理由、無需事先聽證等,但這種程序豁免都具有很大的局限。尤其是行政處罰屬于負(fù)擔(dān)行為,如果沒有特別的理由,且未經(jīng)過立法明確,不應(yīng)減損自動化行政處罰的程序要求。

自動化行政處罰的實(shí)踐,尤其是早期實(shí)踐中,部分環(huán)節(jié)的無人化使得一些現(xiàn)有程序制度未能在自動化行政中得到完全的貫徹。比如杜寶良案中相對人之所以會被接連處罰105次而不自知,正是因?yàn)槠錄]有及時地被告知。傳統(tǒng)的人力執(zhí)法,現(xiàn)場開設(shè)罰單并送達(dá)當(dāng)事人,通過執(zhí)法者與相對人的直接接觸,可以對告知、說明理由、陳述與申辯等程序環(huán)節(jié)予以現(xiàn)場實(shí)施。而自動化行政處罰所實(shí)現(xiàn)的無人化,喪失了這種人與人之間的直接接觸,繼續(xù)適用傳統(tǒng)的現(xiàn)場執(zhí)法程序難以再滿足要求。

這種現(xiàn)有程序制度貫徹不足的問題,其解決的基礎(chǔ)思路有三:其一,需要在理念上認(rèn)識到,自動化行政處罰是一種行政處罰行為,因此應(yīng)當(dāng)適用行政處罰法律體系中規(guī)定的相應(yīng)程序制度,并不因?yàn)樾姓绞降母淖兌档托姓黧w的程序義務(wù)。其二,應(yīng)當(dāng)通過新的技術(shù)手段和程序規(guī)定,在具體制度上實(shí)現(xiàn)現(xiàn)有程序要求。比如通過短信的即時推送來實(shí)現(xiàn)及時告知。在聲吶電子警察案中,相對人就通過短信、道路電子屏等方式即時獲悉了自己的受罰情形。其三,自動化行政處罰具有的非現(xiàn)場性、高效性等特征,使得部分程序制度的實(shí)現(xiàn)方式可能改變。最典型的趨勢在于說明理由、陳述和申辯等程序的重心可能后移,從事前、事中程序變?yōu)槭潞蠹m正程序。比如一項(xiàng)交通違章處罰,在人力執(zhí)法時代,現(xiàn)場處罰能夠即時進(jìn)行說明理由并聽取陳述、申辯。而在自動化行政方式下,執(zhí)法者可以事先通過短信等方式進(jìn)行簡單通知,當(dāng)事人如果不服,可以通過網(wǎng)絡(luò)平臺、行政服務(wù)中心等媒介獲取違法事實(shí)證據(jù)材料等更多信息,提出自己的申辯,并要求人工介入,對可能的錯誤進(jìn)行糾正。從而在保障相對人程序權(quán)利的同時,發(fā)揮自動化行政處罰的高效優(yōu)勢。

(二)證據(jù)形態(tài)與證明方式改變所帶來的可接受性與正當(dāng)性難題

除了現(xiàn)有程序制度的貫徹不足,自動化行政所引發(fā)的程序挑戰(zhàn)更體現(xiàn)在其帶來了證據(jù)形式與證明方式方面的全新問題。在前述聲吶電子警察案中,核心爭議在于聲吶抓拍的證據(jù)證明力,其本質(zhì)是:在自動化行政方式下,隨著新技術(shù)的不斷運(yùn)用,證據(jù)的形態(tài)與證明方式發(fā)生改變。這種改變帶來了證據(jù)形式的法律認(rèn)可問題與公眾接受度的難題。對于前者,可以通過法律法規(guī)的修訂予以解決,但是后者的矛盾則沒有這么簡單。

在自動化行政的早期運(yùn)用中,自動化系統(tǒng)生成的證據(jù)往往比較直接、明了,符合人們的常識,如交通抓拍中所抓拍到的闖紅燈照片。但隨著技術(shù)的進(jìn)步,越來越多超越人們常識的方式也開始出現(xiàn),比如聲吶電子警察。這一方面正說明了技術(shù)進(jìn)步使得自動化行政可以完成那些人工難以完成的任務(wù),但也恰恰挑戰(zhàn)了人們的可接受度。人們會本能地對這種新技術(shù)手段作為證據(jù)的可靠性存在一定懷疑。

如果說聲吶電子警察尚且還屬于“看得見、聽得到”這樣的常識邊緣,人工智能技術(shù)的進(jìn)一步發(fā)展將會進(jìn)一步挑戰(zhàn)人們的接受極限。比如人臉識別,人工智能基于各種算法,其對人的識別方式與人類并不相同,因此很多時候人眼所無法識別的差異,卻可以被人工智能區(qū)分;而當(dāng)人眼被變裝所欺騙的時候,人工智能卻可能“透過現(xiàn)象看到本質(zhì)”。這是技術(shù)的進(jìn)步,但也是一個“反常識”的證據(jù)。

有些表面上反常識的證據(jù)形式和證明方式,仍然可以通過一定方法予以解釋。但隨著機(jī)器學(xué)習(xí)等人工智能算法的發(fā)展,部分人工智能算法可以自發(fā)學(xué)習(xí)和演進(jìn),其決策方式不是簡單的線性一對一,而是變得撲朔迷離,也就是所謂的“算法黑箱”。人們只知道其輸出了特定結(jié)果,這個結(jié)果從統(tǒng)計(jì)學(xué)上看大概率正確,至于為什么得出這個結(jié)果,人們卻可能一無所知。此時可接受度所受到的挑戰(zhàn)就將十分巨大。特別是在行政處罰中,如果不能得到一個讓相對人可以理解的解釋,僅僅用概率上的正確,是無法讓被處罰人滿意的。這種可接受性上的缺失,也將直接影響到行政處罰的教育與利導(dǎo)效果。

更進(jìn)一步說,算法黑箱對于行政處罰正當(dāng)性的影響還在于關(guān)系到在特定行政處罰中,證明標(biāo)準(zhǔn)是否達(dá)到。關(guān)于行政處罰的證明標(biāo)準(zhǔn)學(xué)界尚未有統(tǒng)一觀點(diǎn),但一般認(rèn)為,像拘留、吊銷證照等對相對人人身、財(cái)產(chǎn)權(quán)利有重大影響的重大行政處罰案件,應(yīng)當(dāng)適用確鑿證據(jù)標(biāo)準(zhǔn),也就是需要能夠排除任何合理懷疑。那么一個難以被解釋、難以被理解的、仿佛來自黑箱之中的人工智能算法所作出的結(jié)論,能否構(gòu)成確鑿證據(jù)標(biāo)準(zhǔn)的基礎(chǔ)?換言之,對于這樣算法黑箱的質(zhì)疑是否構(gòu)成一種合理懷疑?從這個角度上看,新技術(shù)使用所產(chǎn)生的黑箱問題,至少在行政處罰領(lǐng)域中存在巨大的潛在正當(dāng)程序問題。

(三)自動化時代的正當(dāng)程序原則

技術(shù)的發(fā)展帶來治理模式的轉(zhuǎn)變,自動化行政方式下的行政處罰制度發(fā)展也出現(xiàn)了一定的變化性與不確定性。為了在這樣的變化中保護(hù)相對人的基本權(quán)利,需要構(gòu)建一定的程序底線,不管技術(shù)如何變化,相對人可以通過程序的保護(hù)來獲得應(yīng)有的公正。在自動化行政時代,正當(dāng)程序原則還將繼續(xù)發(fā)揮重要作用。這一方面要求現(xiàn)有的行政處罰程序制度在沒有特別理由、未經(jīng)立法改變之前,應(yīng)當(dāng)同樣適用于自動化行政處罰;另一方面正當(dāng)程序原則的具體內(nèi)容也產(chǎn)生了相應(yīng)的發(fā)展,提出了一些新的要求:

1.  透明度與可解釋性

提高包括人工智能算法在內(nèi)的各種自動化行政技術(shù)手段的透明度和可解釋性,是解決算法黑箱、提高技術(shù)接受度的一種直覺性的解決方式。因此雖然部分學(xué)者對算法透明的必要性提出異議,但是主流學(xué)術(shù)和立法都對自動化決策中的透明度與可解釋性提出了相應(yīng)要求,成為了一種重要的發(fā)展趨勢。

所謂透明度和可解釋性就是指,當(dāng)自動化決策可能對相對人的權(quán)益產(chǎn)生重大影響時,應(yīng)當(dāng)對其作出決定的過程作適當(dāng)?shù)慕忉專棺詣踊瘺Q策能夠被人類所識別、追蹤和理解。在這一要求下,自動化行政處罰中如果在程序、證據(jù)等方式中使用了包含人工智能算法等在內(nèi)的新技術(shù),當(dāng)這種新技術(shù)對相對人權(quán)益產(chǎn)生重大影響時,應(yīng)當(dāng)對這種技術(shù)影響處罰決定的方式做出解釋,或者說,至少保有解釋的能力。其制度建設(shè)可以部分參考說明理由制度。現(xiàn)行的說明理由制度包括說明事實(shí)依據(jù)、法律依據(jù)以及其他理由。透明度和可解釋性在一定程度上可以視為對說明理由制度的拓展,其制度價值是相似的。但其與一般的說明理由不同的是,由于技術(shù)的復(fù)雜性,如果要求對每一技術(shù)細(xì)節(jié)處處進(jìn)行事前解釋,無疑成本高昂且冗長。因此正如本文前述的那樣,關(guān)鍵是保留解釋的能力,而具體解釋的環(huán)節(jié)可以后移至事后,即當(dāng)相對人存在異議的時候,對個案進(jìn)行事后監(jiān)督。

2.  技術(shù)運(yùn)用中的形式公平

正當(dāng)程序原則要求程序公正,在形式意義上與平等保護(hù)原則是一致的,即同樣情形下的同樣事情,應(yīng)當(dāng)在程序上獲得相同的處理,不得考慮不相關(guān)的因素。然而人工智能算法卻存在著個性化、定制化等特征,可以根據(jù)對象的不同,進(jìn)行區(qū)別化處理。如果發(fā)揮這種優(yōu)勢,可以實(shí)現(xiàn)良好的精準(zhǔn)治理,但是反過來,卻也會產(chǎn)生程序不平等的問題。為了解決這一問題,至少在行政處罰這樣的負(fù)擔(dān)行為中應(yīng)當(dāng)建立起一系列程序公平的具體要求,從而使得新技術(shù)平等的適用于每一個體,程序的設(shè)計(jì)不會特別地不利于特定的人。這些具體要求應(yīng)當(dāng)包括:每一個決策都應(yīng)該適用相同的策略或規(guī)則;在識別被決策主體身份前就事先明確決策策略(并且可靠的記錄這一策略選擇),從而降低通過設(shè)計(jì)程序來歧視特定個體的可能;每一項(xiàng)決策都可以依據(jù)特定的決策策略和特定的輸入信息予以重現(xiàn);如果一個決策中存在一定隨機(jī)性(比如抽簽),那么這種隨機(jī)信息不能受到任何利益相關(guān)方的控制。

3.  評估與認(rèn)證

一個人類完成特定的專業(yè)工作前需要進(jìn)過一定的考試或評估并通過相應(yīng)的認(rèn)證,特定的技術(shù)手段在承擔(dān)自動化行政的特定任務(wù)前也同樣如此。這種評估與認(rèn)證程序構(gòu)成了自動化行政方式下正當(dāng)程序原則的重要一環(huán)。比如在聲吶電子警察案中,相對人對聲吶定位的可靠性提出質(zhì)疑,作為答辯,行政機(jī)關(guān)提出了違法鳴喇叭抓拍設(shè)備均已通過國家權(quán)威機(jī)構(gòu)檢測的證據(jù)。最終法院采納了行政機(jī)關(guān)的觀點(diǎn)。實(shí)際上,由于自動化行政中各種新技術(shù)的高度復(fù)雜性,普通人是難以理解也難以對其進(jìn)行實(shí)質(zhì)性審查的。這也是為什么部分學(xué)者認(rèn)為將透明度普及到普通公眾并沒有意義。在這種情況下,專業(yè)機(jī)構(gòu)與專業(yè)人士的評估與認(rèn)證,將會起到關(guān)鍵作用。通過他們對技術(shù)手段予以測試,交流和發(fā)布可能存在的風(fēng)險,滿足正當(dāng)程序的需求,同時提高公眾的可接受度。此外,對于有些確實(shí)存在可解釋性難題,但是又確有存在必要的特定技術(shù),也可以通過一些專業(yè)技術(shù)工具的運(yùn)用,在信息不完全的前提下對算法等新技術(shù)的實(shí)效進(jìn)行檢驗(yàn),從而滿足正當(dāng)程序原則的基礎(chǔ)要求。

四、自動化行政處罰的大數(shù)據(jù)悖論——對數(shù)據(jù)法治的再認(rèn)識

(一)數(shù)據(jù)依賴與數(shù)據(jù)特殊限制之間的悖論

自動化行政時代在一定意義上同時也是數(shù)據(jù)時代。自動化系統(tǒng)做出各種判斷的基礎(chǔ)是數(shù)據(jù)庫中的各類信息,而非工作人員的肉眼與經(jīng)驗(yàn),這產(chǎn)生了極強(qiáng)的數(shù)據(jù)依賴。一方面放大了數(shù)據(jù)出現(xiàn)錯誤時可能導(dǎo)致的不利后果。另一方面更是讓行政活動中的數(shù)據(jù)需求劇增,使得數(shù)據(jù)的互聯(lián)互通成為了自動化行政方式中的一個重要方向。

但這卻形成了一個悖論:自動化行政要求數(shù)據(jù)的互聯(lián)互通,但行政處罰的特性卻對特定數(shù)據(jù)的使用進(jìn)行了限制:即使某些數(shù)據(jù)為真,也不得使用。比如《統(tǒng)計(jì)法》中規(guī)定,統(tǒng)計(jì)調(diào)查中獲得的能夠識別或者推斷單個統(tǒng)計(jì)調(diào)查對象身份的資料,任何單位和個人不得對外提供、泄露,不得用于統(tǒng)計(jì)以外的目的。《全國經(jīng)濟(jì)普查條例》和《人口普查條例》更是明確規(guī)定,經(jīng)濟(jì)普查和人口普查獲得的數(shù)據(jù)嚴(yán)格限定用于特定用途,不得作為行政處罰依據(jù)。

之所以對數(shù)據(jù)的使用進(jìn)行這樣的限定,有幾個原因:其一,保證統(tǒng)計(jì)數(shù)據(jù)、普查信息的準(zhǔn)確性。如果可能成為懲罰的依據(jù),那么必然會影響相對人申報(bào)信息時的真實(shí)程度。其二,防止誘導(dǎo)性的強(qiáng)迫自證其罪。相對人如實(shí)提供統(tǒng)計(jì)與普查信息,之后卻以此為依據(jù)受到懲罰。這種懲罰超出了相對人提供信息時的預(yù)期,屬于一種非自愿的自證其罪。其三,對于數(shù)據(jù)的認(rèn)識逐漸出現(xiàn)轉(zhuǎn)變。隨著現(xiàn)代生活中數(shù)據(jù)的重要性愈發(fā)提高,人們對于數(shù)據(jù)的重視逐步增加,對數(shù)據(jù)的濫用危害也日益警惕。

(二)政務(wù)數(shù)據(jù)的公物法規(guī)制與個人數(shù)據(jù)權(quán)利的擴(kuò)張

應(yīng)當(dāng)認(rèn)識到,在對大數(shù)據(jù)時代予以歡呼的同時,數(shù)據(jù)泛濫同樣可能是一場災(zāi)難。尤其是在行政處罰領(lǐng)域中,前述悖論的存在,使得我們有必要對看似美好的數(shù)據(jù)互聯(lián)互通予以一定的限制。這種限制可以基于兩種路徑:

1.  將政務(wù)數(shù)據(jù)納入公物法規(guī)制——政務(wù)數(shù)據(jù)的合目的性限制

政務(wù)數(shù)據(jù)具有很強(qiáng)的公共性,不管其來源如何,其并不屬于政府的私產(chǎn)。政府對于數(shù)據(jù)的控制和管理,并不是基于一種類似于私法所有權(quán)的支配權(quán),而是一種基于特定公共目的管理權(quán)。從這個意義上來說,政務(wù)數(shù)據(jù)是一種特殊的“公物”。和其他有形公物一樣,政務(wù)數(shù)據(jù)處于行政主體支配之下,直接服務(wù)于公共利益,供公眾按照一定程序予以直接使用,或者是服務(wù)于行政活動。與私物不同,公物上承載了特定的公共目的,其使用受到事先所確定的特定公共目的的合目的性拘束。換言之,作為一種特殊公物的數(shù)據(jù),其承載的公共目的應(yīng)當(dāng)事先明確,之后行政機(jī)關(guān)僅能在設(shè)定的目的內(nèi)使用這些數(shù)據(jù)。通過將數(shù)據(jù)納入公物法的規(guī)制領(lǐng)域,可以很好的限制行政機(jī)關(guān)對于數(shù)據(jù)的濫用。而為了平衡數(shù)據(jù)聯(lián)通互通的需求,可以針對各種政務(wù)數(shù)據(jù)的具體情況,在命名時設(shè)置或廣或窄的公共目的范圍,從而實(shí)現(xiàn)精準(zhǔn)控制。

2.  個人數(shù)據(jù)權(quán)利的擴(kuò)張

傳統(tǒng)上,對于個人數(shù)據(jù)的保護(hù)主要基于隱私權(quán)。但傳統(tǒng)隱私權(quán)不及于公共空間,因?yàn)?/span>你不可能要求公共空間的路人或者警察為了你“關(guān)閉自己的眼睛”。換言之,傳統(tǒng)隱私權(quán)所能保護(hù)的范圍是非常有限的,至少對于大量公共領(lǐng)域監(jiān)控?cái)z像頭或者是網(wǎng)絡(luò)空間所留足跡這樣的信息就無法予以控制。但隨著人們對于信息重要性的認(rèn)識逐步提高,個人信息與數(shù)據(jù)逐漸獲得了超越普通個人隱私的相對獨(dú)立地位。像歐盟《通用數(shù)據(jù)保護(hù)條例》這樣的標(biāo)志性立法中,更是賦予了個人以數(shù)據(jù)的更正權(quán)與被遺忘權(quán)。這些個人數(shù)據(jù)權(quán)利的擴(kuò)張將有利于解決自動化行政處罰中數(shù)據(jù)依賴所產(chǎn)生的如數(shù)據(jù)錯誤等問題,也將從另一個角度限制政府對個人數(shù)據(jù)的使用。

五、責(zé)任界定問題——責(zé)任主體與歸責(zé)原則的確定

責(zé)任界定一直是自動駕駛等自動化技術(shù)普及過程中受到廣泛關(guān)注的一個焦點(diǎn)問題,在自動化行政處罰中也不例外。在自動化行政處罰過程中,如果因?yàn)樽詣踊到y(tǒng)的原因產(chǎn)生處罰錯誤,責(zé)任界定就可能出現(xiàn)兩個有待解決的難題。

(一)外部技術(shù)主體的介入所產(chǎn)生的責(zé)任主體問題

自動化行政處罰中的自動化系統(tǒng)往往不是由行政機(jī)關(guān)自行研制和開發(fā),而是由外部技術(shù)主體提供。他們對自動化系統(tǒng)予以設(shè)計(jì)、安裝、運(yùn)作和維護(hù),對系統(tǒng)的了解往往比直接操作系統(tǒng)的行政機(jī)關(guān)工作人員更多。這就使得外部的企業(yè)與人員實(shí)質(zhì)性的介入了行政處罰的特定環(huán)節(jié)之中,比如聲吶電子系統(tǒng)的可靠性,就與技術(shù)提供方密不可分。這些技術(shù)主體將會通過自動化系統(tǒng)對行政程序產(chǎn)生一定的潛在影響,但卻又并非行政機(jī)關(guān)的一部分,一旦因?yàn)樽詣踊到y(tǒng)故障而導(dǎo)致了行政處罰錯誤,責(zé)任又該如何界定?

應(yīng)當(dāng)認(rèn)識到,行政主體作為一種法律擬制,解決的就是行政法律關(guān)系中公權(quán)力方的主體問題。因此不管行政行為的方式如何改變,無論行政行為的具體承擔(dān)者是個人、集體亦或是自動化系統(tǒng),從法律意義上,作為行政法律關(guān)系一方的始終是行政主體。因此在不斷變化的自動化行政方式中,行政主體仍然是責(zé)任界定不變的基點(diǎn)。

對于自動化行政處罰中的相對人來說,其無需關(guān)心到底哪些主體介入了行政程序之中,只需要針對行政行為法律意義上的主體尋求救濟(jì)即可。而對于行政機(jī)關(guān),一方面其有權(quán)力選擇是否適用自動化系統(tǒng)、選擇采用什么樣的系統(tǒng)、選擇如何進(jìn)行自動化行政以及對最后的處罰決定進(jìn)行把關(guān),因此行政機(jī)關(guān)仍然是自動化行政行為真正的最終控制者;而另一方面,即使有外部技術(shù)主體的合作,行政機(jī)關(guān)仍然有義務(wù)對自動化行政的各個環(huán)節(jié)進(jìn)行系統(tǒng)性的監(jiān)督,確保行政任務(wù)的恰當(dāng)完成。因此由行政機(jī)關(guān)承擔(dān)自動化行政處罰錯誤時的直接責(zé)任具有正當(dāng)性。

至于處罰錯誤的原因到底歸因于行政機(jī)關(guān)還是外部技術(shù)主體、行政機(jī)關(guān)如果承擔(dān)了責(zé)任是否可以向技術(shù)主體追責(zé)的問題,其實(shí)并不屬于行政處罰關(guān)系中需要解決的問題。這一問題涉及的是技術(shù)主體與行政主體之間的技術(shù)法律服務(wù),屬于一種行政協(xié)議關(guān)系。如果技術(shù)主體存在過錯,其按照行政協(xié)議中的具體約定承擔(dān)相應(yīng)責(zé)任即可。

(二)責(zé)任類型之辨與歸責(zé)原則的確定

大陸法系的行政賠償制度中,一般可以將行政賠償責(zé)任分為公務(wù)員違法侵權(quán)的“人的行為”責(zé)任和公共設(shè)施設(shè)置和管理有欠缺所產(chǎn)生的“物的瑕疵”責(zé)任兩大類型。兩者的構(gòu)成要件與救濟(jì)程序并不完全相同。自動化行政處罰主要還是處于部分自動化階段,尚不適用完全自動化,距離具有所謂獨(dú)立人格的強(qiáng)人工智能更是遙遠(yuǎn)。因此在現(xiàn)階段的行政處罰中,自動化系統(tǒng)出現(xiàn)錯誤所導(dǎo)致的責(zé)任形式還難以以“人的行為”作為類比,而更多地接近于“物的瑕疵”。

這對于自動化行政處罰賠償責(zé)任的歸責(zé)原則的確定有很大意義。由“人的行為”導(dǎo)致的賠償,其歸責(zé)原則為違法責(zé)任,需要行政過程中有行為違法性的存在,通常還要求存在故意或過失。而“物之瑕疵”導(dǎo)致的賠償則屬于無過失責(zé)任(也就是危險責(zé)任),其成立不需要過失或違法性。只要行政機(jī)關(guān)設(shè)置公共設(shè)施并提供給國民,就負(fù)有保護(hù)其安全性的義務(wù),對于該設(shè)施產(chǎn)生的一切危險負(fù)擔(dān)全部責(zé)任。自動化系統(tǒng)作為一種新技術(shù)的運(yùn)用,過程中難免存在一定的瑕疵,這是一種社會發(fā)展難以避免的風(fēng)險。即使行政機(jī)關(guān)守法謹(jǐn)慎,不存在違法與過錯,這種風(fēng)險很多時候也難以避免。如果適用違法責(zé)任,則意味著要讓相對人自行承擔(dān)社會一般性的技術(shù)風(fēng)險在他身上的特別體現(xiàn),這實(shí)際上就構(gòu)成了一種特別犧牲。因此從這個角度上看,自動化行政處罰的賠償責(zé)任中采用無過錯責(zé)任更為恰當(dāng)。

不過也應(yīng)當(dāng)注意到,自動化系統(tǒng)錯誤所導(dǎo)致的行政賠償責(zé)任與一般的物之責(zé)任還是存在明顯不同。比如按照我國現(xiàn)行法,公共設(shè)施致害的“物的瑕疵”責(zé)任不納入國家賠償?shù)姆秶前凑彰袷鲁绦蛱幚怼_@對于行政處罰錯誤的責(zé)任和救濟(jì)來說是明顯不合適的。隨著技術(shù)的不斷發(fā)展,這兩種責(zé)任之間的不同還將愈發(fā)明顯。因此從長遠(yuǎn)上看,將自動化系統(tǒng)錯誤導(dǎo)致的責(zé)任予以單獨(dú)類型化,確定專門的責(zé)任構(gòu)成要件,是一種更為可取的路徑。

結(jié)語

以人工智能為代表的新技術(shù)正在深刻的改變?nèi)藗兊纳睢N覀兊恼卜e極擁抱這種改變,通過自動化行政等方式改善治理模式,更好的實(shí)現(xiàn)行政任務(wù)。但這種改變所帶來的法律挑戰(zhàn)也是深遠(yuǎn)和全面的。行政處罰作為一種適用最為廣泛、制度相對最為完善的負(fù)擔(dān)行政行為,其制度上的回應(yīng)需求也最為迫切。在未來《行政處罰法》的修訂中,應(yīng)當(dāng)充分認(rèn)識到自動化行政方式所帶來的巨大挑戰(zhàn)與回應(yīng)需求,在制度上予以完善。還應(yīng)當(dāng)注意到,技術(shù)的發(fā)展仍然在不斷前進(jìn)中,甚至越來越快。因此應(yīng)該堅(jiān)持正當(dāng)程序等基本原則,為變化的社會帶來相對穩(wěn)定的保障;同時在具體制度上留有一定發(fā)展和創(chuàng)新的空間,構(gòu)建出具有一定發(fā)展彈性的自動化行政處罰制度體系。

責(zé)任編輯:馬毓晨
本站系非盈利性學(xué)術(shù)網(wǎng)站,所有文章均為學(xué)術(shù)研究用途,如有任何權(quán)利問題請與我們聯(lián)系。
^