摘 要:在信息文明時代,大數據等新型通用技術深刻推動了犯罪治理的變革,犯罪的技術治理模式興起。技術治理具有技術賦能與技術賦權的兩面性,技術賦能與技術賦權“一顯一隱”的非均衡發展致使算法歧視、隱私弱化、數字鴻溝等問題趨重,加劇了社會安全防衛與個人權利保護的價值沖突。在數據主義重塑社會結構的當下,對犯罪技術治理的正當性進行反思尤為迫切。對此,有必要引入數據正義的分析視角,邁向數據控制且超越數據控制,以有限擴張、關系均衡、法律控制、技術賦權等正當性要求錨定犯罪技術治理的價值導向。這要求我們以數據權利厘定數據監控的法律邊界,以算法治理打開預測性執法的技術黑箱,對權力外溢至平臺企業開展均衡治理,以數據開放打通公眾參與的數據接口。
關鍵詞:技術治理;數據監控;正當性;數據正義;數據權利
在信息文明時代,大數據、人工智能等新型通用技術深刻推動了犯罪治理變革,基于信息技術的治理創新層見疊出,人臉識別、算法決策、預測性執法、平臺治理、人工智能司法等技術的應用極大地提升了政法機關的社會能見度、風險感知度和反應靈敏度,“運用技術平臺監管社會成為現代社會的普遍做法”。犯罪治理呈現出整體性的技術轉向,犯罪的技術治理模式蔚然成型。但技術治理在取得令人矚目的成就的同時,“政府對個人信息巨細靡遺的收集,將引發民眾對‘隱私已死’的擔憂,有可能滑入‘全方位監控型社會’”。算法歧視、黑箱社會、隱私弱化、數字鴻溝等因數據使用而產生的不公平對待引發了廣泛的社會焦慮,加劇了社會安全防衛與個人權利保障之間的價值沖突。
一、隱匿于技術治理中的“看不見的非正義”
(一)技術治理的兩面性
大數據是國家治理的顯微鏡、透視鏡和望遠鏡,信息技術在與國家機器的高度適配過程中極大提升了犯罪治理能力,美國的PredPol、德國的Precobs、意大利的Keycrime、韓國的U-Governance、我國的“城市大腦”等智能防控系統在實踐中大放異彩,大規模數據監控、預測性執法、平臺治理等技術手段的應用給社會生活和犯罪治理帶來了深刻影響。對此,犯罪學亟需恰當的概念箱、充足的知識儲備和科學的分析框架,以便作出恰切回應,技術哲學和技術社會學中的“技術治理”范疇由此進入犯罪學視野。
技術治理源自二十世紀初興起的技術治理主義。技術治理主義強調科學技術在社會發展中的決定性作用,主張實施工具層面的漸進式的社會工程,以科學技術提升公共治理效率,因而成為國家治理的全球性現象。在模式上,可用“犯罪的技術治理”描摹犯罪治理的技術轉向。犯罪的技術治理,是指防控主體依托“云計算、多平臺、百系統”等架構,遵循“數據集成、風險預警、決策支持、指揮調度、共治服務”的平臺治理流程,集成運用幾十種甚至上百種具體的智能系統進行數據分析,以實現犯罪預警、預測、預防的整體性治理模式。技術治理有技術賦能與技術賦權兩個方面。信息技術不僅強化了社會控制,其還作為一種解放性力量,以賦權形式釋放出大數據社會福祉。
1. 基于數據監控的技術賦能
信息技術對犯罪治理的賦能主要通過數據監控體現出來,數據監控是各類智能防控系統的底層邏輯。在流程上,數據監控包括數據采集和整合環節,依托“代碼、算法、軟件、系統”的分析環節,指向精準干預的結果輸出環節。在成本上,在物信融合的基礎設施建成后,數據監控被轉化為廉價監控和自動監控,人財物投入遠少于傳統的“人盯人”監控,算法決策使監控自動化運行。在規模上,隨著數據化程度日益加深,數據監控成為根植于“數據宇宙”的泛在監控,只要有數據印記和網絡連接存在,更多的人和事就被會傳感器記錄下來,被源源不斷地輸送至智能系統中,實現自動挖掘、整合與甄別,從而形成全景敞視的監控架構。在權力運行上,人臉識別、算法決策等方法緊密融入社會生活,使人無從分辨,而監控方法越具侵略性,技術背后的數據權力運行就愈發不易被外界察覺,以至于技術治理成為一種“消失”的治理術。
隨著數據監控的全面鋪展,信息技術與犯罪治理組織體系產生了強烈的化學反應,圍繞數據權力形成了雙向互嵌、高度融合的治理態,催生出復雜精密的“數據巨機器”。“巨機器”源自技術哲學家劉易斯·芒福德的《技術與文明》一書。芒福德認為,現代技術造就出高度權力化的復雜大型機器———“巨機器”。在“巨機器”中,人無異于一顆顆螺絲釘,服從機械的鐵律。“數據巨機器”是對大數據時代技術治理所孕育的治理生態的形象描摹。“數據巨機器”由“云計算、多平臺、百系統”組合而成,通過數以億計的物聯網傳感器,將數據匯聚于由巨型服務器集群所支撐的中央信息源,借助各種復雜精妙的算法分析數據,為犯罪治理輸出各類結果。數據監控及“數據巨機器”提高了國家對社會的控制、整合及動員能力,優化了犯罪治理的體制和機制,強化了綜治組織體系的結構韌性,極大提升了犯罪治理能力,但在客觀上也導致治理權力趨于集中。
2. 回歸人本導向的技術賦權
技術作為工具本是中立的,但技術的使用必定受價值導向的影響。信息技術不僅強化了社會控制,更是一種解放性力量。信息技術在重塑社會的過程中,給技術使用者帶來了意想不到的發展機遇,有效改善了公共治理的方式,通過保障國民對犯罪治理的知情權、參與權和監督權來提供大數據社會福祉。可見,技術治理不僅有賦能面相,更能夠技術賦權。在域外,數據開放浪潮推動英美等國對社會公開犯罪地圖,民眾在線查詢各類犯罪地點等信息,以此促進警民互動,指導被害預防和社區防衛。在國內,在目前的八個“城市大腦”項目中,浙江嘉興的“社會治理云平臺”不僅支持技術賦能,還在“微嘉園”模塊以微信將125萬市民(全市常住人口470萬)納入線上網格化治理,使市民能夠通過各自所屬網格的微信群對社會治理所涉問題實現線索上報、意見分享、集體協商、調解及共治,由此,政府各部門在線上對接和解決問題的過程中形成了基于“用戶視角”的“線上政府”,形塑出了基于技術賦權的源頭治理、回應型治理和整體治理策略。
賦權既是一種主觀感知,強調個體對生活資源和發展擁有控制力,對特定事件擁有影響力,也是一種行動過程,強調個體或群體依靠信息開展社會實踐。技術賦權往往與信息的獲取、社會的認同和互信、公眾的參與等主題緊密聯系在一起。因此,犯罪的技術治理不同于技術統治,技術賦權呼喚技術治理回歸人本導向的治理本質。盡管技術賦能使治理權力隨著數據監控的使用而趨于集中,但技術賦權通過改變治理結構、助力公眾參與的方式,促使治理權力外溢至社會和個人。
3. 技術賦能與技術賦權的非均衡發展
在實踐中,技術賦能和技術賦權的兩面呈現出“一顯一隱”及“一強一弱”的非均衡性困境,技術賦能愈發彰顯,技術賦權尤甚薄弱。這種失衡的表現有很多,比如,監控技術的迭代演化對隱私和自由的威脅愈發嚴重,監控數據運行的透明度不高,算法和模型愈發復雜且難以被解釋和監督,政府、科技企業與個人之間的“數字鴻溝”日趨拉大,等等。技術賦能與技術賦權的失衡在相當程度上受犯罪治理極強的目標導向影響,無論是及時鎖定嫌疑人,還是精準研判犯罪風險,這種極強的指向性自然會引導防控實踐向技術賦能傾斜。技術賦能在催生全景式監控的同時,也引發了人們對信息技術福音走向反面的擔憂。技術治理與個人數據的使用密不可分,數據監控與每個人的關系深入且具體,以至于“人越來越適應監測環境,監控技術與人的身體逐步融合,并構建了人的生活世界”。技術治理以飛天遁地的科技力量追求秩序唯美主義,形塑出前所未有的“數據巨機器”,但個人的自由和權利有可能免于被反噬嗎?處于加速進化中的技術賦能效應極大擠壓了技術賦權的空間,數據主義的治理架構相對忽視了數據使用的正當性與合法性。伴隨著數據監控的全面擴張,這種非均衡發展引發了一系列因數據使用而產生的不公平對待問題。
(二)非均衡發展引發的不公平對待
技術治理雖蘊含著邁向數據控制的賦能過程,但我們對技術的理解不能止步于工具的運用,而是應關注技術對社會福祉和個人自由有無増進。因此,技術治理不等于絕對的數據控制和唯數據主義。但遺憾的是,大數據分析推動著刑事政策的制定者和執行者從被數據影響逐漸轉變為被數據決定。在數據主義的決定下,“重賦能輕賦權”的非均衡發展所導致的因數據使用而產生的不公平對待愈發凸顯。這種不公平對待源自數據控制者的不正當的數據使用行為,與數據使用的理念、方式直接相關。不公平對待不僅包括對特定群體或個體的歧視性執法和不正當的差別對待,還包括對全體國民在整體意義上的技術賦權不足。具體來說,不公平對待的表現如下:
第一,盲目追求全景式監控,忽視了大數據的有限性,易使犯罪治理陷入“技術烏托邦”誤區。盡管大數據分析具有重要作用,但大數據分析的結果是解釋性和預測性的,而非控制性和絕對性的。由于大數據分析僅能實現有限理性,在人工限定的具體任務中發揮作用,所以,大數據分析仍須與具體的刑事政策、決策者和執行者的經驗、特定的治理策略等相結合。“萬物皆可計量”“算法設計未來”等大數據崇拜之聲實際上過度拔高了大數據技術的作用,“技術烏托邦”誤區為數據權力的不當擴張提供了貌似合理的借口,故而應警惕數據控制者以技術之名過度侵蝕個人權利。
第二,從人和技術的關系上看,“讓渡決策”侵蝕了人的主體性,其暗藏的算法中心主義忽視了人的行為在犯罪治理中的作用。作為一根會思想的“葦草”,人的主體性是社會進化的內在動力。當下,基于智能機器的“讓渡決策”正在日趨增多,比如PredPol軟件對預測性執法的自動規劃、“上海刑事案件智能輔助辦案系統”的算法量刑等。“技術治理誘惑人類把判斷交給數據”,使讓渡決策依靠算法進行決策,但算法僅僅是對人類活動的數學模擬,基于算法的自動化決策也并非完全準確無誤。隨著“讓渡決策”的邊界面向人類的這一側不斷后移,算法中心主義日益凸顯,科技與人文協作的困境愈發趨重,對個人的技術賦權亦被算法中心主義所虛置。
第三,從決策依據上看,算法決策存在著算法歧視、算法誤差等技術風險。算法是智能系統進行計算、分析的規則,是機器學習的內在機制。由于算法具有高度的復雜性和不透明性,故而機器學習和深度神經網絡的運行往往是只見結果不見過程。“算法黑箱可能受隱藏的偏見影響,即因訓練數據的不足而得出違背設計者本意的結果;可能存在較大模糊性,即算法規則很難精確表述出來,而是嵌入在數千甚至數萬變動的因素中,很難證明某算法在任何情況下均正常工作。”某非營利組織發現,Northpointe公司所開發的犯罪風險評估軟件Compas在再犯風險評估中系統性地歧視黑人,而白人則更多地被錯誤評估為具有低犯罪風險。算法黑箱以技術掩蓋偏見和歧視,認為算法決策就等于公平公正,這是一個天大的誤解,由此,算法歧視又被稱為“最安靜的恐怖主義”。
第四,從公眾參與上看,數據控制者與個人之間的“數字鴻溝”催生出了新的社會鴻溝,限制了國民對技術治理的參與。技術平臺對社會具有長期固化效應,囿于數據權力的隱蔽性,表面看,互聯網與大數據擴大了平等與自由,事實上卻進一步強化了社會分層。目前,個人與大數據掌控者之間的力量懸殊愈發明顯,個人越來越無法掌握自己的命運,透明的個人與幽暗的數據掌控者之間的社會分層也就在所難免。大規模數據監控將億萬個體視為監控對象,“算法黑箱”架空了個人對技術治理的知情權,“說服計算”動搖了“行為系自由意志的產物”的世界觀。“數字鴻溝”在事實上將個人對數據監控的知情、參與、監督的權利排除到了犯罪治理體系之外。
第五,從權利保障上看,全景敞視的數據監控給自由和隱私帶來了重大威脅。數據監控依賴于對個人信息的整合利用,客觀上增加了個體的透明度,使個人越來越易被識別,導致無匿名、高清晰的個體超級檔案逐漸生成。技術治理以社會安全防衛之名急劇放大了隱私弱化的法律風險,政府對個人數據的訪問權與個人隱私權存在現實抵牾。面對“數據巨機器”的崛起,對于個人怎樣保有必要自由的問題,亟待深思。
二、不公平對待引致價值沖突加劇
犯罪治理活動一般兼具復合目標,追求自由、公正、安全、秩序、權利、效率等多元價值,但特定背景、場景、內容下的防控策略在實現主要治理目標的同時,往往與其他價值在一定程度上存在抵牾之處。例如,人臉識別技術在高效監測高危人員的同時,也在一定程度上對國民的自由和隱私構成威脅。隨著算法偏見、自動化決策、數字鴻溝等不公平對待的趨重,人臉識別等技術的社會風險、法律風險、倫理風險被驟然放大,極大加劇了社會安全防衛與個人權利保護的總體價值沖突,進一步激化了技術治理的正當性危機。
(一)價值沖突加劇的表現
1. 安全至上、秩序為重與隱私保護、自由保障的價值沖突
大規模數據監控強化了政府對個人的控制,凸顯了安全至上和秩序為重的理念。監控的指數級增長和全方位覆蓋不可避免地對個人隱私、自由構成威脅。以人臉識別技術為例,東南某省會城市較早在地鐵安檢口安裝了人臉識別攝像頭,與“全國在逃人員信息系統”進行實時比對,可迅速識別在逃人員出入地鐵的線索。在此后八個月內,公安機關憑借該技術抓獲在逃人員500余人。如今,在重點空間使用人臉識別已成為高密度城市安全防衛的慣常策略。但值得深思的是,人臉識別技術的敏感性在于其融合了信息和生物技術,有關部門在獲得人臉信息的超級訪問權后,雖然監控能見度得到大幅提升,但使個人變得愈發透明,導致隱私邊界不斷潰縮。為此,反思人臉識別技術、加強隱私保護的社會思潮風起云涌。2019年,美國舊金山市、薩默維爾市相繼出臺了禁止政府部門使用人臉識別技術的禁令,反對使用人臉識別技術的理由包括該技術過度侵犯個人隱私,人臉識別存在誤差,助推歧視性執法并加劇種族不平等,等等。2020年初,歐盟關于在公共場所禁用人臉識別技術的政策也在醞釀之中。
上述反對理由確有一定道理,但斷然拒絕人臉識別技術似不可取,因為該技術在政務服務、商業活動中已獲得廣泛應用,在犯罪治理中收獲了奇效,我們根本無力抗拒“刷臉時代”的到來。任何一項技術在防衛社會的同時都會影響到個人自由和隱私保護,只不過信息技術因具有廣泛的社會覆蓋面、強大的數據處理能力、超強的迭代更新速度、開放的社會整合機制,從而使這種沖突驟然加劇,以至于人們一時間無所適從,難以取舍。而且,即便要對人臉識別進行限制,也應以規制個人信息使用的數據法為依據。鑒于信息時代普遍存在“制度滯差”,在數據法尚不完備的情況下,人臉識別的正當性危機可能會愈發嚴重。
2. 效率優先與權利保護的價值沖突
基于“數據+算力+算法”的合力驅動,技術治理取得了前所未有的高效率和大成就,并使全國公安機關刑事案件立案數迎來了大幅持續下降的“歷史性拐點”。這種高效率不僅有賴于警力的高強度投入,還得益于由算法決策所驅動的自動監控的全面推行。某地政法委運用AI深度分析各類巨型數據庫及實時信息,通過總結嚴重暴力犯罪行為人的罪前特征及危險人格特征(如是否失業,有無纏訪鬧訪越級訪及精神疾病經歷,有無家暴行為等)設計威脅評分模型,通過預測性執法,在茫茫人海中識別和干預高危人員。
客觀地說,預測性執法具有一定的合理性和可操作性,但這種過于主動、前置的執法方式易導致數據監控的系統性濫用和體制性防衛過當,使個人權利時刻處于“數字利維坦”的威脅之下。“用算法識別對社會安全具有潛在威脅的個體,這種基于群體層面長期可疑行為的預測,將不可避免地以回答‘是或否’的問題來實現;但對個體而言則直接關涉自由和權利,被遠程監控的人不知道自己被數據分類的基礎。”預測性執法一旦被濫用,將會對社會產生巨大的寒蟬效應。技術治理在追求高效率的同時,離不開制度化約束對個人權利的保護。權利保護理念要求算法決策必須保持透明度,在法律上明確威脅評分規則的具體內容、被監控對象的傾向性、監控的正當程序等。如果制度化約束缺位,那么,效率與權利的抵牾將日益趨重。
3. 概率公正與個案公正的價值沖突
算法決策被應用于技術治理的底層邏輯是概率分析。以威脅評分為例,算法決策在全面采集數據的基礎上,對個體進行人群分類及用戶畫像,其基于訓練數據設計評估模型,計算個體實施違法行為的概率。在計算哪類人群的威脅評分更高以及是否可被列入“大數據黑名單”時,算法決策在概率上確實具有無可比擬的準確性,但當具體到特定個體時,則可能存在算法歧視、計算誤差、識別錯誤等問題。例如,Compas、PSA、LSI-R等軟件在美國被應用于輔助法官量刑和評估罪犯再犯風險等領域,它們在預估某一群體的累犯風險時相對可靠,但囿于對有色人種存在較為嚴重的算法歧視、算法量刑與量刑個別化原則相抵牾等緣由,這些軟件針對特定個體所作出的累犯風險預測、量刑結果計算等可能失準,尤其是在預測暴力犯罪時準確率不佳。可見,算法決策雖能實現概率層面的公正,但未必能夠直達個案個體的公正。
概率公正源自算法中心主義,是技術方法和組織體系互嵌而生成的“數據巨機器”的輸出結果。概率公正不等于社會整體公正,社會整體公正源自個體所獲得的個案公正。算法中心主義以讓渡決策和自動控制的形式造成了事實上的數字鴻溝,其所引發的歧視性執法導致算法社會中的人與人之間新的不平等。於興中認為:“算法社會一定是科技精英社會,我們可能正在期望一個比現有社會更不平等的社會,這種不平等是從起點到結果的全方位的不平等。”這種數據導向、算法中心、技術驅動的治理策略無可避免地輸出概率公正,以概率公正置換個案公正。如果枉顧這兩種公正觀念之間的沖突,將可能動搖整個刑事司法大廈的根基。
(二)價值沖突的本質
從哲學上看,社會安全防衛與個人權利保護的總體價值沖突之所以在信息社會驟然加劇,可被歸因于數據主義的崛起及其對人文主義的沖擊。信息技術的泛在應用催生出數據主義的哲學新主張。“數據主義認為,宇宙由數據流組成,任何現象或實體的價值在于對數據處理的貢獻。數據主義要求連接越來越多的媒介,產生和使用越來越多的信息,讓數據流最大化;要求把一切連接到系統,連那些不想連入的異端也不例外。數據主義一開始也是中立的科學理論,但正逐漸成為要判別是非的宗教。”數據主義推崇視一切為數據、以數據為中心的世界觀,遵循計算機邏輯和算法中心主義,依賴產生于數據的洞見,希望通過數據技術來解決犯罪問題。受數據主義影響,犯罪治理被簡單化約為數據監控與預測性執法的組合,被置換為信息技術的應用。數據主義表達了一種信息技術比其他治理手段更具優越性的意識形態,它過于迷信技術而忽視了人的主體性,給人文主義帶來了嚴峻挑戰。
“以人為中心的人文主義是人類近代以來確立的基本文明價值觀,正是以人為中心的人文精神使人道、自由、民主、平等、法治等成為社會主流價值。”人文主義重視人的生存和發展,維護人的尊嚴、價值和自主性,以社會正義準則制約技術的社會功能,以人的權利實現為中心,標定犯罪治理的價值導向。數據主義沖擊人文主義的表現有四:其一,“數據洞察一切”“算法設計未來”等數據主義主張的前提在于,人類世界可被數據完全鏡像,這種不現實的想法不僅極具迷惑性,而且隱含著一種認為個人可被視為“數字人”或“微粒人”的意識。其二,數據主義以數據和算法為中心,忽視了人的自主性,忽視了人的價值觀和經驗對犯罪治理的重大影響。其三,數據主義倡導的大規模數據監控固化了個體作為被監控對象的原子化形態,對人的權利和自由構成巨大威脅。其四,數據主義助推家長主義治理思維的持續蔓延。“家長主義的核心特征是為保護行為人的利益而限制行為人的自由。”但問題在于,家長主義在犯罪治理中不能過限,不能動輒以防衛社會為由,恣意限制個人自由,不能犧牲過多的個人權利以換取社會整體利益。數據主義與家長主義的“完美”融合將導致全景敞視的絕對社會控制。因此,以數據為中心的數據主義是一種技術神話,嚴重偏離了以人為本的價值觀。正如尤瓦爾·赫拉利所說,數據技術的全面擴張可能導致人文主義的崩塌,數據主義將取代人文主義成為一種新的世界觀或宗教,故而應警惕與批判數據主義。
實際上,技術與人文精神無法被截然分割,信息技術由人發明并為人服務,所以,數據的使用不能違背社會正義準則,技術治理必須從工具理性回歸價值理性。技術治理對秩序、安全、效率、概率的追求受數據主義世界觀的影響頗深。對技術治理擴張的警惕和限制,對數據使用正義觀念的求索,是人文主義世界觀的體現。以數據為中心的數據主義與以人為中心的人文主義在價值懸設上的抵牾,與科學主義與人文主義的沖突一脈相承。數據主義是科學主義在大數據時代的新形態,人文主義則要求,一般性的社會正義觀念應向數據正義轉型發展。
總之,面對總體價值沖突的加劇及其背后的世界觀分立,必須引入一種評價數據或技術使用正當與否的理論分析框架,以標定技術治理的價值導向,回應技術治理的正當性危機。
三、數據正義的分析視角
關于數據使用的正義觀念、正義準則,可用“數據正義”(data justice)這一范疇來表述。近年來,數據使用與社會正義這兩個主題的交叉地帶頗受熱議,歐洲興起的數據正義理論為技術治理的正當性思考提供了分析視角,可將技術治理置于數據正義的正當性分析框架下進行價值權衡。那么,數據正義理論究竟是一種什么樣的分析框架?這有賴于對數據正義的思想淵源與核心觀點的深入把握。
(一)數據正義的思想淵源
正義理念對犯罪的技術治理至關重要。人們為防范數據使用中的不公平對待,必須考慮“數據”和“正義”這兩個主題的交叉地帶———“數據正義”,而不能局限于數據在單一領域的應用,應立足于“社會和政治正義準則”的高度,探索數據正義的理論框架。作為衡量社會發展的理念,正義觀念和正義理論隨時代變遷而不斷發展。在大數據浪潮下,促進發展的數據正義成為亟待被研討的理論焦點,因為在大數據社會,沒有數據便不能作出決策,不能采取行動,沒有數據正義就無法實現社會的公正發展。目前,理論界對數據正義的探討尚處于初級階段,但亦有一些研究不乏真知灼見。荷蘭阿姆斯特丹大學的“瑪麗·居里”博士后Taylor從法治視角對數據正義作出了闡述,提出了數據正義的三個核心觀點———數據使用的“可見性、事先約定、防范不公平對待”。這一研究初步揭示了數據正義的理論內涵,觸及到了數據正義的實現方式,與著名經濟學家阿馬蒂亞·森對正義理論的發展存在著頗多契合之處。
數據正義并非是先驗固定的,而是從一般性社會正義觀念中延伸和發展出來的。在正義理論的知識譜系中,阿馬蒂亞·森是繼羅爾斯之后的標志性學者。羅爾斯提出了“作為公平的正義”,探究理想狀態的正義模型;而阿馬蒂亞·森則基于開放性、比較性的思路,關注社會現實中的不公平對待,將自由作為發展的目標和促進發展的重要手段。相對于羅爾斯,阿馬蒂亞·森更關注正義在現實社會條件下如何實現,他著眼于以現實的方法推動正義理論的研究范式從先驗制度主義向現實主義轉換。在他看來,思考正義問題的方式必須契合社會實踐的最緊迫需要,這意味著,應摒棄以羅爾斯的理論為代表的那種旨在建構某種“完美正義”理想的“先驗制度主義”理論進路,轉向一種以識別和剪除現實世界中的各種“明顯不正義”為目標的理論進路。阿馬蒂亞·森強調,“正義論的起點不是‘什么是完美的正義社會’,而是‘什么是不正義社會’;正義論的終點不是實現理想中的正義社會,而是使具體、現實中的社會不斷趨向正義”。
阿馬蒂亞·森的正義理論構成了數據正義理論的思想淵源。其一,阿馬蒂亞·森關注現實社會中具體的不公正現象,以反對非正義為標簽。這種現實主義的分析思路為關于數據正義的理論思考所承襲,數據正義正是萌發于對數據使用中諸種不公平對待的反思。其二,阿馬蒂亞·森認為,由于存在著多個不同的正義緣由,因此應以比較的方法對各種正義緣由進行判斷、權衡、排序及選擇。當然,數據正義理論并非徹底倒向了社會安全或個人自由等一元正義緣由,而是承認各種正義緣由均有其正當性,應以正當性標準作為理論探討的基點。其三,阿馬蒂亞·森強調,自由在諸種正義緣由中具有優先地位,“自由絕對不能被降格為其他事物的補充,自由在個人生活中占有非常特殊的地位”。他以自由來看待發展和公正,認為個人自由是社會發展的目標,保障自由是促進公正的方式。數據正義理論繼承了阿馬蒂亞·森關于自由和發展、公正關系的闡述,重視個人權利及個人有資格從事某種活動的能力,以保障自由和權利的方式推動社會治理走向良政善治。如果說之前處于上半場的互聯網變革是在倡導創新和效率,那么,進入下半場的互聯網革命則更注重公平和權利。可以說,數據正義理論承襲了阿馬蒂亞·森所提出的促進正義的視角、方法和分析框架,它根植于信息社會的時代背景和現實需求,發展了現實主義的正義觀。
(二)數據正義的核心觀點
數據正義是一種關于如何使用數據才能實現個人自由和増進社會福祉的價值觀。Taylor所提出的關于數據使用的“可見性、事先約定、防范不公平對待”這三個核心觀點構成了理解數據正義的理論基礎。
1. 數據使用的可見性
“數據使用的可見性”有兩層涵義:一是政府、企業對個人數據的采集、使用及相應的監管流程對公眾是可見的,以此防范數據使用中的不平等。也就是說,數據監控的方式、內容、流程等均應對社會公開。二是政府、企業在使用個人數據時應注重保護隱私,使隱私信息處于對第三方“不可見”的狀態,以防范因數據濫用而導致個人隱私被侵犯。數據使用的可見性包括對社會公眾可見和對第三方不可見的雙重實體要求,指向國家在大規模數據監控中的道義和責任,旨在通過為數據控制者設定義務的方式,明確消除不公平對待的法律依據,以此圈定個人在技術治理中所享有的自由邊界。
所謂“對社會公眾可見”,是指政府和企業的數據使用范圍、方式、目的、機制、流程等應對社會公開,保障民眾對數據監控的知情權、參與權、監督權,這涉及監控權力運行的透明度和社會信任問題。具體來說,技術治理中的可見性意味著數據監控所涉的具體數據項有哪些,實施特定監控的治理主體是誰,使用何種手段或技術,擬為達到何種目的而監控,監控對象的傾向性如何,預測性執法所依托的算法的可解釋性如何,“威脅評分”或“大數據黑名單”的內在規則是什么,監控的成本由誰負擔及收益由誰享有等事項應被法律明確,從而實現對社會公開的目標。
所謂“對第三方不可見”,是指盡管個人數據以維護公共安全之名被“國家之眼”所凝視,但對治理主體以外的第三方應絕對保密,應防范個人信息被濫用,應確立泄露及不當使用數據行為的法律責任及問責機制,促進對個人自由的保障。“監控就是監控,不管是通過人還是通過計算機,多少都要侵犯個人的隱私和自由。數據庫一旦建立就應該嚴格保護,否則很容易被濫用。”對第三方不可見強調治理主體的數據保管義務和數據安全責任,是判斷數據使用有無不公平對待的重要標準。隨著平臺企業作為參與主體在一定程度上獲得了對違規違法行為的治理權力,監控職能開始從政府向企業延伸,政府和企業在信息收集、監控、調查、隱私保護等活動中的界線開始出現一定的交叉甚至模糊之處。由于參與治理的主體范圍不可避免地擴大,對政府的數據安全義務要求同樣適用于平臺企業,所以,數據使用的可見與不可見要求也是平臺企業履行平臺責任的重要內容之一。
2. 技術使用的事先約定
“技術使用的事先約定”(以下簡稱事先約定)是指,政府及企業對大數據技術的應用內容必須與相關群體、潛在用戶進行事先約定。技術既是治理的工具,也是治理的對象。“事先約定”以技術為治理對象,要求技術的使用以社會公眾看得見的方式實現。它類似于安裝APP之前的用戶同意程序,事先約定好技術的使用將對個體或群體產生怎樣的影響,告知將采集哪些個人數據及如何使用數據,告知用戶對被采集的個人數據享有哪些權利及怎樣共享數據的利益等事項。“事先約定”是賦予個人對數據使用的同意權及知情權的關鍵程序,也是歐盟《一般數據保護條例》(GDPR)中的重要原則。該原則體現了阿馬蒂亞·森“以自由看待權利”的理念,要求將技術選擇的自主權賦予個人,提高了個人對自身數據的掌控能力,強化了對隱私權的保護。在“Google隱私案”中,歐盟法院對“個人數據”的概念和“數據訪問權利”作出了法律闡述,也確認了“事先約定”的原則。正義的實質在于詢問人們需要什么,而不是人們主張什么權利,“事先約定”為個體享有信息自決的選擇自由提供了程序性保障。
“事先約定”以往多見于民商事活動,其在犯罪治理領域能否被一體適用?實際上,犯罪治理中的數據使用仍需遵循事先約定,只是有別于民商事活動中場景化的用戶同意。犯罪治理中的事先約定和用戶同意需通過制度層面、整體意義的法律授權來實現,通過《網絡安全法》和即將出臺的《個人信息保護法》《數據安全法》等法律法規將個人同意的權利和約定的事項以立法形式讓渡給有關部門,賦予其進行數據采集、使用、保管等方面的法定職責。“制度因素在尋求公正方面具有重要作用。經恰當選擇的制度,將與個體及社會行為的決定因素一道,對推動公正具有重大意義。”作為正義的實現方式,事先約定以法律的精確性彌合了權利和道德主張的模糊性,為減少不公平對待和實現個人自由提供了法治保障。
3. 反對不公平對待
阿馬蒂亞·森認為:“著眼于現實的視角更容易使人明白,消除赤裸裸的不公正比尋找完美的公正更重要。”到目前為止,數字革命依然停留在技術層面,因數據使用而產生的不公平對待伴隨著技術的進步與日俱增,對不公平的認識和應對停滯不前,數據監控和社會公正的關系亟待被探討。有學者對不公平對待的國外現狀進行了系統觀察,進而指出:數據監視中最大的負擔一直由窮人承擔,所以政府應確保不濫用國家福利基金和其他公共基金;數據執法通常不平等地關注貧民區,因為這里集中了特定類型的犯罪;監控者對高收入人群和非法移民采用了更具侵略性的跟蹤手段。在算法社會,一個貌似好用的系統往往已便利到只見結果而不見過程的程度。隨著算法決策的泛在應用,算法偏見及歧視性執法等不公平對待將愈演愈烈,一旦算法決策等技術應用成為個人生活中根深蒂固的一部分,成為被設定好的前置條件,人們就很難再認清它的本來面目,更難以對其作出實質性的批評。
技術治理所面臨的最大的“灰犀牛”莫過于數據使用的不公平對待,這種不公平對待將威脅個人自由。必須反對不公平對待,反對因種族、身份、遺傳、健康狀況、經濟地位、職業等原因而產生的歧視性執法,警惕公權力以算法之名侵蝕個人權利,防范個體因陷入“數字鴻溝”而無法參與治理。算法不能替代律法,技術治理不能唯數據主義,反對不公平對待已成為數據正義對技術治理的底線性要求。
綜上,“可見性、事先約定、反對不公平對待”這三個核心觀點是對初創中的數據正義觀念與理論的凝練,并搭建出了數據正義的分析框架。伴隨著人文主義的復興,信息社會的正義觀念處于快速發展狀態,數據正義的理論內涵將不斷得到豐富,數據正義的分析框架亦將愈發具有理論說服力。
四、數據正義的正當性要求
基于數據正義的價值權衡是一種探尋數據使用的正義緣由的過程,Taylor提出的上述三個核心觀點為數據使用的正當性提供了理論依據。“可見性”關注數據開放和隱私保護問題,對治理主體提出可見與不可見的實體性要求;“事先約定”強調技術選擇的自主權,以立法授權作為技術治理的事先約定途徑,從權力制衡角度對治理主體提出程序性規制;“反對不公平對待”根據實體和程序要求對數據使用的不公平現象進行反思。由此,以數據正義錨定技術治理的價值導向,可獲得如下價值判斷:
其一,數據正義反對一元的價值模式和絕對的數據控制,強調技術治理不能以維護安全為名肆意擴張,技術治理的發展是一種邁向數據控制且超越數據控制、技術賦能與技術賦權兼顧的有限擴張。
其二,數據正義注重對數據權力的制衡,關注技術治理的社會參與,通過促進個人數據權利與政府企業數據權力均衡運行的方式,實現“政府、企業、個人”三元主體關系的結構優化。
其三,數據正義對技術治理的實體性要求與程序性規制離不開數據法的制度建構,故應以數據正義為數據法的立法理念,為數據監控的運行劃定法治邊界,以法律來控制技術治理的有限擴張。
其四,數據正義呼喚技術治理回歸人本導向和權利本位,以技術賦權超越數據控制,基于被害預防立場提升公眾參與的廣度與深度,推動技術治理從封閉式管理走向開放式治理。
上述價值判斷蘊含著數據正義對犯罪技術治理的正當性要求,可將之分別凝練為犯罪技術治理的有限擴張、關系均衡、法律控制、技術賦權。這四個要求分別指向犯罪技術治理價值導向的不同棱面,共同構成評價數據使用行為正當與否的標準。之所以說是共同構成,是因為這四個要求是整體性、綜合性的正當性要求,對任一要求的違反都將在很大程度上對犯罪技術治理的正當性構成損害。在此,本文結合“冒煙指數”、平臺治理等應用實踐,闡述四個正當性要求的理論內涵。
(一)超越數據控制的有限擴張
“有限擴張”要求警惕基于家長主義的過度監控和對數據控制的過度依賴,防范陷入“技術烏托邦”誤區。技術治理在范圍和方式上有其作用邊界,盡管其適合于具體情境中和特定條件下的微觀戰術執行,但不擅長宏觀的犯罪治理戰略設計;其精于數據分析,但無法替代人與人面對面打交道時的那些工作。僅憑大數據和AI,無法建構高度透明、完美可控的社會秩序,因為數據控制僅是犯罪治理的一個基礎環節。面對“智慧治理”熱潮,必須正視數據控制的有限性,不能陷入體制性防衛過當的誤區,不能試圖通過某種關于智慧建設的社會工程來實現犯罪預防的“畢其功于一役”。畢竟,犯罪的減少主要依賴于社會發展和城市更新、教育進步、充分就業等諸多因素的共同作用,有限擴張亦是對犯罪治理規律的一種適應。
技術治理的有限擴張要求治理主體有義務證明數據監控是為實現特定的正當目的而不得不采取的必要行動,本文以“冒煙指數”為例,闡述有限擴張的正當性根據。
其一,技術治理的有限擴張應具備合理的正當目的、充分的必要性和有效性。近年來,以網絡非法集資為代表的涉眾型經濟犯罪的發案數量居高不下,不僅給廣大投資人造成重大經濟損失,還嚴重威脅到金融監管秩序和社會穩定。傳統金融監管對這類犯罪應對乏力,已是不爭的事實。引入“冒煙指數”軟件以預警非法金融活動,契合大數據時代犯罪治理的新趨勢,體現了預防優先的理念,且已取得了較好的監管效果。該方案被北京市金融工作局等150多個監管部門使用,對上百萬家金融機構進行風險摸排,成功預警了6000多家從事非法金融活動的公司。這一治理創新不僅具有明確且具體的正當目的,還具有較強的科學性、經濟性、針對性和可操作性,故而構成了一種必要且有效的治理擴張策略。
其二,從數據使用的外部關系看,有限擴張要求在整個犯罪治理流程中對數據監控的應用具有明確限定,應將監控限定于線索識別等適合數據分析發揮作用的領域。“冒煙指數”專注于違法線索識別,致力于金融企業風險評估這一微觀任務,僅系犯罪治理流程上的初始環節。根據數據分析結果,后續還將開展其他的治理策略。這種創新并不屬于過度的數據監控,包含這種創新的整體犯罪治理策略必將超越單純的數據控制。
其三,從數據使用的內在要求看,有限擴張要求數據使用行為必須符合可見性和事先約定原則。“冒煙指數”軟件在方案中向社會公開其所需要的數據項及技術路線,相關數據由監管部門合法掌握或依法獲取,故符合數據使用的可見性。鑒于信息社會嚴重的“制度滯差”,金融監管部門和公安機關對技術使用的事先約定或對此類科技監管的法律程序性要求(如授權、告知、征求意見、聽證、評估、監督等流程)亟待在《個人信息保護法》等法律法規中被明確。但值得注意的是,《網絡安全法》第54條規定了針對網絡安全事件的數據收集和監測、風險評估、風險預警等內容,第55條規定了網絡運營者應采取技術措施消除安全隱患等內容,這些規定已初步體現了針對網絡安全事件進行數據監控時的可見性和事先約定原則。
(二)基于結構視角的關系均衡
數據正義要求實現國家權力與社會權力、數據控制者的數據權力與個人數據權利的關系均衡,這種關系均衡是技術治理的體系結構實現優化的底層邏輯。
傳統的犯罪治理模式依靠黨和政府的組織化調控,自上而下地開展,這種治理結構的組織度高,整體性強,一元化特征顯著,但社會參與較為有限。如何引入社會力量參與治理,是一個長期困擾犯罪治理結構優化的頑疾。隨著信息技術對社會結構的重塑,治理權力逐漸從政府外溢至企業和個人,“政府、企業、個人”三元主體的合作與制衡獲得改善契機。信息社會在組織特征上表現為在線平臺社會,基于在線平臺的犯罪治理策略顯示出了極強的發展潛力,比如,各類涉網犯罪的不法分子一般具有平臺用戶的數字身份且依附于特定平臺而活動,故根據相關平臺責任要求,平臺企業對平臺用戶所實施的詐騙、賭博、洗錢、侵犯知識產權等違規違法行為往往具有日常管控、先行處置及線索移送等治理權力。這種平臺治理具有引入市場機制、依靠平臺企業、挖掘平臺潛力、依循互聯網思維等特征,催生出一種政府監管平臺企業、平臺控制者管理用戶的雙層治理結構。科技企業憑借技術、平臺、數據等方面的優勢,在技術治理中的作用愈發彰顯,獲得了更多的準公共權力。
相對于政府和平臺企業的深度合作,分散的個人被在線平臺吸納為用戶,個人借助平臺發聲,用戶與政府部門的在線交互形塑出了全新的線上回應型治理策略。例如,在“昆山反殺案”等熱點案件中,公眾在社交平臺上發表意見并引發社會大討論,而政法機關則及時反饋、引導和回應民意,這有助于實現熱點案件的正面社會效果。正如在線平臺使企業獲得參與技術治理的數據權力,普通個體也能從平臺治理中獲得更多的參與權利。浙江嘉興的“社會治理云平臺”就是以平臺對個體賦權的典范,該平臺的“微嘉園”模塊探索出一條依靠和發動群眾的線上網格化治理的新模式。“社會治理云平臺”通過微信群將每個網格范圍內的居民聯系在一起,是典型的綜治平臺而非社交商業平臺。平臺治理不單實現了平臺企業的參與,還促進了普通個體對犯罪治理的共治共建。平臺治理成為推動三元主體關系走向均衡的關鍵策略。
(三)源自社會共識的法律控制
大數據雖然能夠搭建愈發嚴密的全景式監控,但無力回答“人類需要什么樣的智能社會”及“如何制衡數據權力”等問題。數據正義理念致力于探求關于數據監控的社會共識的最大公約數,呼喚將其貫徹至《個人信息保護法》等法律當中。這要求將“冒煙指數”等基于算法自動化決策的預測性執法置于法治軌道。
一方面,立法授權即為事先約定,這是凝聚社會共識、實現權利讓渡的程序性要求。個體在相當程度上被數據分析和智能機器所支配,但自由不能靠智能機器來賜予。只有在法律授權和事先約定下被監控、被編碼、被計算、被秩序化,個人自由才能獲得保障,才能防范數據控制者的超級權限與絕對控制。“冒煙指數”等自動化決策應用牽涉上百萬家金融企業及相關人員,故應在《政府信息公開條例》及未來的數據法立法中明確監管部門使用各類數據的程序性要求,賦予監控和自動化決策所涉及的個體或企業獲得人為干預、復核的權利與對自動化決策決定提出質疑、申辯的權利。算法的自動化決策和識別必須被輔之以人工復核程序,以保障算法決策的公平性,而當算法決策不當,給社會及個人造成現實危害時,金融監管部門應承擔不利的法律后果。目前,我國尚未制定《算法問責法》,但這并非意味著不能對算法決策結果進行必要的評估和問責,算法的使用者或數據控制者有義務減少算法決策可能造成的現實危害。
另一方面,數據監控和算法決策的實體性要求應對社會公眾可見,即數據監控的實施部門、范圍、對象、方式、期限、地點等事項應向社會公示,尤其應將數據監控的技術路線和實施機制予以公開,聽取公眾意見,接受人大監督。由于牽涉商業秘密、市場競爭等原因,“冒煙指數”的研發公司及金融監管部門不可能對社會完全公開其技術方案中的每一個變量和算法的全部細節,但公布自動化決策的詳細規則、應用指引、軟件所涉數據類型及技術路線則是保障數據使用可見性的應有之義,旨在以可見性減少技術治理所遭遇的社會抗拒。
(四)回歸價值理性的技術賦權
正義意味著承認和尊重權利,數據正義呼喚信息技術的賦能與賦權的有機統一。技術賦能指向社會安全防衛,技術賦權則關涉保障個人自由免受數據監控的威脅。在信息社會,“社會的主體結構從分層轉向結網,集中在政府的權力開始分散,權力的最終流向是社會、是大眾,是一個個獨立的公民個體”。網絡賦予了個人前所未有的知情、表達、參與、監督公共事務的途徑,技術賦權則意味著個人以擁有數據權利的方式分享大數據社會福祉。數據權利相對于政府企業的數據權力而言,既是個人對自身數據所享有的利益,也是數據正義在個體層面的實現方式。
“冒煙指數”在技術賦權上的最佳應用莫過于向社會提供查詢金融企業信用風險評分的數據接口,以指導廣大投資人趨利避害,防范風險。這一正當性要求并非針對以商業利益為導向的金融大數據公司,而是對公共服務導向的金融監管部門提出的。對于金融監管部門來說,防范個人投資風險不僅是其本職工作,更是為維護社會穩定大局而必須承擔的使命。近年來,頻繁爆雷的P2P平臺的被害人人數動輒上萬,有的案件的被害人人數甚至多達上百萬。從源頭治理的視角來看,為投資人提供金融企業信用風險評分可謂最好的投資依據與最優的被害預防策略。當然,金融監管部門為社會提供信息的方式(有償抑或無償)、提供信息的具體內容和形式尚待被進一步思考,但將大數據分析所獲取的有用信息分享給社會公眾,是技術治理回歸權利本位、人本導向與政府為社會提供大數據社會福祉的必然選擇。
五、犯罪技術治理趨向數據正義的實現路徑
有限擴張、關系均衡、法律控制、技術賦權的正當性要求為犯罪技術治理的轉型發展提出了“超越數據控制”的新方向。重視技術賦能、邁向數據控制處于犯罪技術治理的1.0階段,走向賦能與賦權均衡發展、超越數據控制則系犯罪技術治理的2.0階段的主要標志。因此,犯罪技術治理的價值訴求絕非簡單倒向安全與自由二者中的某一邊,而是在犯罪技術治理從1.0到2.0的迭代發展中以賦能與賦權的均衡發展促進數據正義。具體來說,趨向數據正義的實現路徑包括四方面內容:
(一)以數據權利厘定數據監控的法律邊界
數據正義要求犯罪技術治理堅持人本導向和回歸權利本位,以技術賦權超越數據控制,根據數據權利為數據控制者標定義務,以數據權利與數據控制者義務共同厘定數據監控的邊界。“個人數據權利是保護自然人對其個人數據被他人收集、存儲、轉讓和使用過程中自主決定的利益。”作為監控的法律制衡因素,數據權利不是單純的私法問題,而是還具有濃郁的公法屬性,其指向數據主體因自身數據被數據控制者在社會治理中采集和使用而應享有的權益。面對個人數據匯聚于“數據巨機器”的社會景觀,數據權利面臨著數據監控的嚴重威脅。在法律上界定與明晰個人對自身數據的所有權、知情權、同意權、訪問權、更正權、可攜帶權、被遺忘權及隱私權等權利,構成了制衡數據監控的法治選項。
有別于民法從人格權、財產權角度對數據權利展開的研討,犯罪學更關注數據監控與數據權利之間的關系,以數據權利厘定數據監控的法律邊界。但遺憾的是,數據權利保護在我國尚缺乏系統的法律依據,《民法典》等法律的規定尚不足以完全承擔起系統規范數據使用行為的重擔。數據監控在實踐中往往先于規制數據使用的法律而存在,監控的決策和實施時常處于秘而不宣、只做不說的不透明狀態。在《個人信息保護法》和《數據安全法》尚未出臺的背景下,鑒于權利保護與義務履行的相互依存關系,數據權利的實現離不開數據控制者的義務的履行,故若以數據控制者義務的履行來探究數據權利保障和法律邊界設定,不失為一條可行路徑。
在消極數據權利層面,消極數據權利以保護自由為核心,強調免于數據控制者的不當干涉,指向數據控制者在數據使用中的各種強制性義務和禁止性義務的履行。這些義務要求數據使用行為應避免出現算法偏見、歧視性執法、隱私泄露等不公平對待。隱私是信息文明的基石,“也許最重大的侵害還不是觀察和攝像本身,而是對于觀察到的信息的不當利用如披露、公開和用于商業目的等”。因此,數據控制者對數據負有謹慎使用、安全保管等義務,對于因數據使用和保管不當而引致的不公平對待,應建立起投訴、糾錯乃至問責等機制。
在積極數據權利層面,積極數據權利以促進平等為核心,既指向數據控制者積極義務的履行,包括政府的數據安全義務與企業的平臺管理、告知、更正、刪除、保持透明度、限制處理等義務,也強調數據使用行為應遵循數據正義的可見性和事先約定原則,要求明確數據控制者所負有的監控職責、監控的類型與目標、監控所需的具體數據項、監控在不同群體中的傾向性及其理由、監控結果的應用方式、監控的合法性依據與正當程序等內容,做到在實體規定上清晰可見,在程序規則中事先約定,以此引領數據監控走上法治軌道。
值得注意的是,數據監控的法律邊界可能并不是極為清晰和明確的。由于權利讓渡以社會安全防衛的必要為限,所以,鑒于技術進化和安全防衛需求的變化,監控所需的個人數據的范圍亦處于持續變動狀態,這預示著,數據權利的相對性可能是一種常態。盡管數據監控的最小化原則已逐漸成為社會共識,但最小化的標準往往是模糊的。同時,數據權利和數據控制者的義務均依賴于特定語境和場景的設定,GDPR在賦予數據主體權利的同時,也將權利還原到具體語境與社群當中,在具體語境與社群中判斷人們的預期與權利的邊界。在不同的城市空間、公共場所與非公共場所、現實空間與賽博空間等監控場景下,法律邊界存在較大差異亦是常有之事。上述數據權利的相對性、模糊性、場景性共同導致了數據監控的法律邊界存在著大量的模糊地帶和可被靈活調整的空間。可見,數據監控的法律規制必然是一個長期漸進、反復博弈的過程。
(二)以算法治理打開預測性執法的技術黑箱
基于算法決策的預測性執法在犯罪治理中發揮愈發重要的作用。數據監控是“數據巨機器”的輸入端,算法決策屬于中間環節,預測性執法則是“數據巨機器”的輸出端。鑒于算法決策在識別高危人員、再犯風險評估等領域被廣泛應用,算法被視為一種社會權力。算法權力的運行存在如下問題:其一,算法決策的透明度有限,預測性執法時常從算法黑箱中輸出結果,對于某些多層神經網絡系統的復雜性,甚至連它的設計者也無從理解。其二,算法決策的準確性屢遭質疑,訓練數據因隨機性不足、歧視偏見等原因而存在誤差,導致算法偏見長久存在。其三,預測性執法將法律問題簡化為基于評分規則的數學問題,會引發系統性歧視、隱私弱化及違反正當程序等負效應。概率分析扭曲了人們對何謂公正懲罰的認知,刑法的規范價值因此被忽視。其四,算法決策具有有限性,算法僅能對硬數據進行冷識別,而無法對軟數據進行熱識別。“盡管數據是對‘事實’的記錄,但‘事實’中蘊含的社會實在不可能簡單地被還原為數據。”為防范算法權力被濫用,算法治理成為了數據正義的內在要求。對預測性執法的算法治理,應遵循法律之道,以律法監督算法,圍繞自動化決策的可見性和事先約定的法律實現,關注算法決策的可解釋性,増強算法的透明度,明確算法設計者、使用者的法律責任,發現和消除算法中所隱含的結構性偏見,警惕歧視性執法對個人權利的威脅。
第一,從制度設計上看,算法決策和預測性執法的開展離不開充分的法律依據。在大數據時代,應避免社會治理和犯罪治理陷入計算機模擬的風險、陷阱之中。在運用技術預測重大社會活動、執法活動時必須慎重,應在法律中明確預測性執法所涉各類算法的類型、功能、運算規則及其對社會的具體影響等。在算法應用之前,應設計必要的倫理審核程序,以《數據安全法》《個人信息保護法》等數據法為合法性與正當性依據,通過正當程序向社會公開預測性執法的啟動、評估和實施過程。
第二,從運行效果上看,支撐預測性執法的代碼和算法并非一成不變,算法運行應在循證思維下被監督、能糾錯、可追責,根據預測效果檢驗及優化算法。算法設計者和使用者在預測性執法中的法律責任是反對不公平對待的法律保障。“算法是由人類開發的,反映的是開發者的利益、偏見和缺陷,我們有義務仔細審查并在適當時機管理監管這些算法。”算法一旦出錯,就將給特定個體帶來實質性侵犯,所以,預測性執法必須被配套算法決策的糾錯和救濟機制,算法的設計者、使用者的法律責任也必須被數據法所明確。
第三,從透明度上看,技術治理不能被“算法黑箱”統治,而應遵循可見性原則増進算法運行的可解釋性。在思路上,以了解算法作為監督算法的前提,針對不同的治理目標和應用場景,厘清各類算法的運行規則,摸索算法決策與經驗決策的融合策略;在技術上,嘗試以算法打開“算法黑箱”,研發解釋和監測算法運行的算法;在機制上,將自動化決策處理數據的有關信息和流程向社會公開,使公眾了解預測算法是如何作出判斷和決策的,理解何種行為可能增加被識別、被監控、被干預的概率,祛除以算法預測犯罪的神秘性。
第四,從代碼屬性上看,預測性執法的智能系統必須被植入道德代碼,將數據正義的正當性要求、數據倫理的道德規范、數據權利的法律規范轉化為代碼,嵌入算法決策的運行流程。技術治理所依賴的智能機器必須是道德機器,以數據正義作為社會控制系統的源代碼。由于嵌入道德代碼可能引發預測性執法系統的“道德過載”,即安全、自由、隱私、效率等多重價值的沖突,所以應按照數據正義的正當性要求,針對具體場景和情形預設各種價值的優先等級,結合決策者的經驗和其所處社會的價值立場,將算法對現實的干預置于可控狀態之下。
(三)對權力外溢至平臺企業的均衡治理
科技企業的技術、數據和商業監控渠道是犯罪治理的重要資源,其所創設的在線平臺系統對犯罪治理的創新影響深遠。社交、網購、搜索、出行等各類平臺連接、整合、重塑了世界,社會結構的網絡化與社會治理的平臺化催生出治理主體間的新型合作關系,犯罪治理的權力從國家外溢至社會,流向平臺企業,使企業在履行平臺責任時獲得了裁定違規、監測及上報違法、先行認定和處罰等準公共權力。引導平臺系統服務犯罪治理,促進國家權力與社會權力在平臺治理中均衡運行,已成為數據正義的內在要求。
1. 以平臺治理重塑犯罪防控中的政企關系
平臺意味著服務導向和用戶本位,其所倡導的扁平化、交互式、開放性的平臺治理成為犯罪治理的新策略,平臺治理構成了對科層制組織架構和傳統綜合治理方式的有益補充。當前,網絡犯罪已成為第一大犯罪類型,網絡平臺所構筑的賽博空間是違法犯罪及網絡黑產滋生的土壤。為此,政府以少數平臺企業作為網絡犯罪控制的關鍵節點,通過平臺企業管控平臺生態內的網絡違法,而平臺企業一般都會積極響應政府的政策引導。這種通過在線平臺防控犯罪的新策略重塑了犯罪治理中的政企合作關系。
一方面,平臺治理加重了平臺控制者的義務,賦予其更多的網絡社會管理責任,平臺企業也相應獲得了一部分監管權力,而不再僅是治理對象。在2020年3月生效的《網絡信息內容生態治理規定》中,有近1/4的條款直接指向了在線平臺的主體責任,另有近1/3的條款直接指向了網絡信息內容的生產者和使用者,且為平臺企業監管網絡信息內容的生產者和使用者提供了明確的法律依據。另一方面,政府相關部門將治理重心轉移到了對平臺企業的政策引導、規則制定、支持、督促及行政處罰等法律監管活動上。《網絡信息內容生態治理規定》第31條規定:“各級網信部門對網絡信息內容服務平臺履行信息內容管理主體責任情況開展監督檢查,對存在問題的平臺開展專項督查。”該條款構成了網信部門監管平臺企業的法律依據。可見,在走向合作的平臺社會,平臺治理開拓出了政府與平臺企業間的兩個層面、分層管控、相互聯動的新型治理策略。例如,2019年,某地中級人民法院審理了一起利用視頻社交軟件侵害未成年人的案件。被告人以社交為名,收集兒童裸照和視頻,以裸照威脅被害人,實施強奸、猥褻等違法行為。視頻社交軟件在低幼群體中的不良影響引發了社會關注。事后,在企業層面,涉事企業履行平臺責任,開發了視頻社交軟件的青少年版本,并完善了關于數據使用、隱私保護的標準。在政府層面,國家網信辦適時出臺了《兒童個人信息網絡保護規定》,立法機關則在修訂《未成年人保護法》時增設了“未成年人網絡保護”一章,為網絡產品和網絡服務的提供者、制造者和銷售者設置了對未成年人的網絡保護義務,建立了未成年人使用網絡產品和服務的家長監護機制,從預防的角度實現了未成年人的利益最大化。如今,這種基于政企合作的平臺治理正在冉冉興起,在“網約車平臺”乘客被害預防、“互聯網金融平臺”非法集資風險防控等領域獲得了廣泛應用。
2. 政府和企業治理權力的均衡運行
作為網絡社會治理的入口,平臺是防控網絡違法犯罪的第一道防線。平臺兼具市場和社會雙重屬性,平臺企業兼有市場競爭主體和平臺網絡秩序維護者的雙重角色。從權力運行上看,平臺治理衍生出了兩個層面的犯罪治理:其一,是企業對平臺用戶違規違法行為的監管;其二,是政府對平臺企業預防違法犯罪活動的引導、支持、保障和監管。這兩個層面的犯罪治理分層管控,相互聯動。企業所履行的平臺責任有時可被單獨完成,比如,阿里集團、騰訊公司研發了阿里綠網和萬象優圖系統,可對直播平臺中的色情信息進行人工智能甄別,但更多時候,企業在履行平臺責任時,還是離不開政府部門的支持和保障。阿里集團每年向公安機關移送涉電商平臺的違法犯罪線索超過1萬條,但因取證難、異地協查難等原因,僅被刑事立案1500起左右。為此,阿里集團總部所在地的杭州市余杭區人民檢察院設立了“電商檢察聯絡室”,出臺了網絡案件證據指引,以便從司法適用層面保障企業平臺責任的履行。
平臺治理促進了政企二元權力關系的結構優化。對平臺企業來說,平臺治理實現了治理權力從國家到企業的分權,改變了以往的治理主體單一、社會動員乏力和對策彈性不足等弊端,促進了政企互信互惠,推動了治理權力運行的機制創新。對政府來說,通過引入市場機制和借力在線平臺,實現了信息社會的犯罪治理權力重組和再分配。分權不是簡單地將網絡違法的治理責任推給企業,相反,政府有責任完善平臺治理的法治保障,促進平臺企業治理權力和法律責任的對稱,加強對政企合作協同機制的過程管理,完善對企業履行平臺責任的法律監督,防范企業經營中的數據濫用和泄露、不正確履行或怠于履行平臺責任等問題。
3. 以平臺創新促進發展式預防
當前,基于平臺創新的發展式預防正在悄然興起。所謂“發展式預防”,是指一種通過科技創新、經濟社會發展、城市更新等整體性治理戰略而附隨生成犯罪防控效益的治理策略。在線平臺的興起對發展式預防的推動極大,該策略的典型表現莫過于平臺應用大幅減少了傳統犯罪中的街面盜竊、搶劫的發生,比如,共享單車平臺的出現使盜竊自行車成為歷史,移動支付平臺的普及使盜竊案數量驟降。鑒于平臺系統已滲透至社會核心,起到了改造甚至生產社會結構的作用,所以平臺創新已成為犯罪治理得到根本性改善的內在驅動。例如,區塊鏈技術創設出了全新的社會互信平臺,基于區塊鏈的“身份鏈”項目呈現出了極強的社會治理價值。該項目原本是為向農民發放小額扶貧貸款而創設信用數據服務平臺,但平臺通過分布式數字賬本創建和交換個人信息及身份記錄,使信息交換的邊際成本幾乎為零,其以分布式記錄和協作式激勵機制支持分布式信任,催生出了人與人之間的多維信任體系。在被區塊鏈技術所加持的自律型社會中,法治、技術和社群被分布式的信用數據協作緊密鏈接,這使經濟領域的違規違法乃至犯罪的成本高到讓人無利可圖的程度,使非法集資等經濟犯罪的實施變得愈發不經濟,從而極大消除了涉眾型經濟犯罪的生存土壤。由于發展式預防蘊含著更多的治本成分,所以應深入挖掘平臺創新的犯罪治理潛力,實現政府主導與平臺創新的融會貫通,以此促進技術治理賦能與賦權的均衡發展。
(四)以數據開放打通公眾參與的數據接口
在新的技術環境下,技術治理的正當性不單取決于治理績效,更應根植于民眾的有效參與和真心擁護。數據正義要求技術治理堅持用戶視角和人本導向,及時回應社會公眾的安全需求,將數據取之于民并用之于民,以實現大數據福祉的社會共享。民眾不是被監控的對象,而是被保護的對象與治理的參與主體。在實踐中,囿于普通個體既不掌握數據也不了解技術,公眾參與技術治理的門檻已變得越來越高。如此一來,個體還能對犯罪的技術治理進行有效參與、表達及監督嗎?因此,基于數據正義的技術賦權要求,應重視互聯網對個人的賦權機能,以技術賦權消弭管理者與民眾之間的數字鴻溝,以數據開放為公眾提供參與治理的數據接口。
數據開放蘊含著公眾在利用數據后所獲取的知情權、表達權、參與權及監督權等權利,犯罪地圖或公共安全地圖的公開是典型的技術賦權方案。一圖勝千言,一目了然。公共安全地圖能夠展示出各類犯罪、交通事故、火災、城市違建、公共衛生危機等事件的時空分布狀況,構成了國民安全生活的行動參考。地圖以可視化方式提升了國民對社會安全的能見度,為警民交互、回應型干預和被害預防提供了針對性較強的數據依據,在相當大的程度上消除了民眾的被害恐懼。至于擔心地圖在被公開后可能被不法分子利用而回避防控干預的問題,筆者曾在《犯罪地圖的公開》一文中對其作過系統專論,目前來看,這種對于不法分子可能利用地圖的擔憂是沒有科學依據的。隨著數據紅利的日趨外溢,與犯罪地圖或公共安全地圖公開類似的數據接口還有很多。公眾參與技術治理的價值不在于追求治理效率,而在于生產數據正義,讓技術治理以看得見的方式得到實現。
數據開放對保障技術治理的正當性意義重大,只有向社會公開治安及犯罪數據,公開數據監控的基本架構與運行機制,公開“威脅評分”的內在規則,才能為公眾開展被害預防提供必要依據,有助于依靠社會力量將各類風險控制在萌芽狀態。面對無所不在的數據監控,數據開放打破了管理者和民眾之間的信息鴻溝、數據區隔,促進了社會互信和協作。數據接口的提供為民眾運用技術維護權利與制衡監控提供了保障,使技術治理從封閉式管理走向了開放式治理。在算法社會,“數據巨機器”變得越來越聰明,但不能使其變得幽暗和冰冷,只有充分的公眾參與才是技術治理堅持科技向善之方向的關鍵所在。
結 語
在加速進化的智慧社會,使犯罪治理邁向數據控制,不僅極為必要,而且已逐漸升格為犯罪學的“思維定勢”。伴隨監控技術與人的身體、生活日漸融合,全景式監控使人焦慮和茫然無措,技術賦能與技術賦權的非均衡發展引發了一系列不公平對待,加劇了社會安全防衛與個人權利保障的價值沖突。面對價值沖突,數據監控和算法決策的邊界何在?個人怎樣才能保有必要的自由?如何跨越個體與數據控制者之間的“數字鴻溝”?技術治理何以避免陷入“數字利維坦”的陷阱?這些問題亟待得到思考。由此,犯罪技術治理的正當性問題成為理論焦點。“歷史的弧線雖然很長,但它總是向正義彎曲的。”數據正義視角的引入是一種可行的理論嘗試,源自現實主義正義觀的數據正義理論對犯罪技術治理提出有限擴張、關系均衡、法律控制、技術賦權等正當性要求,為犯罪技術治理從整體上趨向數據正義提供了實現路徑。源自數據正義的正當性標準不僅是反思犯罪技術治理實踐的分析框架,也是追問犯罪技術治理合法性的內在依據,更構成了實現犯罪治理現代化的價值引領。
對犯罪技術治理進行價值權衡并非反對大數據應用,而是借助對于數據正義的價值思考來辨識智慧社會的發展方向,審視犯罪治理的人文主義本質,探索社會安全防衛和個人權利保護的統籌兼顧之道。在大數據時代,人們總是說“未來已來”,但社會發展不怕慢,就怕循環往復。在犯罪治理的現代化思潮洶涌澎湃之際,我們需要更好的而非更快的技術治理。數據正義詮釋了何為“更好”的理論內涵,呼喚將技術治理所蘊含的超常和超強的控制性權力納入法治軌道,回歸人本導向和權利本位,邁向數據控制且超越數據控制,以技術賦能與技術賦權的均衡發展“建設更高水平的平安中國”。