9月25日,國家新一代人工智能治理專業委員會發布《新一代人工智能倫理規范》(以下簡稱《倫理規范》),明確規定了人工智能活動應當遵循的六大基本倫理規范,包括增進人類福祉、促進公平公正、保護隱私安全、確保可信可控、強化責任擔當、提升倫理素養。這六大基本倫理規范主要指向人工智能可能存在的缺乏人文關懷、產生偏見歧視、侵犯隱私與個人信息權、消解人的主體地位以及難以追責等諸多倫理風險問題。這些問題在當下蓬勃發展的司法人工智能領域也不同程度存在,比如適用于審判領域中事實認定和法律適用的“人工智能法官”裁判等。筆者認為,“人工智能法官”的算法裁判要想取得主體地位,必須突破程序正義不足、缺乏人文關懷、隱私安全隱憂和可問責性難題四大倫理障礙。
程序正義不足的倫理問題。“人工智能法官”的算法裁判之所以能被有的學者支持以及司法實務接受,非常重要的一個理由或論據是“人工智能法官”所做裁判的準確率與人類裁判的準確率相當,甚至在某些對比測試中還遠高于人類裁判者。但這只是看到了“人工智能法官”裁判所具有的某種程度的實體公正,卻忽視了現代法治理念更重視和追求的程序公正。具體表現在三方面:一是“人工智能法官”可能存在算法歧視與偏見,這意味著其會沖擊法官中立性這一程序正義的基本要素;二是“人工智能法官”的“算法黑箱”會消解司法程序的透明性、公開性;三是“人工智能法官”的算法裁判是基于以往判決的大數據分析推導案件如何判決,這雖然符合類案同判要求,但它無法對當前案件中當事人和律師辯論、辯護爭議點和觀點進行充分的識別、理解與回應,這使其忽視了當事人的程序參與權,裁判說理也嚴重不足。
缺乏人文關懷的倫理難題。作為人類社會交往過程中最重要的糾紛解決方式之一,司法審判不僅要以法律為基本依據,情和理也是重要的參考因素。裁判的效果應該是法律效果、政治效果與社會效果的統一,這不僅要求在司法裁判過程中嚴格適用法律,還要有情理的溫度和人文的關懷。“人工智能法官”在算法裁判運作中能否考慮以及在多大程度上可以根據案件的具體情況考慮人文關懷或者釋法說法?目前,已有的“人工智能法官”系統或者類人工智能法官系統還難以達到相關要求。
侵犯隱私安全的倫理隱憂。目前,“人工智能法官”裁判是以裁判文書類司法大數據的深度挖掘為基礎而產生的算法系統。但這種大數據挖掘會涉及裁判文書中法官、當事人、其他訴訟參與人的隱私權與個人信息知情、同意權保護問題。比如,法國2019年頒布的《司法改革法》第33條明令禁止基于法官“畫像”的大數據應用(包括比較、評估、預測)。違反者,最高將被判處5年有期徒刑及30萬歐元的罰金。因此,基于裁判文書類司法大數據深度挖掘的“人工智能法官”很可能在某種程度上侵犯法官隱私權。
可問責性難題的倫理風險。眾所周知,人類法官裁判案件時勤勉盡責不僅僅是職業倫理要求,也是因為有相應的司法責任制度予以規范。但若由“人工智能法官”進行實質性審判得出錯誤裁判結果時,該由誰來承擔相應的責任?司法責任制能夠對人類法官發揮作用,主要在于責任追究的“譴責”機制會給人類法官帶來身體的、精神的、財產的剝奪性、限制性“痛苦”等,但這對“人工智能法官”而言毫無意義。因此,該由誰來承擔“人工智能法官”裁判錯誤責任,值得深思。
針對前述“人工智能法官”面臨的四大倫理障礙,《倫理規范》已經給出了一個制度規制的基本路徑,未來應該在《倫理規范》明確的六大基本倫理規范以及相應具體規范的基礎上,構建適用于法律人工智能甚至司法人工智能這一特殊領域的專門的倫理規范。此外,從類型化角度看,“人工智能法官”的四大倫理障礙又可以分別納入到技術倫理障礙與責任倫理障礙之中,例如程序正義、人文關懷等問題指向人工智能的技術與風險問題;侵犯隱私、可問責性難題涉及的是責任倫理障礙。這或許可以分別從技術升級改造層面、責任理論與分配機制重構角度尋找突破口。
(作者:□特約撰稿 羅恬漩 段陸平 作者單位分別為同濟大學法學院、廣州大學法學院)