如同其他新興技術成果,人工智能在推動人類社會向智能化發展的同時,也伴隨著侵害人類利益的風險。無論從最大限度發揮人工智能推動社會進步的積極功能出發,還是就促進人工智能技術自身穩健可持續發展來看,都有必要精準識別人工智能可能存在的各類風險,并以此為前提,根據各類風險的生成特性以及風險應對措施的作用機制,合理地組織對人工智能的風險應對。毋庸諱言,在人工智能潛在的各類風險中,人工智能被濫用于實施犯罪活動、作為犯罪對象被不法攻擊以及人工智能基于自主運行而損害人類法益的刑事風險,最為引人關注,包括刑法在內的社會治理機制究竟應當如何“智能”地應對“人工智能”,如何恰如其分、行之有效地治理人工智能刑事風險,已成為重要的時代課題。正是在人工智能技術研發以及法律治理需求的推動下,國內外法學理論和法律實務界對人工智能表現出強烈的興趣,刑法領域的研究成果也呈現爆炸式增長的態勢,關于人工智能體能否成為刑事責任主體、其刑事責任應采取何種歸責方式,甚至對人工智能體應當適用何種“刑罰”等迅速成為熱門話題。近期,貴州大學法學院曹波副教授的新作《人工智能刑事風險治理邏輯與刑法應對研究》出版面世,該書圍繞人工智能刑事風險科學化解及責任分配的研究主題,通過廓清當前理論研究不當理解人工智能刑事風險的偏誤,精準識別人工智能涉刑法的真問題,主動調適刑法的理念、制度與規則,合理組織對人工智能可能嚴重侵害人類法益風險的刑事反應,形塑人工智能研發和應用所須堅持的底線規則,可以說,既有時代意義,又有自己的主體性。通讀書稿,我認為本書具有以下幾個特點:
一是基于求真立場,證成人工智能刑事風險的客觀存在。作為研究人工智能刑事風險治理的邏輯起點,首先需要證成人工智能在研發和應用中確確實實存在侵害人類法益并且應當進行刑事歸責的風險內容。若人工智能缺乏此種刑事風險,抑或所潛在的風險不值得刑法介入或者刑法難以介入,人工智能刑事風險的應對或治理便是一個偽命題。從既有研究來看,確有學者否定人工智能刑事風險的客觀真實性,認為法學界對人工智能的研究是“偽問題”;也有學者以人工智能尚處于不能自主運行的弱人工智能階段為由,提出人工智能刑事風險治理(或刑法規制)是“偽命題”。本書依靠人工智能技術專家的專業判斷,以及搜集人工智能運行中產生刑事風險的真實案例,令人信服地證成人工智能內在之刑事風險具有不容否認的客觀真實性。作者同時指出,如何妥善應對人工智能刑事風險,科學分配人工智能刑事風險所涉及的法律責任,是包括刑法在內的法規范體系必須給予認真對待的“真問題”,至于采取何種刑法措施,如是否賦予人工智能獨立刑事責任主體地位,是否采用刑罰或保安處分處置“犯罪”人工智能等,則是刑法關于人工智能刑事風險應對的措施之爭,屬于解決問題的具體方式。
二是運用類型化分析方法,闡釋人工智能刑事風險的具體內容。類型化分析方法是一種長期被忽視但卻對刑法學研究至關重要的研究方法。本書在總結人工智能刑事風險主要類型的基礎上,充分運用類型化分析方法,根據刑事風險指向對象和主要內容的差異,將人工智能刑事風險分為對象性風險、純正工具性風險以及不純正工具性風險三類,即人工智能系統成為犯罪對象被不法攻擊或操縱的“對象性風險”,人工智能被濫用于實施犯罪的“純正工具性風險”,以及人工智能脫離人類控制而嚴重侵害人類法益的“不純正工具性風險”。不同類型的人工智能刑事風險,在生成機制以及治理邏輯等方面也存在相應差異,自然需要以不同的治理規則予以應對。這種類型化分析方法向讀者較為清晰而系統地展現了人工智能刑事風險之所在,更為人工智能刑事風險的刑法應對提供了基本框架。
三是立足刑法的任務和屬性,妥當組織對人工智能刑事風險的刑法反應。現代刑法在專注自由與權利保障的基礎上,也將包括降低風險、保衛安全在內的法益保護作為基本任務。由于刑法是最具嚴厲性且成本最高的治理機制之一,理應堅守謙抑性的內在屬性,在民事侵權責任機制及行政處罰機制難以達到治理效果時,才選用刑法治理機制介入。本書在認同這一公理的同時,也進一步指出:“刑法謙抑性的要旨在于規范國家刑罰權的行使,防止國家刑罰權過分或不當侵入公民社會生活,強調合理劃分不同法律部門在調整特定行為的具體分工,實現特定行為法律規制系統內部的協調性與互補性,而限定刑法規制范圍卻非刑法謙抑性的必然要求,刑法規制范圍也并非越窄越好。”按照作者的理解,既然人工智能帶給人類社會的刑事風險客觀存在,運用刑法給予應對必定是刑法切實承擔保護法益任務的表現,不會與刑法的謙抑性相抵觸。雖然對刑法謙抑性內涵的此種詮釋是否完全科學合理還可進一步討論,卻也彰顯出刑法不應停滯固化,需隨著社會的發展和變遷而適時調整其任務。當然,作者也深刻認識到單純靠刑法應對的嚴重不足,充分重視行業規范、行政規制等非刑機制在應對人工智能刑事風險中的應有價值,并通過刑法中的“容許性危險”等教義學出罪原理,以實現刑法與其他治理手段的融會貫通。
四是秉承科學治理理念,建構人工智能刑事風險的刑法應對方案。正如對犯罪的治理必須厘清誘發犯罪的各種因素以及各種因素相互作用的致罪機制,人工智能刑事風險的有效應對也要求明晰人工智能刑事風險的產生機制和內在規律,進行有針對性的治理。據此,本書分別提出了對人工智能工具性刑事風險的應對治理方案:針對人工智能被濫用于實施犯罪的“純正工具性風險”,提出應當運用刑法教義學分析范式,根據現有刑事歸責原理,對故意設計、制造邪惡人工智能,懈怠注意義務設計、制造嚴重瑕疵的人工智能,濫用人工智能實施犯罪或者未盡合理監管義務導致嚴重危害后果等,分別追究人工智能背后相關人員的刑事責任;針對人工智能脫離人類控制侵害法益的“不純正工具性風險”,提出在有的情況下需要借鑒“科技社會防衛論”,運用保安處分予以應對,但在另一些情況下則可以援引“容許性危險”作為法理依據來排除刑事歸責,通過商業保險等社會性風險分攤機制予以應對,以期盡量為人工智能技術的發展預留必要的法律空間。
本文摘自作者給《人工智能刑事風險治理邏輯與刑法應對研究》(曹波著,經濟管理出版社2024年版)一書所撰序言。
作者:劉仁文,中國社會科學院法學研究所研究員,中國刑法學研究會副會長。
來源:《民主與法制時報》2024年12月19日。