国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

鄭玉雙:自動駕駛的算法正義與法律責任體系
發布日期:2023-04-07  來源:《法制與社會發展》  作者:中國政法大學副教授鄭玉雙

自動駕駛或無人駕駛技術是人工智能技術應用的前沿領域,也是智能時代最值得期待的科技成就之一。隨著道路交通運行的數據化提升、可信任算法的深入應用和算力的有效保障,自動駕駛成為智能社會的建設方向。如果自動駕駛汽車能夠實現商業化應用,人類社會不只會迎來交通出行的革命,也將經歷人機協作和觀念形態的巨大轉型。然而,除了需要突破算法程序設計、環境傳感和數據處理等技術難題之外,自動駕駛所引發的倫理擔憂和法律挑戰也尤為突出,尤其是碰撞困境所引發的責任難題。

目前,對自動駕駛之挑戰的研究大致可以分為兩種思路。一種思路通常將自動駕駛引發的道德困境與電車難題進行對照,從電車難題的解決方案中尋找可以應用于自動駕駛之技術挑戰的倫理原則。1另一種思路則傾向于在法學知識體系內部建構出應對自動駕駛之責任分配或權利配置的基本原理,并為自動駕駛立法提供法教義學支持。2本文嘗試找到解決自動駕駛之倫理困境和政策難題的法理出路,補足自動駕駛之法教義學建構和責任體系設計背后的價值基礎。自動駕駛之倫理和法律挑戰的破解之道在于構建出面向人機協作的算法正義觀,在其指導下設計出一種能夠有效應對緊急情況的碰撞算法,并重構相應的法律責任原理。本文主張,基于算法正義理念,最大化最小值算法是克服人機協作之技術困境并解決碰撞難題的較佳方案。下文將圍繞最大化最小值算法而構建出包含教義學責任和證成性責任的法律責任體系,有望為自動駕駛汽車從理想轉為現實找到可靠的法律出路。

一、自動駕駛的倫理與法律挑戰

(一)自動駕駛的倫理挑戰

與人工智能所引發的倫理隱憂相伴,自動駕駛從進入公共討論視野后就伴隨著倫理爭議,人們認為自動駕駛會引發嚴重的道德困境。碰撞和事故是駕駛的常態,自動駕駛汽車也不能完全消除碰撞風險。由于駕駛過程是精密的自動駕駛算法主導的,個人意志無法掌控,那么在帶來生命危險的碰撞中,算法應當如何進行選擇?自動駕駛汽車算法在傳感、感知和決策能力上遠超過人類駕駛者,但并不具備人類所擁有的道德決策和反思能力,也不具備人類的道德地位。3由機器根據預設算法決定碰撞中的道德困境如何解決,在倫理上引發了新的難題,我們可以稱之為自動駕駛的人機協作難題。請設想以下三種情境:第一,自動駕駛汽車在行駛中遭遇迎面而來的失控汽車,直行則會造成乘客死亡,左轉則會撞死一名路人,右轉則會撞死五名路人。第二,自動駕駛汽車在行駛中突然遇到倒在路上的大樹干,直行則會導致乘客死亡,緊急轉向則會撞向路邊施工的工人。第三,自動駕駛汽車在行駛中突然遇到誤闖入車道的自行車賽車手,直行會撞死賽車手,轉向則會導致乘客死亡。

這些情境只是自動駕駛汽車行駛中可能遇到的一部分艱難抉擇而已。自動駕駛汽車要成功上路,就需要在倫理上解決這些疑難,回應倫理挑戰。然而,這些情境并不同于人類所面對的“電車難題”。機器算法的道德決策應當在社會計算化的語境下開展,由此必須回答兩個前提性問題。第一,人機協作的決策模式是否改變了人類道德推理的基本原則和方式?第二,在自動駕駛技術的實際應用中出現的道德疑難,是否存在著確切的解決方案?

為了應對這些碰撞難題,研究者提出了自動駕駛的各種道德算法方案。道義論算法以康德倫理學為基礎,主張機器不能傷害人的生命。阿西莫夫機器人定律是道義論算法的典型體現,但很少有學者支持這一方案。德國2018年發布的《自動駕駛汽車倫理準則》蘊含著道義論色彩,例如,其規定,“當自動駕駛車輛發生不可避免的事故時,任何基于年齡、性別、種族、身體屬性或任何其他區別因素的歧視判斷都是不允許的”。4由于碰撞是不可避免的,這一原則對算法設計并無具體的指導意義。功利主義算法在直覺上具有吸引力。MIT的“道德機器”模擬實驗游戲測試了游戲用戶在不可避免的碰撞中的選擇,基于四千多萬用戶的測試結果表明,大多數人傾向于為了保護多數人而犧牲少數人。功利主義倫理本身具有計算優勢,5功利主義算法主張自動駕駛的碰撞設計應當追求損害的最小化。6但功利主義并不包含將功利計算向算法設計轉化的倫理指導,碰撞選擇也不能完全化約為生命數量的衡量,所以將功利主義算法用于回答上述三種情境中的碰撞選擇,會得出讓人無法接受的結果,這也是功利主義算法在市場調查中遇冷的主要原因。

(二)自動駕駛的法律挑戰

雖然自動駕駛汽車在多數國家尚未正式上路,但自動駕駛的法律挑戰已初露端倪。這種挑戰可以分為兩個層次。一種是制度意義上的,即自動駕駛對傳統汽車行業相關法律制度造成了沖擊,如對產品質量認證、行政監管模式和道路交通管理方面的沖擊。另一種是價值和責任意義上的,即自動駕駛對生命安全價值和法律責任分配造成了沖擊。制度挑戰可以通過順應智能化轉型的制度優化和調整加以解決,價值和責任層面的挑戰則比較棘手。上述三種情境不僅產生了倫理困境,也使自動駕駛陷入法律危機。當前已有學者對輔助或完全自動駕駛所引發的侵權責任和刑事責任等作了很多有益探討,但自動駕駛的法律挑戰依然嚴峻。

生命安全依然是自動駕駛所追求的首要價值,然而安全價值在人機協作語境中的呈現方式發生了變化:第一,汽車行駛安全的本質是自動駕駛算法在軟硬件協作框架下針對駕駛環境而輸出的正確決策,因此,其本質是“輸入—輸出”的決策安全;第二,安全是人機協作的結果,即人類設計的產品(傳感器、雷達、芯片、地圖和通信設備等)和執行感知、識別和決策任務的算法在具體場景中完成駕駛任務。百度公司、中汽中心、同濟大學發布的《自動駕駛汽車交通安全白皮書》提出自動駕駛汽車有望將人類因素導致的交通事故減少89%。7但由于汽車故障或人類干預導致的事故仍不可避免,前面列舉的因突發情況而產生的艱難情境也會不斷出現。法律如何應對這些事故導致的責任難題?

在民法意義上,汽車故障導致的事故引發侵權責任,因此應當確定責任主體,自動駕駛汽車的智能屬性給責任主體和歸責依據的確定增加了困難。自動駕駛算法是基于數據集和成熟算法模型而編程的,并不能完美應對各種突發情況,在駕駛中可能會因為干擾因素(如誤闖入車道的自行車手)而造成傷亡。生產者和消費者可以預料到這種結果的發生,但它是否源自產品缺陷,則無法從既有教義中獲得答案。

在刑法意義上,既有研究主要關注兩個層面:一是汽車致損的刑事責任認定;二是碰撞難題中的刑事責任分配。自動駕駛汽車對生命安全價值的潛在威脅構成了法益基礎,因此對汽車生產和行駛過程中的危險行為有進行刑事追責的必要。在第一個層面上,與侵權責任認定的難題相類似,3級自動駕駛有駕駛者的參與和接管,因此可以基于既有刑法教義學進行追責,比如針對駕駛者接管不力或疏忽導致的傷亡而追究駕駛者的過失責任。8但在4級以上自動駕駛中,刑事追責的困境就凸顯出來了。如前所述,在完全由自動駕駛算法完成感知、傳輸和決策的真實駕駛場景中,算法在某種程度上脫離了生產者、設計者和所有人的“掌控”。由于駕駛情況復雜,算法失靈未必由設計缺陷引起,由此也難以判斷生產者和設計者是否有過失。

在第二個層面上,刑事責任認定則陷入更深的困境中。雖然類似電車難題的碰撞難題并不常見,但自動駕駛算法設計需要預先對各種碰撞情形進行虛擬訓練,以便在遇到類似難題時作出決策。然而,有兩個難題立馬呈現出來:一是設計碰撞算法的主體應該為碰撞結果承擔責任嗎?二是碰撞算法應當如何設計?

法教義學對于這兩個問題并無現成答案。電車難題作為一種思想實驗,可以保持答案的開放性,人類駕駛員在遇到這種困境時,會對其瞬間決策所導致的損害結果承擔責任。自動駕駛的出場改變了人類面對道德困境的解決方案及其法律后果。當人機協作參與到交通出行中,在自動駕駛算法提前對汽車的行駛和碰撞選擇進行規劃和預設后,以人類主體過錯為責任分配依據的傳統模式不再適用,因為汽車駕駛者不再是通過個人意志和選擇來應對駕駛過程中的各種突發情況或風險,而是交由算法通過分析和計算來前瞻性地應對未知情形。9自動駕駛算法既要最大程度地保障生命安全,又要作出合乎倫理和法律的碰撞抉擇。因此,碰撞算法的設計成為應對自動駕駛之倫理和法律挑戰的關鍵環節。

二、算法正義與最大化最小值算法

(一)自動駕駛的正義維度

是否應賦予汽車以主體地位和人格,自動駕駛算法致損的責任應由誰來承擔,以及在碰撞困境中誰應該承受損失等問題,都是正義理念要解決的。而這些問題與傳統法律實踐的不同之處在于,它們必須在對正義的追尋中展現算法的技術和價值意義。已有論述關注到算法對傳統正義觀念所造成的沖擊,10但關于自動駕駛算法如何改變正義實現方式的問題,目前討論較少。應對自動駕駛的倫理和法律挑戰,不僅需要提出特定的倫理和法律方案,也需要回到作為倫理和法律實踐之根基的正義價值。盡管人們對正義的內涵有不同見解,但從正義維度探究自動駕駛具有兩重意涵。

第一,人工智能和社會的計算化工程將人類社會帶入一個新的技術化的正義環境中。傳統正義觀涉及共同體的社會合作框架、利益的分配以及應得(desert)問題。11自動駕駛必然涉及正義實踐的基礎,因為自動駕駛引發新的社會合作形態,帶來新的技術格局以及利益的重新分配,并創造出自動駕駛汽車產業全局中各方主體的全新權責形式。從正義視角切入自動駕駛的倫理和法律問題勢在必行。

第二,自動駕駛算法的設計是一個技術問題,軟件服務商基于對算法計算能力和精準性的追求而展開激烈競爭,不斷實現算法技術升級。但其更深層的本質是正義問題:自動駕駛汽車在道路環境中行駛,使用道路這種公共物品,基于安全價值追求而作出決策時,必然引發分配正義問題。12前面提到的碰撞責任分擔和碰撞算法設計的問題,也是分配正義的直接體現。

(二)算法正義的基本內涵

第一,由于算法的介入,駕駛的正義環境被改變,正義價值的內涵及其相關價值在形態上也發生了變化。算法對價值形態的沖擊是非常明顯的,比如算法歧視與傳統意義上基于性別或膚色而作出的差別對待不同,它是通過計算方式把偏見以客觀數據的形式展現。算法歧視破壞了平等價值,但平等的價值形態在數據處理和計算過程中也發生了變化。同樣,當自動駕駛算法把尊重生命、謹慎、公平、程序等價值主張轉化為一系列數據、函數、模型和決策樹的時候,這些價值的形態必然會變化。自動駕駛的倫理和法律挑戰通常與價值判斷相關,例如,使用自動巡航功能的特斯拉汽車因為視覺識別系統把白色大卡車誤判成天空而產生事故。13這種系統的技術失誤是否構成產品缺陷,設計者是否構成過失,是典型的價值判斷問題。如果只按照傳統價值觀來理解設計者的主觀狀態,那么顯然會陷入困境。

第二,提煉正義原則需要結合自動駕駛算法在人機協作中的決策地位。對侵權的救濟和犯罪行為的懲罰是實現矯正正義的途徑,14過錯責任、嚴格責任、罪刑法定等基本原則也內含著正義的價值內核。然而,這些原則都預設了人的主體性和能動性(agency)。雖然自動駕駛算法不具備主體地位,但其在駕駛中的決策主導性至少部分地替代了人的主體性和能動性。由此產生的問題是,對算法決策后果進行追責的矯正目標是算法還是人?如果只是通過設置交通肇事罪、責任事故罪對生產商、車主進行追責,那么這無法改變算法的決策角色。算法正義不僅關注人在自動駕駛汽車生產、運行和追責中的角色,也需要評價算法的倫理與法律意義。

第三,算法正義的核心內容是針對自動駕駛的碰撞困境確定正義方案,這項工作應當圍繞算法而展開。在目前應對碰撞困境的各種倫理和法律方案中,算法技術的統攝性地位并未受到重視。在自動駕駛過程中,碰撞的發生受概率、技術和運氣等復雜因素的影響,但本質上是一個正義問題。一方面,碰撞是預先設計和算法自主決策的結合,“具有各種傳感器(例如距離、燈光、碰撞)和電機設備的簡單汽車已經可以通過自組織神經網絡產生復雜的行為”。15 另一方面,碰撞算法的設計是程序員將制度化的社會道德共識或偏好轉化為代碼和決策機制。碰撞算法的設計在技術上是專業程序員編程,但計算代碼內含著“傳統交通和智能交通、傳統倫理與機器倫理、傳統交通法律與智能交通法律之間的對立和調適”。16 碰撞算法的設計需要在技術、倫理和法律的交互融合之中呈現出正義的脈絡,道義論和功利主義算法無法勝任這一任務,因此需要探索新的道德算法,以體現算法正義的要求。

(三)最大化最小值算法的設計

根據人機協作的特殊性,解決自動駕駛的碰撞難題應當采取一種由反思平衡模式引導的最大化最小值算法。羅爾斯的最大化最小值原則強調的是,人們在無知之幕下,應當盡可能選取這樣一個選項,即它的最糟糕后果將使人們的處境好于所有其他選項的最糟糕后果。17從羅爾斯的正義理論出發進行自動駕駛算法的編程,并不意味著該理論無懈可擊。其優勢在于,以羅爾斯所設想的“無知之幕”作為確立自動駕駛倫理的假設語境,更好地揭示了人類社會在面向智能化和人機協作的前景時所面對的困境。18在自動駕駛上,無論是汽車生產者、所有者還是行人,都應將自己放置在無知之幕中,選擇最符合正義感的算法設計方案。這個理論思路體現了對人的尊重,即人們在無知之幕下會選擇對每個人都公平的自動駕駛算法和碰撞方案。這既解決了自動駕駛技術進入實際應用的門檻問題(部分地通過民眾期待得以體現),也能在自動駕駛技術落地之后,通過重疊共識和多元理性更靈活地應對實踐過程中的各種難題。19

在碰撞情形中,我們應當基于最大化最小值原則設計自動駕駛算法:在碰撞造成的各種事故場景中,通過對損害和生命危險進行量化和計算,確定生存概率。每一種碰撞選擇都會存在生存概率的最高值和最低值,相較之下,最低值最高的那個選擇是合乎正義的碰撞選擇。20

舉例來說,一輛載有四名乘客的自動駕駛汽車正在道路上行駛,迎面駛來一輛失控的大卡車。如果汽車撞向卡車,則會導致四名乘客死亡,卡車司機重傷;如果汽車緊急轉向,撞向路邊的五名路人,或者撞向道路邊施工的五名工人,則會導致乘客、路人和工人不同程度受傷或死亡。根據汽車撞擊程度、路人年齡和身體狀況的計算,可以設想不同碰撞情形下每個人的生存幾率如下:

第一,在撞向卡車的情況下,四名乘客的生存幾率較小,計算為0.01和0.10。卡車司機受重傷,計算為0.30。碰撞結果為:0.01;0.01;0.01;0.10;0.30。

第二,在撞向五名路人的情況下,由于事發突然,路人無法躲閃,生存幾率較小,根據年齡和身體狀況,計算為0.01和0.10。車上乘客由于車輛保護,生存幾率提高,計算為0.25和0.30。碰撞結果為:0.01;0.01;0.01;0.01;0.10;0.25;0.25;0.30;0.30。

第三,在撞向五名工人的情況下,由于存在防護,部分工人生存幾率提升,計算為0.01、0.10和0.15。碰撞結果為:0.01;0.10;0.10;0.15;0.15;0.25;0.25;0.30;0.30。

由于三個選項都存在0.01這一最小值,則遮擋該值,繼續進行最小值的比較。第二輪比較仍然存在0.10這一共享最小值,則繼續比較。由于卡機司機的生存幾率實際為最高值,所以不參與比較,那么選項一的最小值為0.25,選項三的最小值為0.15,選項二的收益最大,則選擇選項二,即撞向五名路人。

最大化最小值并非要計算碰撞中的最大功利,而是在算法內嵌之緊急情形下提出一種解決生命權沖突的公平決策。正如有學者指出的:“如果存在一種危險共同體,即多人或一個團體中所有人都處于同樣的死亡危險之中,只能犧牲一人或幾人的生命來挽救其余人的生命,則允許計算生命的多少。”21最大化最小值算法并不絕對地保護乘客,而是在對各方主體的存活概率進行測算之后,“在笛卡爾積的映射數據集中權衡事故主體存活概率的最低收益集,經過循環窮舉,篩選出將最低收益最大化的操作;若多種操作收益相同,則使用隨機數決定最終操作”。22

上述例子只是一個簡單模型,真實世界中的自動駕駛遠為復雜,涉及各種變量。變量的存在并不會削弱最大化最小值算法的說服力,反而可以驗證這一算法的可行性和優勢。在算法的倫理分析中,變量的出現有兩層意義。第一,變量可以促進數據的積累。數據越多,算法計算的精確性就越能提升。自動駕駛的碰撞數據可以反復驗證最大化最小值算法的可行性,即算法是否能夠準確計算每種選擇中的最小值,反過來為數據訓練提供支持。第二,通過拓展算法的應用空間來促進人機協作的層次和深度。機器道德和社會道德的差異體現在社會道德通過人的觀念共享而發揮道德指引作用,機器道德通過算法技術升級和結構優化而實現。算法正義的實現除了在理念上論證最大化最小值算法的正當性之外,還要通過實地的計算模型驗證和優化來強化算法的可操作性。

根據既有研究,可以將自動駕駛算法運行中出現的變量總結為以下若干類型:

 

(四)對最大化最小值算法之辯護

批評者認為,這種最大化最小值的算法設計誤解了羅爾斯關于無知之幕中人們選擇公平正義觀的動機。基林(Keeling)認為,在無知之幕中的人們選擇公平作為最佳正義觀時,他們對這種正義觀的利弊作出了充分的論辯和權衡,但針對自動駕駛的碰撞難題,人們無法公允地論辯如何設計自動駕駛的算法,因此,最大化最小值算法無法從羅爾斯的正義理論中獲得有力支持。23余露認為,羅爾斯的正義理論并不支持對碰撞事故中的個體生命進行量化,羅爾斯強調的是生命質量的正義維度,而非生存幾率。24

這些批評都不足以對最大化最小值算法造成沖擊。道德原則向計算指令的轉化,改變了道德規范的存在形態,構成了對人類道德實踐的深刻調整。道德實在論無法體現出人類道德和機器道德的差異,建構性地理解機器道德及其實踐是正義實踐的有機延伸。即使自動駕駛的碰撞情形與無知之幕不完全類似,但在自動駕駛帶來的全新正義環境下,通過對碰撞損害分配的反思平衡,最大化最小值算法符合算法實踐的正義方案,與羅爾斯的正義理論是內在一致的。雖然生命質量與生存幾率不是同一回事,但在碰撞情形中,生存幾率的計算和評估是生命這種基本善的正義分配問題。在是否能夠權衡和計算生命的問題上,最大化最小值算法并未偏離社會正義實踐中尊重人的尊嚴和生命價值的基本共識。

三、自動駕駛的教義學責任

自動駕駛對法律責任體系的沖擊是劇烈的。責任存在的意義是彰顯人的主體地位、劃定社會行為邊界和促進社會協作,人機協作在這三個方面改變了責任的社會基礎和實踐結構,將機器決策嵌入到汽車生產者、軟件服務商和車主的社會角色之中,重塑了這些角色的責任形態及歸責模式,同時也促發了法律制度自身的調整。產品質量、注意義務、因果關系、緊急避險和過錯等傳統責任要素都需要在自動駕駛所創造的正義語境(特別是不可避免的碰撞情形)中被賦予新的規范內涵。自動駕駛的法律責任體系在結構上包含著各方主體的民事責任、行政責任和刑事責任等,在內容上體現為責任基礎認定、責任的教義學化和可責性(culpability)判斷等各個環節。自動駕駛的責任法理聚焦于兩個問題:一是算法正義如何在自動駕駛責任體系的構建中發揮作用;二是最大化最小值算法如何轉化到教義學框架中,以實現對各方主體的責任認定和可責性判斷。

(一)基于算法正義的新興責任體系

基于算法正義的基本內涵,自動駕駛中的人機協作改變了各方主體的責任形態,將傳統的責任分離型安全行駛實踐轉化成由算法貫穿全局的高度結構化和聯動型的智能協作。這一轉型體現在三個方面。

1.責任主體的認定

按照當前的倫理學探討,主流觀點認為自動駕駛汽車并不具備承擔責任的主體資格,算法仍然是人類行動的代理者,其決策責任仍舊歸于人類自身。25個體或團體承擔責任的基礎在于人格的存在,比如侵權責任表明個體具備作出矯正的能動性人格,可以彌補錯誤和表達歉意,刑事責任表明行為人基于其犯罪行為而具有應受懲罰的可責性。算法的介入影響了相關主體的人格狀態,在他們的社會人格之上附加了技術人格,從而引發責任關系的變化。例如,傳統汽車生產者只有保障汽車出廠合格的責任,而對駕駛者過錯造成的損害無需承擔責任。自動駕駛汽車的生產者卻需要聯合軟件供應商對汽車的全部駕駛過程擔責,特別是要在各種復雜情境中實時防止碰撞的發生。

由于預測人機互動方式的內在復雜性和機器產品的相對自主性,讓生產者盡到充分的注意義務是很困難的。26對生產者的責任認定已經超越了傳統責任觀所內含的“自負其責”的人格意義,更多地彰顯出各方主體在萬物互聯的技術領域中越來越突出的技術人格屬性。當然,這并不意味著自動駕駛汽車的法律責任建構需要一種完全不同于傳統理論的新思路,而是要在責任主體的認定中,展現出其新興技術人格狀態,并據此調整法律制度,比如修改與汽車相關的消費者權益保護規則、交通事故認定和舉證規則等。

2.道德責任與法律責任的融合

在法律制度的發展歷程中,道德責任與法律責任呈現出逐漸分離的趨勢。法律責任包含著特定道德內涵,比如刑事責任體現了“向被告、被害人、一般公眾及刑事司法官員傳達對行為人的道德批評”。27但法律責任也蘊含著通過法律實施來維持社會合作的非道德性功能,比如提升經濟效益、激勵民眾守法等。典型的例子是緊急避險,人在緊急情況下為了避免迫在眉睫的危險而對其他人造成損失,這種做法在道德上是可責的,但通常無需承擔法律責任。這種責任分配的合理性并不在于緊急避險在道德上的可辯護性,而是通過分攤社會成員面對未知世界的連帶風險,提高社會成員應對風險社會處境的靈活性,“以犧牲他人來回避危險的妥當性,是以承認自己在緊急避險狀況中,也會為他人而犧牲為基礎”。28

3.動態的算法正義責任機制

從人機協作對責任主體和責任內涵的沖擊來看,自動駕駛之責任體系的構建需要保持動態性和開放性。責任體系的動態性體現在,法律責任體系要適應人機協作不斷深化、算法技術不斷升級的智能化社會轉型。隨著自動駕駛技術的應用越來越廣泛、駕駛數據的不斷累積,汽車應對突發狀況的機器學習能力不斷提升,對汽車生產者改善汽車性能和算法設計者更新算法的責任要求也需要動態更新。責任體系的開放性體現在,法律責任的設定和歸結既要保持教義學意義上的穩定性,同時又要兼顧算法技術的動態發展。應對碰撞情形的算法責任最能體現這種動態性和開放性,而最大化最小值的理念設計,可以保障法律責任體系的構建更好地實現算法正義。

基于上述三重轉變,自動駕駛的責任法理也具備了新的內容。在具體制度設計中,體現算法正義的自動駕駛責任體系呈現為“一元兩級”的宏觀架構。

“一元”指的是,自動駕駛責任體系追求一個統一的目標,即由自動駕駛算法決策替代人類決策,以更為安全和合乎道德的方式完成駕駛任務。自動駕駛汽車產品標準的制定、政府監管和法院對交通事故的裁決都是為了讓算法更好地運行。“兩級”包含著法律責任的教義學體系和向算法正義開放的動態責任體系兩個層級。

第一級責任包含著與法律制度體系相容的各類法律責任。駕駛與交通是社會生活的組成部分,自動駕駛實踐需要保持與社會生活的整體一致性,這意味著具體責任設計要符合社會經驗,也應當保持一定的限度,比如不能要求開發算法的程序員二十四小時監測算法的運行狀況,車主不能以自己并非駕駛者為由而拒絕賠償等。這種責任可以稱為教義學責任。

第二級責任體現在,人機協作模式下的算法決策被嵌入到法律責任體系之中,這推動了責任形態的動態調整和不斷開放。碰撞情形的不可避免性和事故數據的不斷更新迭代,使得法律責任體系需要不斷回應算法技術所產生的現實張力,最大化最小值算法主要是在第二級責任層次上為法律責任的認定和歸結提供技術和規范雙重意義上的化解方案。這種責任可以稱為證成性責任(justificatory responsibility)。

需要注意的是,這兩級責任并非以并列的方式存在,而是相互滲透和融合,共同支撐起動態的自動駕駛法律責任體系。

(二)自動駕駛的教義學責任形態

基于人機協作的決策屬性,交通行為不再是個體可控的意志行為,而是一種包含著集體意向的算法決策。在這種智能化決策網絡中,對某一主體的責任認定不應是分離的。交通出行領域的傳統法律責任劃分相對清晰,《中華人民共和國道路交通安全法》和《中華人民共和國刑法》等對交通事故的責任分配或肇事者的刑事責任作出了清楚界定。汽車所有人或者管理人的過錯是交通責任認定的主要依據,相關主體的注意義務或事故的因果關系是判斷刑事責任的主要依據。29然而,當人機協作參與到交通出行中,駕駛者成為一個享受駕駛益處但分離于駕駛過程的旁觀者,那么對駕駛者(本質上是乘客)的責任認定就是一個全新的問題,注意義務或因果關系等概念的傳統內涵無法直接適用于自動駕駛。例如,自動駕駛算法的設計者、粗心大意的司機(乘客)和誤入車道的自行車賽手之間存在著跨越時空的技術關聯,這是集體能動性的體現。傳統責任劃分的部門法界限失去了指導意義,厘清各種責任之間的邊界具有一定的難度,但從教義學視角劃分法律責任仍是有意義的。

第一,傳統意義上公法和私法、侵權責任和刑事責任的劃分具有高度的教義學穩定性,對于保障汽車質量和道路安全具有重要意義。汽車的智能化幾乎完全重構了交通的社會意義,顯著改變了法律責任劃分的社會道德基礎,也沖擊了不同部門法之間的明確界限。教義學視角可以更好地促進部門法視角的轉型,從而更好地應對智能時代的法律挑戰。例如在行政責任方面,政府承擔著把控汽車質量、維護道路交通和落實安全駕駛等責任。在自動駕駛時代,政府的監管責任將圍繞自動駕駛算法的可行性而展開。自動駕駛汽車的標準和政策通常反映了一個國家對汽車智能化的產業布局與民眾對自動駕駛汽車的接受程度,自動駕駛算法通過自我學習可以提升決策能力和水準,也能在法律規制的制度壓力之下進行動態調整。政府的任務更為立體,其應當以更為積極的姿態提升智能科技的社會化層次和動態適應性,因為“多變的交通場景、開放的網絡與數據環境以及算法自動決策因素決定了智能網聯汽車的技術標準呈現動態的、過程性的特點”。30政府監管也應當包含強制性入市測試、數據可控和無過錯賠付機制等事前、事中和事后監管多個維度。31

第二,對自動駕駛的教義學責任進行劃分,可以展現證成性責任與教義學責任的互動空間,從而促進法律責任體系的完善。一方面,智能汽車不能承擔法律責任,這會給復雜責任的分配帶來困難,比如汽車在極端惡劣的天氣中造成乘客死亡。另一方面,汽車故障和事故的歸因常常會因為算法決策過程的復雜性和不透明而被切斷。這些問題的存在恰恰反映了教義學責任的局限,體現出在人機協作框架中分析證成性責任的重要性。

自動駕駛算法的運行是對駕駛全過程的高度復雜化運算的結果,算法的失誤當然與汽車性能和算法設計相關,但不能由此教條地推斷出汽車制造商和算法設計者違反了注意義務,更不能輕易地對這些主體的失誤定罪量刑,比如讓算法設計者為事故中的乘客或行人傷亡承擔刑事責任。交通事故的法律責任劃分,需要向證成性責任開放,最大化最小值算法的嵌入將自動駕駛事務納入一種新的規范性語境中。界定算法設計者的編程(特別是應對事故的編程)責任和乘客作為所有者的責任,需要綜合幾個因素,其中包括人機協作對人的主觀狀態的沖擊、算法維護與算法自主運行之間的張力、最大化最小值算法應用的靈活性等。

基于上述兩個理由,確立和歸結自動駕駛的教義學責任應當遵循穩定性與動態性相結合的原則。由于教義學責任體系龐雜,此處僅提煉這一原則的法理內涵。

首先,應當基于算法正義進行教義學責任的體系性協調。算法帶來了社會協作的深化和社會生活的智能化,在某種程度上也體現了人類通過科技和法律進行互惠合作的前景,強化算法的社會功能和科技活力的釋放應該并行不悖。在這個意義上,我們應改變刑事責任體系,在各方主體盡到充分注意的情況下,以更為多元的方式應對風險,強化事后救濟,減少過重的刑事追責。自動駕駛的風險不同于智能技術在人臉識別、信息收集等領域的風險,后者具有高度不可控性,一旦發生風險,后果難以預估。自動駕駛風險具有可控性,而且也應當容納一定的風險。32

其次,保持教義學責任內涵的穩定性,但向證成性責任開放。責任內涵的穩定性和延續性是維持自動駕駛之社會功能的重要途徑,智能技術的巨大沖擊力需要在法律責任體系的統一性和社會生活的連續性之間得以適當化解,比如以嚴格的監管和產品責任體系避免汽車產業唯利是圖。然而,自動駕駛汽車產業將人機協作社會模式嵌入到社會生活結構后,責任的人格屬性和歸責的因果鏈條打上了機器理性的烙印,構成教義學責任的質料也應動態調整。例如,算法設計者的編程過失不能僅依賴于對設計者主觀狀態的判斷。如果設計者惡意修改某一段程序,導致汽車碰撞,這與傳統故意傷害罪并無二致。但如果設計者基于計算失誤或錯誤地置入剎車程序而致使汽車誤闖紅燈或者撞傷路人,對設計者的責任認定不能完全基于其主觀狀態,也要考量算法在道路測試中的成效、算法自身的糾錯能力、特定計算程序與其他技術協作的效率等因素。雖然設計者最終仍然可能基于其過失而承擔侵權或刑事責任,但這個歸責過程體現了法律理性與技術理性的結合,以克服實踐難題,因為絕對安全的自動駕駛技術是無法實現的。33

最后,教義學責任體系的動態性還體現在,教義學責任應當以漸進方式吸納碰撞情形中的證成性責任。在不可避免的碰撞事故中,責任分配不同于自動駕駛常態中的責任分配。算法設計者和車主都有法律責任保障汽車安全行駛,但同時也要面對碰撞發生的可能性。一旦發生碰撞,法律責任體系將以動態方式轉化為分析碰撞過程、檢驗算法決策過程和分配碰撞責任的機制,這個轉化過程需要教義學責任和證成性責任的有效銜接。由于發生碰撞是偶發事件,最大化最小值算法的運行卻是一種技術上的必然,因此,相關主體需要承擔的兩種責任形態的轉化應該保持制度上的連貫性。例如,某種品牌的汽車在碰撞事故中按照最大化最小值算法執行,造成乘客或者行人的傷亡,除了分配事故責任之外,也應當基于事故數據調整常態的教義學責任體系,這在一定程度上也減輕了碰撞情形中的歸責壓力。

四、自動駕駛的證成性責任

自動駕駛責任法理的真正挑戰在于如何應對不可避免的碰撞。根據前文的討論,最大化最小值算法是應對碰撞的最佳技術方案,同時也是體現算法正義的社會決策。但這一算法的執行不是在真空中發生的,而是需要落實在具體的法律制度和責任體系中。如果不能破解碰撞中的責任歸屬難題,則自動駕駛汽車就失去了成為現實的可能性。汽車生產者、算法設計者、車主、其他道路使用者等在碰撞情形中的責任是典型的證成性責任,其責任基礎在于參與人機協作的各方主體共同接受一種使最小損失者的利益最大化的碰撞方案。碰撞的發生是基于預先設計的碰撞算法,雖然產生了損害,但碰撞決策是符合機器道德的。問題在于,參與決策的各方主體應該承擔何種法律責任?

(一)基于最大化最小值算法的法律責任設計

解決碰撞情形下的證成性責任難題,需要以最大化最小值算法的技術邏輯和建構性道德意義為出發點,充分展示機器道德實踐中道德責任和法律責任的融合,在此基礎上確立符合算法正義的自動駕駛法律責任體系。

首先,生命安全保障的價值追求應當貫徹在自動駕駛算法設計和應用的全部環節之中,但算法主導的駕駛過程中的價值狀態與司機主導的駕駛過程中的價值狀態有所不同。一旦出現不可避免的碰撞情形,最大化最小值算法將駕駛語境瞬時轉化為由算法進行道德決策的計算化語境,其結果是基于保護最小損失者的利益而分配損害。這個轉化所引發的責任問題不在于誰應該為最終的損害負責,而是最大化最小值算法是否以合乎道德和正義的方式進行決策。人們可能會誤認為這種思路是將生殺予奪的大權交給冷冰冰的代碼和程序,然而這恰恰是人機協作對人類未來的智能化所作出的貢獻。

其次,碰撞的可計算性使得法律責任的基礎和內涵都發生了變化,責任的證成性體現為法律責任與道德責任的融合,以及機器道德的嵌入性。在不可避免的各種碰撞場景中,由于碰撞的損害結果是執行最大化最小值算法的正義方案而產生的,各方主體進入到一種“技術上的必然抉擇”。由此產生的道德責任也不同于常態社會互動下不得互相傷害的道德責任,這種責任并不體現不能對人造成傷害的道義論約束,而是基于嚴格的技術研發、充分的智能輔助、動態的政府監管和充分的公眾參與而形成的深度協作要求。相比于避免事故損傷的目標,最大化最小值算法的實際應用對社會協作提出了更高的道德要求。法律責任也相應地轉化為保障機器道德的規范要求,即在社會合作轉化為機器指令的過程中,各方所應承擔的具體責任,比如汽車生產者以適應算法運行的方式打造零部件,算法設計者準確地設計計算程序,政府部門建造智能化的道路基礎設施。碰撞算法的設計不僅意味著通過技術手段防范風險和損害,而且還以法律形式保障自動駕駛算法運行的人機協作環境和技術支持。

最后,最大化最小值算法的運行產生了新興法益和責任歸屬關系。傳統駕駛實踐的法益在于交通安全,自動駕駛既要追求交通安全,也要追求機器決策的可控性。最大化最小值算法以安全為首要價值追求,但同時也包含著在碰撞中執行道德指令的決策機制。碰撞中的法益并不體現在人的生命或財產不可受損,而是體現在算法要以正義和合理的方式對待碰撞中的每個個體。另外,參與各方在碰撞中形成了基于算法決策的道德關聯,相應地產生了各種形式的法律責任。

最大化最小值算法有助于幫助我們重新理解交通出行中的侵權責任與刑事責任。當前的研究通常都是分別針對這兩種責任形態進行探討的,從而忽視了兩種責任高度融合的潛力。由于駕駛過程的完全智能化和駕駛決策的人機互動性,侵權法和刑法實踐中的傳統概念需要被賦予技術屬性,比如算法失靈導致的產品質量瑕疵。汽車剎車失靈或者輪胎故障是很容易判斷的產品瑕疵,但算法失靈卻是一種非常新穎的計算故障,可以體現為程序員植入錯誤的代碼、計算程序紊亂、算法與傳感沖突(比如錯將車身上的廣告畫當作真實動物)等多種形式。不論這些故障是否造成實際的事故,我們都很難斷定這些可能發生的故障是否應被允許,誰應該為算法失靈負責,以及應當承擔的是侵權責任還是刑事責任。

(二)刑事責任認定

在碰撞發生后,對汽車生產商或者車主進行刑事追責并無意義。按照達夫的主張,對某一行為的定罪體現了對罪錯的權威性和共同的譴責。34最大化最小值算法的執行不會產生社會譴責的情感空間,也缺乏刑事追責的人格載體。

首先,通過刑法的懲罰措施對經過預先計算的可預見的風險進行防范并無充分的法益基礎。35更合理和務實的方案是事后救濟,特別是完善事故保險機制,或者實施人工智能儲備金制度。36有學者認為,應當“基于自動駕駛整體在安全性與社會利益方面的巨大技術優勢而容忍極端情況下的低概率的技術邊界問題及兩難困境下的無法避免的損害”。37這并不意味著免除了汽車生產者和算法設計者在事故發生上的法律責任,而是強化了他們在將交通事故納入計算社會網絡中的獨特角色,其中包含著對每一種可能的碰撞情形的充分倫理評估,對碰撞之損害救濟的完善機制的構建,以及在每個具體個案中如何釋放出算法決策最優化和公平分配法律責任的理想方案。

在傳統駕駛實踐中,安全意識的提升和碰撞事故的減少需要駕駛員的嚴格訓練和持續的社會動員。而在智能駕駛時代,這一任務將由算法完成。立法決策者的主要任務就轉變成規范自動駕駛技術的研發,提升自動駕駛的人機信任,以及在碰撞事故中確立符合算法正義的損害救濟方案。

其次,自動駕駛汽車在行駛過程中存在著潛在干擾因素,可能會觸發碰撞算法的執行,比如疲勞駕駛的大卡車司機、闖入道路的行人等。最大化最小值算法的實施不具有可責性,但司機和行人造成了算法執行的后果,應當承擔刑事責任。

最后,自動駕駛算法的設計并非一項簡單的工程,需要汽車生產者、程序設計者、數據分析方和交通部門共同參與到算法研發、標準設立和實施保障的系統工程中,并創造出新的社會價值空間和法益。如果汽車生產者為了吸引顧客,刻意在碰撞算法設計中向乘客過度傾斜,則破壞了算法運行的公平性。盡管從傳統社會經驗來說,汽車生產者應該追求購車者的最大利益,但在自動駕駛時代,算法公平嵌入到交通實踐中,汽車的終極價值追求不是絕對保護乘客,而是預防事故的發生,并在碰撞不可避免的情況下作出符合算法正義的抉擇。

(三)民事責任認定

在民事責任方面,最大化最小值算法的影響可以體現為兩個方面。

一方面,民事責任的社會基礎具有人本性和技術性兩個維度。算法技術雖然替代了人類決策,但并未取代人的主體地位,民事責任的設計仍然要體現人本性。汽車生產者、軟件服務商、車主和保險公司等各方所形成的民事法律關系不僅體現了平等主體之間的尊重,也承載著在智能時代共擔科技風險、創造算法正義得以實現之公平環境的共同使命。

另一方面,民事責任體系特別是侵權責任體系的設計,應當在最大化最小值算法運行邏輯的基礎上有機融合教義學責任和證成性責任。例如,過錯責任是侵權責任的主要類型,在自動駕駛汽車所造成的損害責任中,嚴格責任將替代過錯責任成為主流。比如算法失靈導致汽車撞向路邊,則算法設計者應當為損失承擔責任。但在執行最大化最小值算法所導致的碰撞事故中,嚴格責任和過錯責任的傳統二元劃分難以應對這種新情形,不妨采用理性機器人標準化解這一難題。38如果在碰撞中,汽車根據最大化最小值算法作出了碰撞選擇,則算法決策符合理性機器人標準,由此造成的損失屬于人機協作為追求正義而付出的必要代價。對算法設計者或車主進行追責的基礎不在于這些主體的過錯或嚴格責任,而在于算法替代人類決策之風險的公平分配。

(四)最大化最小值算法的實踐應用

目前,自動駕駛汽車的研發和測試正處于政策調試階段,即通過技術開發和政策激勵并舉,為自動駕駛汽車上路做預備工作。39國內自動駕駛汽車行業的領頭企業如百度Apollo、小馬智行和文遠知行等在經歷行業的資本喧囂后,已將研發重點放在提升自動駕駛的技術可行性之上。從我國相關政府部門的政策導向來看,自動駕駛汽車的全面合法化仍未列上日程,但政策環境將越來越寬松,在智能經濟引擎的驅動之下,自動駕駛汽車上路指日可待。然而,如果自動駕駛的倫理和法律挑戰沒有化解,實現這個目標仍會遇到阻礙。根據當前行業發展動態和研究現狀,探究自動駕駛的算法正義和法律責任體系具有以下三方面的意義:

第一,為自動駕駛立法提供理論動力。

自動駕駛對既有法律制度的沖擊是巨大的,自動駕駛立法也面臨諸多難題。40《道路交通安全法》首先需要修改,《民法典》和《刑法》關于汽車侵權和交通犯罪的內容也需要重構。鑒于學界對自動駕駛法律責任的研究愈發深入,我國應當通過立法開放更多的道路測試,特別是高速公路測試,為自動駕駛算法的優化和駕駛數據的積累提供制度支持。41除此之外,關于汽車質量標準、道路標準、汽車數據和商業保險的相關配套規范也應及時更新,與汽車質量監管相關的立法可以伴隨著自動駕駛汽車行業成熟、汽車智能層次的迭代而漸進式進行。42但對于責任分配的法理難題亟需在當下作出回應,以推動更全面的立法開展。

第二,為自動駕駛汽車行業的技術研發和場景測試提供理論指導。

百度Apollo和文遠知行等知名車企在北京和廣州等城市已經獲得多張無人化道路測試牌照,二者也擁有在美國加利福尼亞州進行道路測試的牌照。毫無疑問,算法研發與道路測試相結合可以大大提升技術可行性。然而,自動駕駛技術的進展仍面對很多掣肘。一方面,“工欲善其事,必先利其器”,道路測試是一種“理想化”測試,以零事故為追求,成熟的自動駕駛算法需要具備應對碰撞情境的決策方案,但道路測試并不具備這種訓練條件。另一方面,成熟的自動駕駛算法應當包含應對碰撞的決策模型。但根據相關討論,這種模型預設著特定的倫理和法律立場,自動駕駛汽車企業作為行業利益主體,并不是決定算法之道德立場和法律責任形態的適格主體。43最大化最小值算法及其相應的責任分配可以為汽車影像識別、感知和決策算法群的協調方案提供倫理引導,并為仿真道路測試的場景建構增加倫理分量。

第三,為公眾參與和享受科技成果奠定社會基礎。

社會公眾是智能革命的直接受益者,但由于自動駕駛技術過于前沿,以及特斯拉和蔚來等裝載輔助自動駕駛技術的汽車發生的事故,公眾對3級以上自動駕駛汽車的安全性充滿疑慮。通過展現自動駕駛汽車的安全保障和在碰撞情形中的決策邏輯,可以部分消除公眾疑慮。伯格曼等研究者認為,可以通過獲取公眾對碰撞算法之道德選擇的共識而優化算法的設計。44倡導最大化最小值算法,有助于在立法者、社會公眾和汽車行業之間打造一種暢通的對話和審議機制,建立公眾信任,通過公眾參與來促進負責任的算法研發和測試。

結 語

作為人工智能實踐應用的極致,自動駕駛將帶來一場技術革命,包括重構交通運輸模式和人類出行方式,同時也引發各個層面的巨大挑戰。回應自動駕駛引發的社會、倫理和法律挑戰,需要以自動駕駛算法的設計為核心而展開。道德和法律實踐以正義為追求,算法正義因而成為自動駕駛算法設計的首要倫理準則和價值追求。自動駕駛算法的道德基礎、決策結構和法律責任應對等需要在算法正義的框架中進行理論建構,而碰撞情境是展現這些任務的試驗田。如果自動駕駛算法無法克服碰撞難題,那么自動駕駛汽車就不具備實踐可行性。在眾多理論模型中,最大化最小值算法具有應對碰撞難題的更好的理論力量,也能夠彌合自動駕駛倫理爭議與法律責任之間存在的鴻溝。從自動駕駛算法設計到自動駕駛汽車上路,仍然需要經過大量的技術升級、道路測試和政策評估,這條路可能會比較漫長。除了攻克技術難關,自動駕駛的正義和責任難題是亟需回應的核心議題。基于對算法正義的追求,以一種反思平衡模式下的最大化最小值算法重構道德和法律實踐,是迎接智能社會的應有姿態。


責任編輯:普通編輯
本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
^