摘 要:對自動駕駛汽車交通肇事時刑事責任主體的確定,既要考慮自動駕駛的水平分級,又要在準確理解傳統刑法理論的基礎上進行分析。在當前弱人工智能背景下,不應認為自動駕駛系統可以成為犯罪主體。對駕駛員和使用者能否構成犯罪,應著重分析其對肇事結果有無過失,即便在高度自動化和完全自動化場合,留在車上的駕駛員和使用者仍有可能構成犯罪。雖然自動駕駛汽車的整車、零部件或程序的設計者、生產者、銷售者可能因為生產、銷售不符合安全標準的產品而承擔產品責任或刑事責任,但由于他們對具體的駕駛違章行為所致具體肇事結果不可能預見和避免,無法對具體肇事結果產生注意義務,因而不能構成交通肇事罪。
關鍵詞:自動駕駛;人工智能;交通肇事;刑事責任
隨著人工智能技術的突飛猛進,自動駕駛汽車逐漸從理想變成現實,各國汽車產業逐漸向自動駕駛方向發展,并取得了驚人的成就,但各種風險也隨之而來,自動駕駛汽車交通肇事案時有發生,引起了人們的關注和擔憂。誰應當對這種交通肇事承擔刑事責任?是汽車的設計者、制造者、銷售者,還是駕駛者和使用者,甚至是已經高度智能化的自動駕駛系統?這成了刑法學界不得不認真研究的問題。本文擬在現行研究的基礎上,就自動駕駛汽車交通肇事的刑事責任問題展開探討,以求拋磚引玉。
一、自動駕駛的定義和分級問題
目前,對于何謂自動駕駛,并無統一的定義,但我們可以參考國家部委、北京市、上海市和國際汽車工程師協會(SAE)頒布的規定,作為本文探討的基礎。
根據北京市2018年8月頒布的《北京市自動駕駛車輛道路測試管理實施細則(試行)》的規定,自動駕駛是指汽車能夠在沒有駕駛員干預的情況下,自己在道路上駕駛前行。根據上海市2018年2月頒布的《上海市智能網聯汽車道路測試管理辦法(試行)》的規定,自動駕駛有三個等級:有條件自動駕駛、高度自動駕駛、完全自動駕駛。其中,第一級是指駕駛系統可以完成所有駕駛操作,但駕駛員需要留在汽車上準備隨時接管駕駛;第二級是指駕駛系統可以完成所有駕駛操作,并可能向駕駛員提出請求,但不要求駕駛員響應;第三級是指駕駛系統可以完成所有駕駛操作,完全不需要駕駛員介入,在這種情形下,汽車上可能根本沒有人,或者有人卻完全不懂駕駛技術。其后,工業和信息化部、公安部、交通運輸部2018年4月3日頒布、5月1日起施行的《智能網聯汽車道路測試管理規范(試行)》,以及杭州市2018年7月16日頒布、8月20日起施行的《杭州市智能網聯車輛道路測試管理實施細則(試行)》中的內容與上海市的規定幾乎完全相同,其他城市如長沙市、濟南市、肇慶市等均對國務院部委的規定制定了實施細則。
國際上廣泛參照適用的標準,是由SAE于2018年6月修訂的自動駕駛相關術語的分類和定義,將自動駕駛技術分成第零到五級,如下表。
其中,第零級是無自動駕駛(No Driving Automation),需要由駕駛員完成全部駕駛任務;第一級是駕駛員輔助(Driver Assistance),仍由駕駛員操控汽車,但配有橫向或縱向運動自動駕駛系統之一;第二級是部分自動化(Partial Driving Automation),同時配有橫向和縱向運動自動駕駛系統,但需要駕駛員負責對對象和事件進行檢測和響應,并監督自動駕駛系統;第三級是有條件自動化(Conditional Driving Automation),可以由自動駕駛系統完成全部駕駛任務,但是駕駛員必須在汽車內,當駕駛系統出現故障或者發出警告或提醒時,駕駛員要及時接管駕駛,自動駕駛系統要具備安全警告提醒功能;第四級是高度自動化(High Driving Automation),持續性的和特定操作設計領域(Operational Design Domain-Specific Performance)的駕駛任務,均由自動化駕駛系統完成,并且不需要使用者回應系統的提示,在系統發出提示時,如果使用者拒絕回應,則汽車應當自動采取措施安全停靠,自動駕駛系統要具備緊急制動功能;第五級是完全自動化(Full Driving Automation),汽車能夠在任何條件下進行自動駕駛,完全不需要駕駛員響應系統的提示。在第一級和第二級中,駕駛系統只是汽車的安全性能升級,能夠實現對車輛在部分工況下的縱向或橫向控制,從而與不能完成這一完整過程的輔助類自動化系統不同;第三、四、五級才是真正的自動駕駛。
盡管我國的分級與SAE的分級不同,我國是分為有條件自動駕駛、高度自動駕駛、完全自動駕駛三級,而SAE分為六級,但是兩種分類在實質上并沒有差異,因為真正意義上的自動駕駛,只能是從有條件的自動駕駛開始,到無條件的自動駕駛結束,只應涵蓋SAE分類中的第三、四、五級。顯然,由于各階段自動駕駛的程度不同,在發生交通肇事時,各相關主體的行為對肇事結果的原因力也不同。在非自動駕駛的第零級至第二級,除了共同犯罪之外,基本上不涉及駕駛員之外的人構成交通肇事罪的問題。而在第三級,由于是由自動駕駛系統和駕駛員共同完成駕駛的,因而涉及責任分擔問題。在第四級和第五級,由于沒有駕駛員或者駕駛員無須負責駕駛操作,因而主要涉及自動駕駛系統或其背后的設計者、生產者、銷售者和使用者應否承擔刑事責任的問題。
二、自動駕駛系統能否承擔刑事責任
如前所述,在SAE分類中的第零至二級,由于至多只有一些輔助類自動化系統,還不能夠自動地持續地完成感知、認知、決策、控制、執行這一汽車駕駛完整過程,尚不涉及自動駕駛系統能否承擔刑事責任的問題。在有條件限制的自動駕駛系統中,雖然駕駛任務是由駕駛員和自動駕駛系統共同完成的,但很顯然的事實是,在這兩者之間仍然只是人和工具的關系,主動權仍在于駕駛員,駕駛員可以不使用自動駕駛而只使用物理駕駛,因而在通常情況下仍然應當由駕駛員對交通肇事承擔刑事責任。但是,當自動駕駛系統出現駕駛員無法控制其后果的系統故障時,比如駕駛員想接管駕駛卻接管不了時,則存在駕駛員與自動駕駛系統的設計者、生產者、銷售者之間的責任分配問題。在極端情形下,可能出現駕駛員對系統故障的后果無法預見或者無法避免因而沒有過失,而只能由自動駕駛汽車的設計者、生產者或銷售者承擔產品責任甚至刑事責任的問題,但自動駕駛系統本身仍然不能夠成為刑事責任主體。
而在第四級高度自動化和第五級完全自動化中,由于沒有駕駛員或者駕駛員無須對汽車駕駛進行任何干預,所以,除非駕駛員能夠主動采取措施防止事故發生卻故意或者過失不采取,否則駕駛員不承擔刑事責任,而應當由其他主體承擔責任。此時,由于自動駕駛系統具有高度智能,能夠對路況、交通標線、交通標志、街道照明以及自然環境進行辨認,能夠控制各種駕駛行為,因而,對這種辨認和控制能力是否等同于刑法上的辨認和控制能力,就成為爭議較大問題。
肯定說認為,人工智能產品能夠通過機器學習逐漸形成自己的人格,產生自我意識,能根據一定算法對海量數據進行機器學習進而掌握相應技能和倫理、道德、法律知識,符合從生活經驗中學習進而養成人格的特征;由于機器學習的片面性和專業性,人工智能產品的性格和習慣的形成具有局限性,只能在其用途范圍內證成人格;雖然人工智能產品不具有生命,但它同樣具有特定的思維能力和對刑罰進行感知的能力,具有一定的自主意識以及辨認能力和控制能力,能夠通過圖靈測試,并且其行為能力是真正的而不是擬制的,因此需要刑法約束。德國學者希爾根多夫教授認為,將智能機器人基于程序而進行的動作表述為“意思控制”也是可行的,既然許多國家都承認法人團體能夠承擔民事責任和刑事責任,那么承認智能機器人可以承擔刑事責任也未嘗不可,而由于21世紀的腦科學研究表明人的意思是不自由的,法學上所謂意思自由不過是一種法律擬制,因此將機器人擬制為具有意思自由也不存在障礙。更加極端的觀點認為,自主意識可以從軟件工程師編寫的神經細胞類代碼以及由電學元件組成的模擬神經元中產生出來,因此人工智能也具有自主意識。
否定說認為,雖然在第四、五級自動駕駛情形下,機器人具有高度自主的判斷認知能力,但是以人類為適用對象而制定的刑法并不能夠適用于機器人,蓋因人類的本質在于具有自我意識和自我反思能力,而弱人工智能系統還沒有能力進行自我反思和自我意識,還不會區分不法和罪責,不能承擔刑罰后果,只能實施純粹的物理行為,因此不能將其與人類行為同等評價,不能認為自動駕駛汽車可以實施犯罪。還有學者認為,承擔刑事責任的前提是具有認識能力和意志能力,以具備完全的心智即辨認能力和控制能力為前提;雖然人工智能具有很強的智能特征,但那只是某一領域內的自律能力,與完全刑事責任能力的本質不符;即便未來出現強人工智能甚至超人工智能,也不能在立法中和司法中認可其具有刑事責任能力。還有學者認為,無人駕駛汽車本質上屬于弱人工智能,不具有辨認能力和控制能力,只能在程序預先設計和編制的范圍內進行駕駛操作,以便實現汽車操控者的意志。
本文認為,人類制造自動駕駛汽車的目的,是為了解放駕駛員的雙手,以讓機器更好地為人類服務,而不是要制造出一個跟人類幾乎一模一樣的新物種。且不說人類有無能力制造出各方面能力都趕超人類的強人工智能,即使真有能力制造出強人工智能,恐怕也沒有人敢于購買一輛裝備有強人工智能的自動駕駛汽車,因為,在邏輯上,既然該汽車具有自我意識,其完全可能未經主人同意而自動駛離車庫,自動駕駛至它想要去的任何地方,顯然,設想這樣的場景將很荒謬。而在目前弱人工智能背景下,無論是高度自動化還是完全自動化的無人駕駛,都不能認為駕駛系統已經產生了一定的自主意識、能夠感知刑罰的痛苦、需要作為獨立主體獨立承擔刑事責任,肯定說者的想法過于浪漫,有混淆現實與科幻之嫌。雖然,對于自動駕駛系統的辨認能力和控制能力與人類的辨認能力和控制能力有何區別、能否在法律上等同視之,更主要是一個刑事政策方面的問題,正如刑法創設單位犯罪主體是刑事政策的需要一樣。但是,至少從目前現實情況來看,自動駕駛系統不過是由汽車的機械零部件來執行一些駕駛功能的電腦程序,其不可能產生任何人類意識,不可能感知或預見到刑罰的痛苦而選擇不實施交通肇事行為,若沿用通常過失犯罪理論來對自動駕駛系統科以預見或避免具體駕駛行為可能導致肇事結果的預見義務或回避義務,均是荒誕不經的。將自動駕駛系統的深度學習能力等同于人類的學習能力更是無稽之談,諸如“程序員編寫的一段神經細胞類代碼”“機器人通過學習形成人格”等言語都是不知所云。
三、駕駛員能否承擔刑事責任
在SAE第零至二級的非真正自動化中,由于尚無真正的自動駕駛系統,如果發生交通肇事,仍只應當考慮駕駛員對肇事結果主觀上有無過失,即使有一些輔助類自動化系統,其也只是駕駛員使用的工具,無法因此將過失犯罪責任轉移到輔助類自動化系統的設計者、生產者或銷售者身上。因此,在發生交通肇事之后,應當考慮駕駛員有無違背注意義務,能否構成交通肇事罪,如果導致駕駛員操作失誤的原因是輔助類自動化系統出現故障,則他們可以起訴該系統的生產者和銷售者,要求兩者承擔產品責任。
在SAE第三級和我國第一級有條件限制的自動化中,雖然自動駕駛系統能夠單獨完成全部駕駛任務,但是,由于駕駛員需要坐在駕駛位上準備隨時接管駕駛,當其發現系統出現故障或者駕駛系統發出警告或提醒時,其應當及時接管駕駛,由于未能及時接管駕駛而未能避免交通肇事的,駕駛員可能存在應當預見而沒有預見,或者已經預見而輕信能夠避免的過失,可能構成交通肇事罪。如果駕駛員對具體肇事結果未能預見或者未能避免的原因,主要是自動駕駛系統發生故障,比如,駕駛員想剎車卻剎車不了、想接管駕駛但系統不聽使喚,則可能存在駕駛員和自動駕駛系統對肇事結果的責任分配問題。此時,如果認定自動駕駛系統對肇事結果存在“過失”,則屬于所謂“過失競合”問題。不過,本文認為自動駕駛系統的故障不屬于刑法上的“過失”,而僅屬于一種產品質量缺陷,應當由其生產者或銷售者承擔產品責任或者刑事責任。
有學者假設了另一種“競合”情形,認為當駕駛員和自動駕駛系統由于信息不對稱導致誤判引發交通肇事時,不能讓駕駛員承擔刑事責任。比如,雖然駕駛系統沒有看到道路交通臨時管制警示,但由于駕駛系統沒有要求駕駛員接管導致駕駛員誤以為駕駛系統也看到了,因而沒有及時接管駕駛而引發肇事。又如,駕駛系統通過信息網絡接收到新的路況信息,但駕駛員卻誤以為駕駛系統發生故障而強行干預而引發肇事。在這兩種情形下,駕駛員不應構成交通肇事罪,因為,一方面,不能苛求駕駛員在自動駕駛模式下仍然時刻監測駕駛環境和行駛狀態,而應允許其對駕駛系統保留合理信賴,只要沒有被要求接管駕駛,即使已經預見到前方有危險但相信駕駛系統能夠避免,也不能認定其存在過失,否則自動駕駛將失去存在的意義;另一方面,雖然駕駛系統沒有要求駕駛員接管,但如果駕駛員有理由相信自動駕駛將違規或有肇事危險而強行干預,即使由于干預引發肇事,也不能認定他存在過失,因為他是為了遵守交通規則而干預的,主觀上沒有違反道路交通安全法規的故意和過失,也沒有違法性認識的可能性。
本文認為,暫且不論以上假設的情形能否出現,即使真能出現,也不能一概否認駕駛員存在過失,因為,如果駕駛員對其誤判形勢本身存在重大過失,明顯不應當誤判而誤判因而導致交通肇事,則沒有理由不承擔過失責任。例如,當發現汽車前面八米之內(若再近一點就剎不住車)有行人橫穿馬路而自動駕駛系統毫無反應時,就應當想到自己應立即接管駕駛并緊急剎車,而不應當盲目相信自動駕駛系統能夠避免撞到行人。反之,當駕駛員完全按照交通規則干預駕駛時,自然也談不上違反交通運輸管理法規構成交通肇事罪的問題。實際上,駕駛員不僅可能構成過失犯罪,而且可能構成故意犯罪,例如,當駕駛員發現汽車前面八米之內有行人橫穿馬路而汽車沒有任何自動減速或者停車的跡象時,在能夠命令自動駕駛系統停車或者關閉自動駕駛系統的情況下,卻不采取任何措施而放任汽車繼續行駛撞死行人的,其主觀上對撞死行人的結果就存在放任的間接故意。
在SAE第四、五級和我國第二、三級的高度自動化和完全自動化中,由于汽車被設計成完全自動駕駛而不需要駕駛員干預,此時,雖然汽車上可能有駕駛員,但由于駕駛員只需要對駕駛系統發出簡單指令而不需要接管駕駛,引發交通事故的責任應主要由自動駕駛系統背后的設計者、生產者或銷售者承擔。不過,也不能排除駕駛員承擔過失甚至故意責任的可能性,例如,當駕駛員發現自動駕駛系統明顯不正常,即將撞上行人或者其他車輛,而自己能夠命令自動駕駛系統立即停車,卻故意不下命令或者由于過于自信過失而未下命令的,也應當承擔刑事責任,不能借口汽車處于高度或完全自動化模式來免除自己的責任,否則,既不符合通常故意、過失理論,又會縱容駕駛員的惡意行為。
四、其他主體能否承擔刑事責任
在傳統駕駛環境中,除了共同過失犯罪和教唆他人故意犯罪之外,瑏瑡一般僅駕駛員構成交通肇事罪。而在SAE第三、四、五級及我國的分級中,除駕駛員可能構成交通肇事罪以外,自動駕駛系統的研發者、制造者、銷售者和使用者,是否可能因產品存在的缺陷引發交通事故而承擔刑事責任,則有較大爭議。
否定說認為,注意義務不是抽象的而是具體的,不能因為設計、生產或使用自動駕駛汽車可能引發交通事故而理所當然地對設計者、生產者或使用者追究過失犯罪責任,否則無異于承認嚴格責任。由于設計者、生產者或使用者不可能預見到自動駕駛期間可能出現的各種意外,即使自動駕駛引發交通事故,也不宜認為他們對該事故能夠預見或能夠避免,無法認定其存在注意義務。只有設計者或生產者在設計或生產時違反了國家標準或行業標準,或者使用者在駕駛時違反了操作規程,才可能認為他們違反注意義務,否則,就不能認定他們構成過失。
肯定說認為,由于自動駕駛汽車中不存在傳統汽車中的駕駛員,因此自動駕駛汽車犯罪中的注意義務應當有其特征。在傳統過失犯罪中,結果避免義務是由行為人履行的,其履行義務具有即時性與當場性,其注意義務是一種直接的結果避免義務。而在自動駕駛汽車犯罪中,除了跟車的輔助操作者以外,其他主體均不在交通事故現場,難以親自避免交通肇事,因此其對結果的避免義務具有先期性和前瞻性,其注意義務是一種間接的結果避免義務,因此不能用傳統過失理論來解釋自動駕駛汽車交通肇事中的過失。并且,自動駕駛汽車的整車或者零部件或者軟件的研發者、制造者和銷售者,都應當承擔保證汽車安全行駛的基本注意義務,其研發、制造或銷售的產品應當具有基本的警告或提醒功能。不過,其注意義務在特定場合可能為“被允許的危險”所阻卻,例如,如果人工智能系統根據學習算法生成的新規則而做出決斷或改寫程序,因而導致交通肇事的,就是制造商、程序員等人難以預料和控制的被允許的危險,阻卻其注意義務。
本文贊成否定說,因為,所謂注意義務,是指行為人對某一具體行為所可能導致發生的具體結果的預見和避免義務,不是對抽象的某一類行為可能導致什么樣結果的預見和避免義務。即使在故意犯罪中,行為人所明知并且希望或放任發生的,也是具體行為所可能導致的具體結果,而不可能是諸如“用刀砍人可能導致人死亡”之類的抽象判斷。換言之,所謂對結果的故意或者過失,是指具體行為人對某一具體行為所可能導致的結果的故意或者過失,不是對抽象的行為類型可能發生什么樣結果的抽象判斷,刑法上也不可能讓任何人對這種抽象判斷承擔刑事責任,否則,就不是對自己的行為承擔刑事責任,而是因評判者的抽象判斷而承擔責任,將違背責任主義原則。就交通肇事罪而言,僅僅違章駕駛并非交通肇事行為,比如,行為人醉酒、超速、疲勞、吸毒后駕駛長達十幾個小時,只要尚未發生交通肇事,就不能說行為人這十幾個小時一直在實施交通肇事行為,也談不上對“結果”的預見和避免義務問題。只有當汽車前面出現了其他車輛、行人或者其他障礙物,不及時采取應對措施將立即引發交通肇事時,才能認為行為人對這種可能立即發生的肇事結果產生了預見和避免義務。此時,無論是應當預見而沒有預見,還是已經預見但輕信能夠避免,都屬于對即將發生的具體肇事結果的過失,而不再是對某一類行為可能引發什么樣結果的抽象判斷。如果根據抽象判斷來認定過失,將導致在邏輯上不得不認為任何可能導致危害結果的行為都是過失行為,無論行為與結果之間的聯系多么間接,無論行為人對具體結果能否預見,而這顯然是不可能的,會導致禁止所有危險行為。因此,脫離具體行為與具體結果抽象地判斷某一類行為可能引發什么樣的結果,進而考慮相關主體應否對其抽象判斷承擔刑事責任,實質上并非在考慮行為人對具體結果應否承擔刑事責任的問題。
顯然,在自動駕駛汽車交通肇事場合,除了在汽車上的駕駛員可能對具體的即將發生的肇事結果具有認識到的可能性,因而會產生具體的預見義務和避免義務之外,該汽車的生產商、銷售商、硬件的生產者或程序的研發者,都不可能對某一具體的肇事行為及肇事結果具有預見和避免的可能性,不可能對此產生預見和避免義務。肯定說關于自動駕駛汽車犯罪中的注意義務與傳統過失犯罪中的注意義務不同的觀點,僅僅是他的一種結論,而沒有具體論證為什么能得出這種結論,為什么這種結論就比傳統過失犯罪理論更加可取,因而難以令人信服。并且,認為只要對產品質量缺陷存在過錯就能成立交通肇事罪,而無論處于產品或零部件設計、生產、銷售的哪一環節,也與人們對交通肇事罪的理解大相徑庭。不過,否定說認為肯定說贊成嚴格責任的觀點也不正確,因為,所謂嚴格責任,并非不要求故意或過失,而只是在程序上不要求控方舉證證明行為人具有故意或過失,不要求故意或過失的是“結果責任”而不是“嚴格責任”。
此外,還有學者認為,如果車載智能系統的設計者(汽車制造商)故意設計(生產)出有缺陷的系統因而造成嚴重交通事故,則由于汽車已經成為行為人的犯罪工具而應對其以故意殺人罪等犯罪論處,但如果是過失地設計或生產出有缺陷的系統,則不宜以犯罪論處,否則將會對設計者(生產者)科以過高的注意義務,從而阻礙科技進步和研發。如果零售商明知自己銷售的自動駕駛汽車存在重大缺陷和安全隱患而依然銷售,則應以銷售偽劣產品罪論處。瑏瑤這種觀點也不妥當。因為,正如生產甲醛超標的復合地板的人不可能構成故意殺人罪一樣,生產不符合安全標準的產品的汽車制造商,即使主觀上明知其汽車存在重大安全隱患,可能導致不特定人死亡,也不可能就發生于某一具體對象身上的死亡結果構成故意殺人罪,因為他根本沒有針對某一具體對象,也不可能明知其行為會引起某一具體對象死亡,因此并不符合殺人故意的定義。正如生產、銷售假酒的人明知假酒可能致人死亡而仍不構成故意殺人罪一樣,又如建設單位、設計單位、施工單位、工程監理單位明知其違章建筑可能導致他人死亡仍然降低工程質量標準仍不構成故意殺人罪一樣。對于故意生產、銷售不符合安全標準的自動駕駛汽車的行為,可以適用刑法第146條以生產、銷售不符合安全標準的產品罪論處,但是對于過失生產、銷售不合格產品的,現行刑法中并無相應的罪名,也不應當按過失以危險方法危害公共安全罪論處。需要強調的是,這里的生產者、銷售者是對自己故意生產、銷售不符合安全標準產品的行為承擔刑事責任,而不是對他人使用自動駕駛汽車導致交通肇事的行為承擔刑事責任,交通肇事結果只是生產、銷售不符合安全標準的產品“造成嚴重后果”的一種表現而非生產、銷售行為本身,因此,不存在生產者、銷售者對交通肇事結果承擔監督過失責任的問題。自動駕駛汽車的生產者、銷售者對購買者、使用者應當如何使用汽車也不存在刑法中所謂過失犯罪的監督、管理義務,正如工業機器的生產者、銷售者不可能對購買者安全地使用機器具有刑法上的監督、管理義務一樣。
至于自動駕駛汽車的使用者,如果同時是留在車上的駕駛員,則其刑事責任與通常駕駛員一樣,如果是不懂駕駛技術的普通用戶,則要看其在緊急情況下能否命令汽車停車,如果能夠,則由于故意或者過失沒有命令停車的,同樣要因此承擔刑事責任,如果不能,自然談不上刑事責任問題。由于自動駕駛汽車上肯定會有接受命令停車裝置,因此使用者有可能因其故意或者過失而構成犯罪。
就自動駕駛汽車交通肇事而言,一方面,不能像科幻電影那樣假設人類已經制造出了具有自主意識的強人工智能甚至超人工智能機器人,進而認為自動駕駛系統本身可以承擔刑事責任;另一方面,也不能隨意拋棄傳統刑法理論隨意創新,而仍應當在準確理解把握傳統刑法理論的基礎上分析相關問題,否則可能違背罪刑法定原則。因此,除了汽車上的駕駛員和使用者可能構成交通肇事罪之外,諸如汽車整車或零部件或軟件的設計者、生產者、銷售者等主體,均不可能對具體肇事行為的具體肇事結果產生注意義務,不能構成交通肇事罪。雖然故意生產、銷售不符合保障人身、財產安全的國家標準、行業標準的產品者可能構成生產、銷售不符合安全標準的產品罪,但這是對其生產、銷售行為承擔刑事責任,而不是對自動駕駛汽車的交通肇事行為承擔刑事責任,嚴格來說這屬于另外一個問題。