背景:2018年5月24日下午,由龍圖教育集團支持的河南財經政法大學法學家講壇在河南財經政法大學圖書館報告廳舉行,中國人民大學法學院教授、龍圖教育法律研究院名譽院長、首席研究員楊立新做了《人工智能機器人的法律地位與自動駕駛汽車的交通事故責任》主題講座,會場座無虛席、氣氛熱烈。
楊老師:今天介紹這個題目是一個比較新的題目,就是在人工智能發展過程當中我們怎么去看待機器人的屬性,接下來同樣的問題,也是在自動駕駛汽車當中怎么樣確定它的責任。大家聽起來好像兩個題目差的還比較遠,其實兩個問題是一個問題。說到底是什么原因呢?是因為真正的自動駕駛汽車,其實就是一個運行的機器人,跟其他智能機器人一樣,都是智能機器人系列法律的事情。這些問題在民法上應該怎么考慮,怎么去規范這樣一些科學技術的發展,規范它們的產品,在發展人工智能的同時,怎么能夠讓人工智能更好的為人服務,而不至于傷害到人類自己,這也是個大的問題。
在民法典的立法中,怎樣能夠體現當代最先進的科學技術,能夠反映時代的特點,其中就涉及人工智能的問題。所以我今天給大家介紹這樣一個題目,也是想在我們民法典當中,在民法典分則各編當中,有沒有可能解決一下有關的問題。我這個題目介紹三部分,第一部分,人工智能的發展和民法的關系。第二部分,介紹一下高端智能機器人的民法地位。第三部分,是自動駕駛汽車交通事故責任的認定。
一、人工智能技術的發展與民法的關系
最近這些年來,人工智能突飛猛進,這些方面,大概最集中反映到了就是關于機器人的問題,我們現在看到很多涉及到高科技的會議,一些比較高級的會議,去報道的時候門口都會有一個機器人在那里,也會管一些事情,你問他什么會議議程他會告訴你,這是一種。
再往后大家都知道有了沙特的索非亞,到了沙特以后給公民的資格。這一下子提出問題了,人工智能機器人到底是人還是物?就提出這個問題來,這是真正的機器人,它什么都給你講,還有各種各樣的表情和語言能力,如果大家都喜歡機器人,不喜歡真人的話,恐怕得立法,再怎么喜歡機器人也得要有一個真人,這些問題都會引起法律上的問題。最后發展到比較高級的這種,大家看到就是AlphaGo,現在已經看到了,所有的圍棋高手誰也下不過它,機器人自我學習的功能,使它變得智能無比,將來會超過人類的智能。在這種情況下我們怎么對待它?
大家也提到人工智能發展到更高級階段的時候,會不會出現人類無法控制的時候?然后就提到殺人機器人,把殺人機器人做的跟蚊子一樣,你只要給它一個指令,不把人殺掉不罷休,一旦出現這種情況,會不會帶來人類災難?這樣的問題都涉及到法律的問題,就是怎么樣進行規制。對于這樣一個問題,人工智能發展下去,會不會出現人類無法控制的后果?很多人都在擔心,但是也有人提出來,也可能這是一個偽命題,也可能它根本就不是一個問題。說人工智能再怎么樣還是人工的問題,既然人能把它造出來就能夠把它控制住。
我們成立了一個未來法治研究院,曾經和北京理工大學的計算機系的教授搞過一次聯席會議,大家一起來討論這個問題,在人工智能發展上,北京理工大學的計算機學院是比較厲害的一個機構,是不是最前沿我不知道。他們現在能達到什么程度?他們的幾百架無人機可以變換隊形等等,人工智能他們正在研究過程當中。他們院長給我們講課的過程當中提到一點,人工智能技術向前發展,也可能帶來更多的好處,也可能帶來危險。但是會不會有這樣的時候?也不好說,也可能真的有問題,也可能是一個假的問題。比方說我們在科學技術發展的過程中,一直會出現這樣的問題。當然有一個比較新的科學技術發生的時候,就會帶來很多很多的憂慮,但是最后其實都沒有發生太大的事情。
前一段我們一直在討論這個問題,是不是要適當的放開人工代孕的要求,我們不可以進行商業的人工代孕,但是對于確有必要的,從情理上都應該給機會的,這樣是不是可以放開,就可以滿足人的要求,我覺得這個案件是特別重要的一個案子。
我說這個意思,當某一種很先進的科學技術出現的時候,都會帶來它的發展,發展帶來的風險,法律怎么樣規范它。我們看到它的危險以后,用法制防治解決好以后,大概不會發生嚴重的后果,不會說最后人自己就控制不了的地步。所以我想人工智能今后發展的過程,只要在我們現行的法律規范當中去補充新的規范,然后去進一步規制人工智能技術發展的情況,一個是促進它發展,另外一方面,防止人工智能出現危害人類后果的情況。
在這樣的時候,我覺得人工智能就會給我們人類帶來更多的好處,不會給人類帶來太大的災難。所以我覺得應該是這樣的。在這種情況下,民法和人工智能的發展,它們之間應該怎么去做?我覺得大概最重要的一個問題,就是在人工智能發展當中最具典型意義的就是高端智能機器人,它在民法上怎么去定位,去定位就確定了它在民法上是一個人還是一個物?像沙特給了公民資格的索非亞,它到底是人還是什么?按說是公民了當然是人,假如說中國有一個索非亞,我們會給它一個公民資格嗎?我們會給它一個公民待遇嗎?我們會給它一個自然人的身份嗎?應該不會。所以我覺得在人工智能發展過程當中民法想要解決的第一個問題就是它的民法地位問題。
接下來的機器人的民法問題,就是它的行為,它的行為是人的行為還是支配物的行為,它如果是一個人,它的行為就是自己的行為,就跟今天所有自然人的行為一樣的,它的行為就要受到民事法行為的要求,但有可能是這樣嗎?大概不太夠。一個機器人總有人控制它,有人支配它,雖然機器人帶有一些自主的行為,它仍然是人的行為,我覺得這是第二個問題。
第三個問題是什么?就是這些人工智能的機器人,它們在它們的行為當中造成了人的損害的結果,究竟怎么去承擔責任?在這個問題上,好像我們看到普通的人工智能機器人沒有這樣的責任,但是在一些特別人工智能方面的技術應用方面,它要造成損害后果呢?比方說自動駕駛汽車,當前自動駕駛汽車發生交通事故已經不是一起了,已經有十余起,對于這樣一些問題應該怎么樣去規制,怎么樣去承擔責任?這是必須要研究的問題。
這是就我從民法的角度上來講,我想關于人工智能的發展和它的規范,它和民法的關系,最起碼要解決問題,地位問題,屬性問題,還有責任,造成損害的責任。自動駕駛汽車會發生交通事故,其實你看到現在一些智能機器人,好像索非亞那種比較理智,也沒有太大的危害,但是你知道好幾個電視臺,當他們用人工智能在電視臺進行服務的時候,在網絡上進行服務的時候,它發生了誹謗的事情,因為它自己的判斷能力還是不夠,把什么人叫什么人,這樣就涉及到人格損害的問題,然后投訴他們,這個事情已經存在了,這也是責任的問題。所以這部分真的是可以很好的研究,在民法領域當中,把這些問題都考慮到了,然后做好了充分的規制,就保證人工智能技術向對人類有益的方面去發展,怎么控制它造成的損害,一旦發生損害以后怎么樣解決責任承擔的問題。這一部分是人工智能發展和民法之間的問題,這是講的第一個問題。
二、人工智能機器人的民法地位
對于這樣一些問題,現在學界都在討論,很多在研究法律的這些前沿認識,對于人工智能對民法帶來的問題都在進行討論,當然比較熱,但是說全面普遍的解決這些問題還正在探討過程當中。
去年11月份,世界侵權法學會在美國開會,用了很長時間是在討論人工智能問題,討論自動駕駛汽車的問題。也可以這樣講,關于人工智能民法的問題,其實全世界都在同一個起跑線上,在這樣的情況下,誰向前使的勁大一點,誰就在前面。所以在這部分,我覺得加強對人工智能法律規制,特別是民法方面的問題,我覺得是很重要很重要的事情,也標志著中國法學在世界領域當中地位的問題。
關于智能機器人在民法當中的地位問題,就是剛才說在民法當中的第一個問題,它到底是人還是物?在這個問題上,面對智能機器人技術的迅猛發展,可以預見到在不遠的將來,在交通運輸、醫療、看護、工業、服務業等等領域當中,智能機器人在人類社會當中應該是司空見慣的。北京理工大學的院長他講現在人工智能技術,機器人的技術大概應用最好的領域應該是醫療,當對人做外科手術的時候,人的操作總有可能會發生失誤,手一抖就可以發生失誤,機器人只要設定好了就會按程序做,這部分具有最好發展前景,就能夠代替外科醫生去做手術。這樣一種情況下,我們在生活當中會面臨越來越的機器人,甚至將來會出現很多很多和我們長的一模一樣,大家一起交流、一起工作的機器人,就是完全具有人形的機器人。在這樣一種情況下,它到底是人還是物?這是一個最大的問題。
剛才我已經列舉了例子,比如沙特的索非亞,圍棋的AlphaGo,還有現在性愛的機器人,還有保險公司和律師事務所大量應用的代替秘書的那些機器人。面對這樣一些情況我們怎么去對待它?現在在研究人工智能,研究智能機器人的時候我也是在學習過程當中,覺得有一個詞特別重要,也是人工智能不斷向前發展,人工智能機器人層次越來越高,將來甚至會超過人的思維、超過人的智慧,最關鍵的東西就叫機器學習。就是通過人的智能建立起這樣一種機器,這種機器自己可以在你給它提供智慧的基礎上再進一步整理,自己去提高,這就是我們說的機器學習,它自己一邊總結、一邊提高,然后逐漸逐漸超過了人類。就像圍棋技術,現在可能是所有的自然人的棋手也玩兒不過AlphaGo。將來這樣一種情況下,智能機器人我們怎么對待它,這是一個最大的問題。
我們怎么去看待人工智能機器人民法地位,它是人還是物?關鍵的一個問題,它有沒有人格?就是智能機器人有沒有人格,在這個問題上大概有這么一些觀點。
一個觀點,智能機器人沒有人格,這就是人格否定說,很多人認為智能機器人盡管叫人,它仍然是一種工具,這種工具比其他的工具更先進而已。在這個問題上可能會出現這樣的問題,比如說簡單的智能機器人,就說我家里那個掃地機器人,面對它的時候,你不會想到它會有人格,因為它根本就不像一個人,就像我一開始人家給我的機器人這么高,我得把它請進來,打開一看就是一個盒子,不會認為它有人格,這種情況把它認定為工具一點都沒錯。但是面對那些自己有人形,還有它自己的思維,它自己可能做一些行為的機器人,你要說它完全是工具,可能就會有疑問,這是一個問題。
除了這些否定說以外,很多肯定說。肯定說就認為它有人格,所以在法律系統的發展史上,他們認為這個主體是從自然人逐漸發展。大家看到一個最基本的事實,我們最早時候說民法的主體其實講的就是自然人,人,才有人格,不是人就沒有人格。但是后來發展到法人了,法人是一個組織,是一個團體,民法上怎么去規制它?認為它也有人格,畢竟法律承認它有人格。再結合我們中國的民法來說,我們現在不僅僅存在自然人有主體資格,不僅僅承認法人有主體資格,也承認非法人組織也有主體資格,自去年3月15號開始,我國的民事主體就變成了三種主體,都有人格。有些人認為從這樣一個過程當中,預測有一種規律,就是說人格的問題是從狹小的自然人身上逐漸發展,逐漸擴大。我們現在從自然人發展到法人,從法人發展到非法人組織,將來就會發展到智能機器人身上,所以認定智能機器人它也有人格是遲早的事情,甚至說索非亞不就是一個有人格的機器人嗎?這就是講的這種肯定說。
還有折中說,不全部承認它有人格,也不全部否認它有人格,而是有幾種說法。有人說智能機器人就是電子奴隸,這個奴隸說的是羅馬法上的奴隸,大家知道羅馬法上人是分兩種,一種是市民,有人格的,還有一種是奴隸,奴隸沒有人格,他是財產,一個人家里多富有,要看他養了多少奴隸,奴隸是沒有人格的。電子奴隸說認為我們所說的智能機器人其實就相當于過去的奴隸,它是一個電子的奴隸,它像人,但是它又不是人,但是它實質上又是人,就是這樣一個邏輯,所以把它叫做電子奴隸說。也有人把它叫做電子人格,它雖然不是自然人的人格,但是它是一個電子人格。就有點像今天說的虛擬財產,說我們財產有時在的,就是現實當中的物,這是財產,虛擬的財產,網絡當中虛擬的財產不是財產嗎?比特幣現在多值錢,昨天有人還問我,說楊老師,比如說兩個人有一批比特幣,我現在要向去申請公證,說是我們夫妻兩個人共同財產,你說公證不公證?我說你可以做公證,因為我們《民法總則》第127條已經規定了數據和網絡信息財產應該保護,應當依照法律規定,既然民法總則說了,你怎么說沒有法律依據嗎?他說他沒有說清楚它是什么財產,這倒是真的。
一個現實的物,一個虛擬的物,現實大家能看到的,還有在網絡虛擬空間當中存在的虛擬的物。我說電子人格其實說的就是可不可以講現實生活當中的人就是我們自然人團體,還有一種,其實就是人工合成帶有電子特點的人格,講的是這種。
歐盟曾經有一個文件當中提到有限人格,它不是完全的人格,它是有限的人格,在這些方面當中帶有人格的特點。現在肯定說和折中說應該是多數,否定說應該是少數。在這樣一種情況下,我們應該怎么去考慮對智能機器人民法地位的界定?這個東西不界定好的話,我們民法沒有辦法對它進行規制,你到底是人還是物?我們今天說民法上對于市民社會的認識,是人就用主體的規則,是物就要用客體的規則。我今天講人工智能機器人的時候,也必須面臨這樣一個問題,要界定它是人還是物,你界定它是人,我們就要用主體的法,要界定它是物,我們使用客體的法。這里面有一個可以借鑒的說法,我覺得它是不成立的,在剛才我介紹人體冷凍胚胎的案件當中,一審法院把這個冷凍胚胎界定叫做具有人格因素的物,說它脫離了人體,它本來應該是人體的組成部分,但是它脫離了人體以后就不是人了,它不是人,它應該是一個物的屬性,它是物的屬性的時候,它還有人格的要素里面。所以把它界定具有人格因素的物,或者叫做人格物,它畢竟就是一個物,要對它適用法律的時候應該適用物的規則。到二審法院,就是無錫市中級人民法院審理的時候,院長親自審這個案件,院長他比較人性,他說人體冷凍胚胎既不是人也不是物,是基于人與物之間的過渡存在,后來我看這個判決書好有文化。客觀描述的對不對?真的是對的,但是在民法領域當中,你必須界定它人還是物這邊的,過渡存在這個中間狀態,法律沒有辦法界定。最后判決書把它界定成人與物過渡的存在,它就沒有設定什么權利了,最后院長界定了兩個權利出來,說雙方父母爭議的是什么,他們爭議的是胚胎的監管權和管理權。我看到這個權利一愣,這個判決書在理論上說起來我是覺得有點荒唐,但是最終結果是好的,他把監管權和管理權界定給雙方四個當事人,歸他們所有,然后他就可以拿回來。最終結果是好的,所以我寫這個文章的時候,說一份標志著人倫與情理勝訴的終審判決。
在這樣情況下,它是屬于人這邊,還是屬于物這邊?一定要界定清楚才有辦法適用法律。涉及到人體冷凍胚胎的案件,也是我跟辦案的法官兩個人一人寫一篇文章,結果都一樣的,但是中間有不同看法。說是兩個人結婚了,男的在美國,后來女的也去了,兩個人生活一段時間不是很快樂,在美國期間說現在不想生孩子,先弄個冷凍胚胎,在美國醫院凍起來了,等著以后愿意生的時候再生,把冷凍胚胎放醫院的兩個人后來離婚了,女的跑回中國了。男的一想都離婚了,冷凍胚胎還在醫院,它是半年一續費,不續費醫院就廢棄了。后來這個男的就沒交費,醫院就給廢棄了。這個女的后來想想孩子還得生,找醫院,醫院說銷毀了,最后女的就開始告他老公。
這就涉及到這個問題,冷凍胚胎是什么?一審認定是有人格的,但是在判決里面說你沒有經過對方同意把冷凍胚胎廢棄了,造成了它人格的損害,然后要承擔精神損害賠償責任。我說這個有點奇怪,判決結果承擔1萬塊錢的精神損害賠償,一方面你說他侵害的是物,另一方面說直接侵害了人格的損害,這個道理講不通。我說有一個正確的裁判思維,首先界定它是物,雙方共同享有這個物的物權,共同享有的物權應該是共有權,這個案件為什么說是侵權呢?因為一個共有的物,你沒有經過共有人的同意就單方廢棄了,那當然就是侵權。這個侵權不是侵害了一個普通主體的權利,而是侵害了一個共有人的權利。這個物當中又包含精神利益的因素,包括人格的利益因素,當然得賠償精神損害。從這樣一個角度論述,可能論述的更清楚。
這里仍然也有一個問題,對這樣一個東西,今天發生爭議的東西,你要對它適用民法的時候,首先第一件事情是界定它是屬于人這部分還是物的這部分。我拿冷凍胚胎來說明,同時我們在人工智能機器人定性的時候定性人還是物,這是非常重要的。你說它是什么樣的東西?我們界定人格的時候有一些說法,一個是自然人格,每個自然人享有的人格,這是自然人格,自然人格,身體要健康,還有法人人格,還有非法人組織的人格。
有人還提出一種人格,叫做虛擬人格,這個虛擬人格說的最響的就是我一個學生,他就認為這個虛擬人格也是人格。虛擬人格指的是什么?就是我們在網絡活動當中的網民,比方我在現實生活當中叫楊立新,網絡活動的時候我也叫楊立新,大丈夫坐不改名,立不改姓。如果我在網絡上起一個“會飛的魚”,那是網絡上的名,把真名隱去了,現在主張虛擬人格的說法,說那個也是人格,網絡隱藏的人就叫虛擬人格。但是要看到一點,我們虛擬人格和自然人格是統一的。就是我在現實生活當中叫楊立新,是我的人格,叫會飛的魚的時候,我也是楊立新,這兩個人格是統一起來。歐盟管它叫做電子人格,還有說叫有限人格,這都是我們在說人格的時候。
我們在民法上到底給它叫什么?一方面叫機器人,有人贊同有人不贊同,我說了一個詞,叫人工類人格,它帶有一點人格外觀的表現,其實它是人工的人格,說到底它不是人格,我想提出這么一個概念。
確定一個人有人格還是沒人格,我原來寫連體人文章的時候,不知道同學們看過沒有,確定連體人到底是幾個人格,它是一個人格還是兩個人格。這一部分,我們在確定一個人是不是有獨立人格時,有三方面的判斷標準,一是生理學的要素,從生理學層面觀察,人有獨立的姿態和善于思維的大腦、具有獨特的人類基因組成、獨特的人類基因結構,按照這樣的說法去判斷人工智能機器人,其實就是沒有機,外型好像什么都有,但不是自然的,這是一個標準。還有一個標準,從心理學層面觀察,心理學作為人格的重要標準,就是要有獨立的意志,就是他自己能夠思考,從這個角度來說,人工智能機器人真的有點像。三是社會學的要素,作為一個人他有獨立人格的時候,他在社會上要有獨立的角色,當他有一個獨立角色的時候他也是一個人。我們要看智能機器人,以它的代表看,看沙特的索非亞,人家真有獨立的社會角色,還可以教你怎么樣,人家就是獨立人,還有公民資格。
根據這三個方面來判斷,人工智能機器人有一部分人格的要素,它最重要最缺乏的是自然人當中自然結構的人體,自然的大腦,人的基因結構,這些它是沒有的。這三個標準當中,這個標準是最重要的,所以把這三個標準都結合起來,是不是應該這樣,它外觀看起來是具有人格,但是這個人格是一個類人格,是類似于人格的表象。說到底,類人格就不是人格,它仍然是物的屬性,所以我論證這些問題的結論,就是我們民法在對待人工智能機器人的時候,要界定它是物的屬性,它并不是人的屬性,盡管它有人的外觀形象,它有人的一些功能、人的一些行為,甚至有一定自主性的行為,但是它仍然還是物。
它是物,接下來還有進一步的問題,它是物當中的哪種東西?我說再進一步界定的時候它就是產品,它仍然是產品。我們看到沙特的索非亞,它不是人造出來的嗎?它是人造出來的,它是人結合以后生出來的人嗎?不是,它不具有自然人的人格,也沒有理智的人格,它仍然是一個產品,它是物當中的產品,能夠把它界定下來以后,我們在民法上對它適用法律的時候就必須清晰了。
這么長時間給大家論證這個問題,我想說明一個問題,人工智能機器人有再了不起的技術,將來做的跟人完全一模一樣,看都看不出來,可以做很多很多人的事情但仍然不是人,它的人格就是類人格,它仍然是機器,仍然是產品。
第二個問題它的行為是誰的行為,它的行為就是所有者的行為,這個人做出一個機器人送給他哥了,它給他哥服務,仍然是人的行為,它自然承擔責任嗎?好像也不行。假如說這個機器人瘋狂了,出去以后把人打傷了,打死了,打殘了,如果說它有人格,先抓這個機器人,判了刑,你送到監獄里以后還得通電,不通電,他就還是物。這部分給大家講第二個問題就是人工智能機器人到底是什么東西,它是物還是產品,這是我想說的第二個問題的內容。
三、自動駕駛汽車的交通事故責任
自動駕駛汽車的交通事故責任,這是現在全世界都特別關注的一個問題。我們看到今天中國在這個問題上也在探索當中,春節前北京市下了文件,可以在北京進行自動駕駛汽車的測試,接下來又劃了一定的區域,在這個區域里面自動駕駛汽車是合法行為。針對的問題是什么?去年還是前年的時候有一個網絡公司的老板開了自動駕駛汽車上了五環被處罰了,你這種違法了。有了測試的規定以后,你在測試的范圍之內可以開,有了自動駕駛準入的規則。
自動駕駛汽車首先一點,這個技術發展非常快,現在最典型的是特斯拉,還有谷歌,還有很多廠商做出很先進的自動駕駛汽車,我們現在也在做,但是達不達到人家那個程度難說。
最近一個案件我一直在關注,講的是這個,講自動駕駛汽車的時候,首先是要講自動駕駛汽車的分級。自動駕駛汽車的分級,按照現在的情況,基本上用的是美國的標準,把自動駕駛汽車分成五級或者六級的,是美國的自動駕駛汽車標準分成兩個標準。這兩個標準大體相似,但是不完全一樣,現在通常用的是六級標準。
2013年美國國家公路交通安全管理局發布了汽車自動化的標準,將自動駕駛功能分為五個級別,就是零到四級,零級就是無自動化,就是現在的汽車是無自動化的,沒有任何自動駕駛功能和技術,駕駛人對汽車所有功能擁有絕對的控制權,就是現在的零級別。一級為單一功能的自動化,駕駛人仍然對行車安全負責,不過可以放棄部分控制權給管理,比如常見的自動巡航。在高速公路達到一定條件的時候,把汽車做成自動的時候,你腳放到剎車上不用動,自己就走了,交通部認為這是一級。二級部分自動化,司機和汽車分享控制權,駕駛員在某些道路和環境下可以不操作汽車,手腳同時離開控制,隨時準備在短時間內接管汽車駕駛權。一級是要求打開自動巡航的時候,雙手必須在方向盤上,腳在剎車的位置上,一旦出現問題馬上就能夠把汽車控制起來。到了二級的時候,部分自動化,你手腳可以離開,暫時離開,但是你必須全面的關注,隨時準備出現問題接管汽車的控制權。三級是有條件的自動化,有條件的情況下實現自動控制,預設的路段,當遇到緊急情況,駕駛員仍需要接管汽車,但有足夠的預警時間,在這個時間里面你必須要接管汽車。三級自動駕駛汽車將解放駕駛員,對整個行車安全不再負責,也不必監視道路狀況。四級是完全自動化,變成完全無人駕駛,無須人進行協助,由出發地駛向目的地,僅需起點和終點的信息,完全不需要駕駛員,行車時可以沒有人,按照交通完全自動化,車里的所有人變成了乘客,汽車里面沒有方向盤和駕駛器,這就是自動機器人了。比方汽車里面全都是乘客的座,從鄭州到北京,你該笑就笑,該說就說,到北京自己停到那里你就下車,這就是完全自動化。
另外一個標準,是美國機動車工程公司協會,前邊那個有點官方性質,這是協會制定的。為零到五級,分別強調的是無自動化駕駛、部分自動化和有條件的自動化,區別是對完全自動化做了進一步細分,強調行車和環境道路的要求,五級標準當中,四級標準在特定條件下進行,比如封閉的園區和固定的通車路線。通常說自動車,你看到視頻上,到家以后,把他一按你就回家了,車自己回車庫了,這就是預定的路線,完全無人駕駛,不用你管。早上到門口一按汽車自己來了,這是講的四級,把完全自動化分成區域的自動化和沒有區域限制的自動化。
現在世界各國關于自動駕駛汽車的分級標準大概都是零到五級的標準,就是美國協會的標準。目前在自動駕駛汽車當中,發生交通事故的基本上是屬于一級或者二級的狀態,現在發生的幾個自動駕駛汽車交通事故的,大體是在自動巡航期間,達到了預設的高速公路符合條件的,你打上自動巡航系統,雙手放到雙向盤,腳放剎車上,還得注視路面,前面出現車輛的時候,它就可以自動的去規避,比如前面有車它可以慢慢停下來,然后還可以自動轉向,如果需要往這邊拐可以拐。
它的標準相當于現在我們說的一級,就是自動循環系統。在這樣一種情況下,交通事故責任到底怎么認定?這里涉及一個問題,開始說到的,前面說的問題,首先我們必須給自動駕駛一個定性,對它定性了以后,才能對它進行適用法律。當一個自動駕駛汽車完全達到了自動駕駛的時候,到了四級、五級狀態的時候,它就和人沒有關系了,因為人不用操作它,人在自動駕駛汽車以后是沒有任何作為的,跟著走就可以了,就是乘客。在這樣一種情況下,汽車造成的損害,我們界定它,首先自動駕駛汽車是人工智能的一種表現成果,自動駕駛汽車既然是人工智能發展到這種情況,它有自己的自動化,它其實就是一個行走的機器人,可以運載的機器人。它是機器人,是人工造出來的,就具有人工類人,接下來它一定是一個產品,當四級和五級自動駕駛發生交通事故的時候,你覺得是人的責任還是車的責任?它就不再是人的責任。但是看到今天傳統汽車的交通事故責任,只要發生交通事故,一定是人的責任。人的責任包括駕駛人的責任,汽車道路人的責任,他們之間怎么區別?就是現在侵權責任法第六章機動車交通事故責任要解決的問題,除了解決所有人和駕駛人之間的關系,還要解決使用人的,我們看一看,關于駕駛人和所有人的關系,基本上是在道路交通安全法76條規定,那里面規定了交通事故基本的規則。侵權責任法用了第48條,就講的76條的規定。
侵權責任法第六章第49條到最后一條,關于交通事故責任,都是在處理機動車使用人和所有人之間的關系,比如借車給人家開,偷盜搶機動車發生交通事故應該怎么樣,報廢車、拼裝車造成交通事故以后怎么承擔責任,解決的都是這樣的問題。不管道路交通安全法也好,還是侵權責任法也好,它們在解決交通事故責任的時候,都是這三個人的責任問題,所有人、駕駛人和使用人這三個人的責任。一個交通事故發生了,造成他人傷害和死亡,財產損害,我們就在這三種人去承擔。概括一下,在傳統的機動車交通事故責任當中,它解決的是人的責任,就是這些人誰去承擔責任。但是一旦到了自動駕駛狀態的時候,自動駕駛達到四級、五級的時候,和人就沒有關系了,和這三種人一個都沒有關系,完全是車的責任。車的責任是什么責任?就是產品責任。我們說當傳統的交通事故責任適用侵權責任法第六章,自動駕駛汽車的責任就是產品責任,就是第五章。這樣一分清以后,其實自動駕駛汽車交通事故責任一點都不難。
去年我們在美國討論好幾天,我就開始下決心要把自動駕駛汽車交通事故責任研究清楚,自動駕駛責任就是產品責任,產品責任就是生產者、消費者責任,再加一個人就是設計者。因為自動駕駛就是人工智能,設計它就是人工智能的科學家,他在設計自動駕駛系統的時候,他是設計缺陷還是制造缺陷,設計缺陷就是設計者要承擔責任,制造缺陷就是生產者的責任。這樣分析以后,其實自動駕駛的問題比較容易解決,我建議人大法工委能不能在侵權責任編的草案當中,民法分則的侵權責任編當中加進去自動駕駛這一條。我們要在立法當中加自動駕駛的條款,我們這個立法就走到了全世界的最前面,現在要論證我提出的規則到底行不行。
這一部分仍然不是這樣簡單,我們說傳統汽車就是人的責任,自動駕駛汽車就是車的責任,現在很大一部分是介于兩者之間。我們在一級、二級、三級的情況下,區分它是人的責任還是車的責任。就像剛才我給大家分析的案件,你們可以討論一下,考慮一下,當自動駕駛汽車從一級到三級的時候,它都要求駕駛員時刻不可以放松警惕,對汽車的接管,他的操控,從一級、二級、三級逐漸減輕,但是都沒有說駕駛員沒有任何義務了,只有到第四級、第五級的時候才有。
現在看發生交通事故的車,這樣的車,就是我們說在自動巡航過程中發生的交通事故,駕駛人打瞌睡的時候,雙手離開方向盤,在這當中有一個汽車進來了,自動駕駛汽車識別了,又進來一個它又識別了,但是在以后的數秒鐘發生了交通事故,與前邊的清掃車碰撞,自動巡航的汽車不能識別出前面行使緩慢的清掃車,這部分如果說它是缺陷的話,是產品責任的話,這個汽車是不是有缺陷?人有沒有責任?我們就要看產品的說明書,就是在這個級別的自動駕駛汽車都會給你一個非常重要的警告,他會告訴你,當你在自動巡航系統的時候,你在用自動巡航系統的時候,自動巡航的時候,你的雙手不可以離開方向盤,腳不可以離開剎車,不可以放棄觀察行使環境,如果不這樣做會發生嚴重的人身傷害,甚至死亡的后果,這是警示。然后告訴你,自動巡航的過程中,跟汽車相似的物體都能分清,但是對于行使緩慢的物品和一些人的行為它分不清楚,所以你要特別特別警惕不能夠放棄駕駛的警惕性。這部分就會看,讓你不可以怎么樣,你開車的時候睡著了,發生重大事故,這一點完全確定,損害的發生,是駕駛人的重大過失所致。
接下來判斷車的問題,這種情況算不算缺陷?我們在產品責任當中確定缺陷,我們現在界定的是四種缺陷,一是設計缺陷,設計的時候就是有問題的。二是制造缺陷,設計沒有問題,生產出現問題。三是這種產品投入生產的時候本身就包含危險,這個危險是合理的危險,這時候要給個充分的警示說明,只要你按照這個警示說明的時候危險就不會發生,就不認為是缺陷。但是你要沒有充分的警示說明,就是缺陷。這種叫什么?有的叫經營缺陷,有的叫警示說明缺陷。四是跟蹤觀察缺陷,說什么?當一個產品生產出來的時候,當時的科學技術發展水平無法判斷它有沒有缺陷,就是有沒有我不知道,看不出來,這種情況下也可以把這個產品投放市場,但是你要進行跟蹤觀察,一旦發現有缺陷的時候,立刻要進行警示或者說明,或者召回。前面這個情況,當時的科學技術發展不能夠識別它有沒有缺陷的時候,你可以投放市場,這個就叫發展風險規則。這是可以免責的,但是一旦發現問題以后,必須馬上進行警示,要召回。這部分規定在侵權責任法第46條。
這四種缺陷當中,自動巡航過程當中,汽車的智能系統沒有發現前面行使緩慢的物體,最后發生車禍,這個自動駕駛系統算不算有缺陷?有人認為有缺陷,有人認為沒有缺陷。我們按照缺陷的標準看,這不是設計缺陷,也不是生產缺陷,它應該是屬于產品中包含的合理危險。這樣一個合理危險,它只要經過充分的警示說明,它就可以不認為它是缺陷了。最典型的合理危險需要警示說明的事例,北京現在是完全禁止放鞭炮,哪一個鞭炮沒有危險?哪一個都有危險,但是這個危險是人工可以接受的危險,只要說的充分,造成損害跟生產沒有關系。比如大家說的二踢腳,要求豎放,他非要橫放,結果把你們炸傷了,誰的責任?如果拿在手里豎放把我手炸掉了,這是缺陷。因為二踢腳放在手里是沒有危險的,不太可能放在手里爆炸,如果放在手里爆炸就一定是缺陷,一定要賠償。說一個二踢腳放在地上,我去點的時候藥捻燃燒的比較慢,再蹲下去看的時候,爆炸了,造成傷害,這個如果沒有警示、說明的話,就是一個缺陷,如果有充分的警示、說明,就不是缺陷,因為它有可能是慢的,它要安全,讓你跑到一定程度才能響,避免造成危險。
一個產品當中有一個合理的危險,這個合理的危險經過充分的警示說明,按照正確方法做的時候,就不會發生危險,用這樣一個規則看我們自動巡航過程當中的汽車發生交通事故是不是這樣?對識別慢的物體,自動駕駛汽車在巡航的時候,一級的情況下,它無法識別,現在技術也做不出來這樣的,有這樣一種危險它就告訴你這個危險是可以避免的,你雙手放到方向盤上,發現問題你及時轉彎,駕駛人直接控制汽車,一點問題都不會有。所以這樣的案件在美國發生,最后判決廠商沒有罪的,是受害人自己造成重大過失。
從這一點上說,傳統汽車是人的責任,自動駕駛汽車,完全自動駕駛的狀態是車的責任,是產品的責任。當處于一級到三級這個過程當中有部分自動駕駛功能汽車的時候,這時候應當判斷是人的責任為主,然后看產品是不是有缺陷,如果真的有缺陷,它應該是產品責任,人要有過失是人的責任,那邊有缺陷,那邊有過失,最后構成過失相抵。自動駕駛汽車交通事故說到底,其實最后最后把它分析清楚的時候,不過就是三個層次,人的責任,車的責任,人和車責任結合一起的時候,看看是以哪個責任為主,這樣就可以了。所以我覺得這個問題雖然說是世界性的難題,其實規則應該比較清楚的。
上一次在美國討論這個問題的時候,美國有好多方面的專家參加討論,有汽車制造商,有自動駕駛的設計者,還有公路交通管理部門,還有法學家,還有保險公司,從不同的角度來討論這個問題,大家都覺得極其艱難。如果我們把規則限制過嚴的時候,會限制自動駕駛汽車的技術發展;限制過寬的時候,會造成人的利益的損害,所以必須找一個合適的規則。
這個問題說到最后,我想可不可以這樣,大家都是學法律的,我們在學習法律、研究法律問題的時候,可不可以有兩種思維,一種思維是把簡單的事情搞復雜,另一種思維是把復雜的事情搞簡單,把這兩個部分都結合起來的時候,你就會在法學研究上會有新的發現,并且有新的解決辦法,而且這個解決辦法會比較恰如其分。
我原來寫過一篇雜文叫簡單與復雜,我說的是這樣一個故事,我們搞法律的人有兩種人,兩種思維,第一種人是法官,法官的基本技能是把復雜的事情搞簡單。比方說雙方當事人爭議的事情,極其復雜,腦袋都大了,法官聽了好幾天,審判一拍桌子說不過就是這么一件事情,然后找到法律適用的方法,其實法官最大的方式是這樣的,找到適用的法律就完事。法學家不是,法學家是要把簡單的事情搞復雜,我現在研究民法差不多40年了,我得出一個最基本的結論,我說民法就是人法。我這個結論重不重要?重要,但我把這個結論放到刊物他會給我多少錢?一個字十塊錢!但是,我要把這個事情詳細論證出來,寫出幾十萬字,稿費可能值幾萬元。當然這是開玩笑,說我們怎樣把一個問題分析清楚是需要論證,這個論證做的越詳細、越周密,最后得出的真論就越扎實。別人看不到的東西法學家看到了,把它寫出來,這就是創造。法學和法官的思維區別在這里,但是我們要把這兩種方法都結合到一起的時候,那才是真正的法學家的思維,把問題看的很復雜,然后又能理清,最后得出一個結論,比如我用一百萬字證明民法就是人法,最后得出一個結論,民法就是人法。我也想把這個想法推薦給每一位同學,你們都面臨著寫畢業論文的問題,如果要有興趣的話,也要進行科研,要寫科研的論文,還要大創、小創的寫作,這些問題其實思維的方法都是一樣的。你要借鑒我研究這個問題的方法,應該對你們的科研有很大的幫助。
我今天給大家介紹這個題目就介紹這么多,說了三個問題,就這么多,供大家參考。