一、研究背景
2022年11月,由美國OpenAI公司研發的ChatGPT橫空出世,代表人工智能技術的發展進入到一個新階段,其與歷史上曾經出現的幾次人工智能熱潮相比,最大不同之處在于,其已不再僅僅停留在實驗室中或僅為少數技術人員所接觸,而是已經進入到商業應用階段,從而使得社會公眾得以直接接觸到這一前沿科技成果。ChatGPT自上市以來,在不到兩個月的時間內風靡全球,其月活躍用戶已突破1億,成為歷史上用戶數量增長速度最快的一款應用程序,足見其受到全球公眾關注的程度。長久以來,人工智能這一概念帶給人們無限的想象空間,然而,當以ChatGPT為代表的生成式人工智能真實出現后,即使是人工智能前沿領域的科學家和行業專家亦擔心其有可能給人類帶來無法預見的損害風險,由此可見,人們并沒有為迎接人工智能時代的到來做好心理、法律和監管上的充足準備。
本文所稱生成式人工智能,是指能夠基于算法、模型等技術自主生成文本、圖片、音頻、視頻、代碼等內容的人工智能軟件系統,又可被稱為人工智能生成內容系統(AIGC System)。生成式人工智能所具有的損害風險根源在于其技術特點,對于損害風險的預防以及在損害發生后可能采取的補救措施都要遵循技術邏輯。以ChatGPT為例,其屬于大語言模型(LLM),采用類似“文字接龍”的方式,即從上文中推導出下一個字、詞,從而遞歸串出一整句話。系統輸出的結果是由輸入的信息和算法模型所決定的。大語言模型在訓練過程中需要輸入大量的數據,這些數據的主要作用并不是供ChatGPT從中直接搜索到現成的答案,而是幫助其進行機器學習。其可以從學習材料中發現語言規律,并依此在與用戶的互動中“生成”答案,該答案有可能是數據庫中所不存在的內容,因此,其屬于“生成式”人工智能,而不是搜索引擎或數據庫服務。能夠“生成”或者“創作”一定的內容,是生成式人工智能“自主”性的體現,同時也是其產生虛假信息風險的根源之所在。
從世界上一些國家立法者對待生成式人工智能的態度可以看出,其側重從風險防范的角度出發,試圖通過風險分級與評估等事先監管的方式來控制人工智能應用所產生的風險。例如,歐盟目前正在制定的《人工智能法案》和我國國家互聯網信息辦公室等七部門聯合發布的《生成式人工智能服務管理暫行辦法》均反映了這一特點。然而,無論是采取風險預防、安全評估,還是行政許可、備案或算法審計等措施,目標都是將預期的損害風險控制在社會可接受的合理限度內,而不是要消滅所有的損害風險。鑒于“算法黑箱”的存在和人工智能系統輸出結果的難以預期性,即使提供生成式人工智能服務的企業事先采取了風險防范措施并滿足了監管機構設定的各項監管要求,仍有可能在實際運行中出現無法預料或難以防范的損害風險,并有可能給用戶或第三人造成損害。如果損害是難以避免的,那么,如何分配這些損害,便成為一個需要解決的法律問題。
盡管OpenAI公司在推出ChatGPT之前非常謹慎,曾進行過長時間的測試,但是,在ChatGPT面世之后,仍然有許多用戶發現ChatGPT提供的信息中含有不實信息。其中一個重要原因是,其所采用的大語言模型有可能利用其先前從訓練數據中發現的語言規律來對現實中并不存在的內容進行合乎規律的捏造,即產生所謂“幻覺”(hallucinations)。2023年6月5日,OpenAI公司迎來其遭遇的第一場名譽權訴訟。美國的一位電臺主持人Walters向佐治亞州的一家高等法院提起訴訟,狀告OpenAI公司侵犯其名譽權,起因是美國的一位新聞記者Riehl在與ChatGPT的對話過程中,ChatGPT聲稱Walters曾被指控從一家非營利公司騙取和盜用資金,而Walters稱其從未受到過此類指控并認為該信息純屬ChatGPT捏造。由此可見,生成式人工智能的侵權損害賠償問題,已不再只是法學研究者腦海中想象的問題,而是已成為一個需要面對的真實的法律問題,并且,其對于人工智能技術的發展和應用都具有重要的影響意義。
本文嘗試對生成式人工智能的侵權責任問題進行研究,主要基于以下幾點考慮。第一,我國以往關于人工智能方面的研究,主要集中在自動駕駛領域、醫療人工智能等領域,近來有些學者雖然關注到了生成式人工智能,但多數研究主要集中在風險規制方面,而民事責任方面的深入研究較少。第二,人工智能可分為兩類:一類是人工智能軟件與硬件產品相結合,如自動駕駛機動車;另一類是單純的人工智能軟件系統,如生成式人工智能。對于前者而言,因存在硬件與軟件的互相配合,發生事故時往往難以辨識究竟是硬件有缺陷還是軟件有缺陷,這對人工智能責任的認定帶來許多外在的困擾;對于后者而言,作為純軟件系統可以基本上不考慮硬件的問題,可更為明顯地顯現人工智能的固有特點和法律問題。對生成式人工智能侵權責任問題進行研究,不僅有助于理解該類人工智能系統的侵權責任問題,亦有助于理解其他類型的人工智能軟件系統的法律問題。第三,本文之所以將研究對象限定為侵權責任,而將合同責任排除在外,主要是考慮到合同責任依賴于人工智能服務提供方與用戶之間的合同約定,往往具有多樣性,而侵權責任屬于法定責任,更適合進行一般性研究。
本文所研究的生成式人工智能侵權責任,主要是指因該軟件系統所生成的內容具有虛假、錯誤、誤導或有害性,而導致人工智能提供者對用戶或第三人的侵權損害賠償責任。本文所稱人工智能提供者,是指負責運營、控制人工智能系統的當事人。生成式人工智能致人侵害主要包括兩種情形:第一種情形是人工智能提供者直接向用戶提供服務的過程中對用戶或第三人造成的損害;第二種情形是用戶利用該系統向第三人提供服務的過程中,第三人因系統存在缺陷而遭受的損害。
利用人工智能自主生成內容,是一種新技術應用,也是一種新的社會現象,其中的法律問題與技術問題相互交織,給法律適用帶來許多挑戰。本文嘗試對相關問題進行初步分析,以期學界能夠進行更深入的研究。
二、產品責任的分析路徑
(一)生成式人工智能致人損害可否適用產品責任
在現行法律制度框架下,關于生成式人工智能致人損害可否適用產品責任,尚存在不確定性,需要法院作出法律解釋,予以明確,主要涉及以下問題。
1.生成式人工智能系統是產品還是服務
無論是我國民法典、產品質量法中關于產品責任的規定,還是歐盟《產品責任指令》,抑或美國《侵權法重述》(第3版),都是圍繞“產品”這一概念展開的。將產品責任制度的適用對象規定為產品,這意味著單純的服務將被排除在外。如何界定產品的含義,以及劃分產品與服務的邊界,便成為產品責任法適用中需要解釋的法律問題。
產品責任法意義上的“產品”的含義并不是簡單地來自詞典,而是法院基于政策考量進行法律解釋的產物。立法者之所以區分產品與服務,其背后重要的政策背景在于:產品責任是工業社會的產物,而工業產品具有大規模生產和批量銷售的特點。產品責任采無過錯責任原則,其不以產品的制造者和經銷商有過錯為要件,是謂“嚴格”責任;而緩解產品責任嚴格性的一個重要途徑,同時也是產品制造者得以承受嚴格責任的一個重要通道在于,產品制造者可以通過向社會公眾銷售大量同質類產品的方式,借助價格機制分散其預期的產品缺陷致人損害的賠償責任。而服務通常采取一對一的模式,其具有個性化的特點,服務提供者難以像工業產品制造者那樣通過大批量提供相同服務的市場方式來實現其責任風險的分散,因此,如果要求服務提供者像產品制造者那樣承擔嚴格責任,就顯得過于嚴苛了。區分產品與服務的意義還在于:產品經銷售而被投入市場后,可以脫離制造者的控制而自由流通,并有可能被產品購買者以外的公眾所接觸或使用,因此,產品責任關注的是產品本身的缺陷而不是制造商的行為;服務的提供則是與服務提供者密切聯系在一起的,服務糾紛通常發生在服務提供者與客戶之間,并且,服務的瑕疵通常發生在服務過程中,并往往是由于服務提供者的不當行為所導致的。
就生成式人工智能本身而言,其性質屬于軟件。而關于軟件是否屬于產品責任法意義上的產品,我國民法典和產品質量法均未有明確規定。在司法實踐中,我國法院對此問題的態度模糊不清。在美國,經長時間討論后,《侵權法重述》(第3版)采取了與《統一商法典》相同的對待方式,即將軟件區分為兩類:一類是大量銷售的軟件,可被認為是產品;專門為客戶開發的軟件,則屬于服務。所謂大量銷售的軟件,通常是指封裝的軟件(packaged software),其可像工業產品一樣進行大規模復制和銷售。
生成式人工智能屬于軟件,但并非典型意義上的封裝軟件產品。生成式人工智能的提供方式更像是一種服務提供方式而非產品銷售行為,因為生成式人工智能的正常運行通常離不開提供者的持續服務支持,系統的運行和更新始終處于提供者的控制之下,并且,生成式人工智能提供者獲取的收入源自于其為客戶持續提供的服務而不是一次性銷售軟件產品的收入。為特定客戶量身定制的生成式人工智能軟件系統應當排除在產品責任的適用范圍之外,對此應當沒有爭議。需要討論的是以互聯網的方式向社會公眾提供服務的生成式人工智能系統,可否適用產品責任法。在本文看來,判斷生成式人工智能向公眾提供的服務是否具有高度同質性,其責任風險可否通過市場機制實現分散化,是認定其可否適用產品責任法的重要影響因素。以ChatGPT為代表的大語言模型為例,雖然其用戶數量眾多,但是,不同用戶有著不同的需求,ChatGPT被廣泛應用于多種不同用途,由此而產生的損害風險亦有所不同。另外,從技術特點來看,其所提供的并不同于數據庫服務,也不同于普通的工具軟件,其輸出的內容受到人機交互與算法模型變化的影響而始終處于變化之中,因此,恐難以認為其向所有用戶提供的服務具有高度同質性。從生成式人工智能的發展趨勢來看,即使是面向公眾提供服務的軟件系統,其亦能滿足不同用戶的個性化需求,而且,這一發展趨勢將會變得越來越明顯。隨著個性化服務特征的不斷增強,主張對其適用產品責任法的說服力將變得越來越弱。
我國國家互聯網信息辦公室在2023年4月公布的《生成式人工智能服務管理辦法(征求意見稿)》同時使用了“生成式人工智能服務”“生成式人工智能產品”“生成式人工智能產品或服務”等概念表述,而在2023年7月正式頒布的《生成式人工智能服務管理暫行辦法》則統一使用了“生成式人工智能服務”這一概念,從而明確地將其定性為一種服務,這對于我們理解生成式人工智能服務的侵權責任性質亦具有參考意義。
2.人工智能生成的內容有缺陷是否適用產品責任
即使我們將生成式人工智能軟件看作是一種產品,也應認識到,其與其他有形產品存在明顯差異,其致人損害并不是由于其本身而主要是由于其生成的內容存在錯誤、虛假、誤導或有害而導致的。由此而產生的爭議性問題在于,產品的信息內容缺陷可否適用產品責任。
在數字化時代到來之前,上述問題曾在圖書等出版物的責任糾紛中出現過,美國有多個判例涉及這一問題。在一起涉及空難事故的案件中,美國有法院認定用于指引航空飛行的圖表屬于產品責任法意義上的產品,圖表的出版者應對存在錯誤的航空圖表承擔產品責任法意義上的嚴格責任。法院認為,被告制作并向原告提供的航空圖表屬于可以大規模生產和市場化銷售的內容相同的產品,而不是個性化定制的產品,因此,應被看作是產品而不是服務。然而,隨后的一些法院判例則對圖書內容缺陷作為產品缺陷作出了更為嚴格的限制,并試圖與前述航空圖表案劃清界限。例如,在“毒蘑菇”案件中,原告因按照被告出版的《蘑菇百科全書》的介紹食用了一種蘑菇而中毒,并遭受了嚴重的身體損害。原告要求被告出版社對此承擔無過錯的產品責任,法院駁回了原告的請求。該法院認為,對思想內容科以嚴格責任,將會抑制思想的表達與傳播,因此,不宜將思想內容作為“產品”。為了與航空圖表案劃清界限,法院認為,航空圖表更像羅盤,是一種高度技術性的工具,而《蘑菇百科全書》可被看作是如何使用羅盤或航空圖表之類工具的書,可以將航空圖表看作是“產品”,而關于“如何使用”的書則純粹屬于思想表達,因此,不應當要求圖書出版商對圖書的思想內容承擔嚴格責任。亦有判例指出,在判決出版者應對圖書資料內容承擔嚴格責任的案例中,出版者通常都是該出版物的創作者而不僅僅是印刷者,如果出版者未參與內容創作,則不宜要求出版者對作者在圖書中表達的思想內容承擔嚴格責任,因為其并不負有審查或保證的義務。
雖然上述判例并不是針對生成式人工智能的生成內容而作出的,但是,其中有些判決的觀點對于我們認識人工智能生成內容缺陷是否適用產品責任具有指引意義。例如,“毒蘑菇”案所作的內容分類就具有參考意義。對于人工智能生成的內容亦應進行分類,人工智能不僅能夠生成文字、圖片、聲音或者視頻,還可以生成代碼;既有主觀意見的表達,也有對事實的陳述;既有隨意的娛樂性的聊天,也有關于專業知識的問答。在本文看來,只有極少數專門應用于高風險活動領域的純粹技術性、專業性內容,或許存在適用嚴格責任的空間,而對于除此以外的絕大多數內容,特別是一些明確屬于觀念或思想表達的內容,不宜要求生成式人工智能提供者對這些內容的準確性承擔無過錯責任。
又如,上述判例所提到的不宜將思想內容作為“產品”的觀點,不僅適用于紙質圖書,亦可適用于網絡信息內容。例如,在2006年美國法院判決的一起涉及“阿特金斯減肥法”的判例中,爭議不僅涉及阿特金斯減肥食品和圖書,還涉及阿特金斯減肥網站上發布的關于減肥方法的信息內容,法院一概駁回了原告提出的適用產品責任規則的主張。對于思想內容的創作者,不應要求其對所創作的思想內容承擔無過錯責任,這一原則不僅應適用于自然人創作者,也應適用于人工智能創作者。不宜僅僅因為某一思想內容系由人工智能創造而非自然人創造的,便要求人工智能提供者承擔嚴格責任。
但是,我們也應認識到生成式人工智能與圖書亦存在明顯的區別,因此,并不能全部照搬圖書出版方面的判例意見。例如,前述涉及圖書的判例所提出的區分出版者與作者而否定產品責任的理由,可能對于生成式人工智能并不適用。因為,對于人工智能生成的內容而言,人工智能提供者所扮演的角色并不是出版者,而是創作者。
又如,圖書一經出版,其內容是固定不變的,所有讀者所接受到的信息內容都是相同的,因此,其具有高度的同質性,而生成式人工智能的算法和模型始終處于變化之中,不同用戶對服務的需求亦有所不同,而且,用戶并不是完全被動地在接受系統的輸出,而是可以與系統互動而影響到系統輸出的內容。由于系統輸出信息時會受到人機互動和概率分布的影響,因此,即使面臨相同的問題或信息需求,其對不同用戶輸出的內容亦可能有所不同,對于同一用戶在不同時間提出的相同請求亦有可能作出內容不同的回復。
(二)用戶利用生成式人工智能向第三人提供服務時的責任
生成式人工智能系統具有廣泛的用途,尤其是具有強大的學習功能,能夠吸收和輸出海量的知識,并擁有超強的計算能力,因此,其用戶有可能利用該系統為客戶提供服務,由此而產生的問題是,系統提供者對于第三人,即其用戶的客戶,是否應當承擔產品責任。
在本文看來,影響責任認定的一個因素是該軟件系統是否是為用戶的個性化需求而專門定制的,或者用戶是否參與了該系統的設計。在實踐中,用戶為其客戶提供的服務往往具有專業性,因此,一般的軟件系統難以滿足其專業需求,所以,許多商用人工智能系統在開發過程中經常會有商業用戶的參與,甚至由用戶方面的專家來為其提供專業知識信息或進行專業輔導,以滿足用戶的特別需求。在這種情況下,應將人工智能提供方看作是服務提供者而不是產品制造者,不應要求其對第三人承擔產品責任。另外,當律師、會計師等專業人士借助生成人工智能系統所提供的專業知識信息為其客戶提供專業服務,如果律師、會計師本人對其客戶承擔的職業責任尚屬于過失責任,卻要求為專業人士提供輔助服務的人工智能系統提供者承擔無過錯責任,似乎并不合理,也難以具有說服力。
(三)立法是否應該將生成式人工智能納入產品責任范疇
上述分析主要是從現有的產品責任制度出發而作出的,側重于對產品和服務等法律概念的解釋,因此會受到許多方面的限制。如果我們從立法應當如何回應的角度來看待,視野可以更加開闊。
在人工智能立法方面,歐盟走在世界各國的前列。2022年9月,歐盟委員提出制定新的《關于缺陷產品的責任指令》以取代原有的1985年《產品責任指令》的建議,該立法建議的主要目的在于將人工智能納入到產品責任的范疇。從公布的立法草案來看,其在對產品進行定義時明確地將“軟件”包括在內。盡管從字面上來看,該立法草案未對軟件的類型作出限制,但是,從歐盟委員會對該立法草案的說明中可以看出,歐盟在制定這一草案時,其意欲規范的主要對象是被集成到硬件產品中的軟件,以及與硬件的功能發揮和安全性有密切聯系的軟件及數字服務,而無意涵蓋所有類型的軟件,因此,像ChatGPT之類獨立存在的純軟件系統是否亦應適用無過錯責任,尚有疑問。目前,我國國務院已經將人工智能法納入立法規劃,其將采用何種路徑來處理人工智能侵權責任問題,尚不得而知。
從學者們的觀點來看,早在20世紀90年代初,就有學者提出對于向公眾提供的大規模生產和銷售的人工智能軟件應當納入產品責任范疇,適用嚴格責任。但是,上述觀點的形成仍受制于當時技術條件對人工智能軟件的理解。在ChatGPT出現之后,許多學者都選擇了從過失侵權的角度來分析人工智能提供者的侵權責任。
在本文看來,關于立法是否應該將生成式人工智能納入產品責任范疇,除了前述關于產品與服務劃分的因素以外,還應當看其預期的立法目標是否有可能實現,以及有可能產生何種負面效果,最后再進行利害權衡。從歐盟委員會提出的《關于缺陷產品的責任指令》的立法建議來看,將人工智能納入到產品責任中欲達到的目標主要包括:第一,由人工智能提供方對產品缺陷承擔無過錯責任,受害人在提出索賠請求時無需證明被告有過錯,法院也需就被告是否有過錯而作出認定,從而方便受害人快捷地獲得賠償;第二,緩解受害人在索賠時面臨的舉證困難,便利于受害人獲得賠償。
就第一個目標而言,從表面上看,似乎所有的產品責任都是無過錯責任,然而,仔細分析,卻可以發現事情并非想象的那么簡單。產品責任法規則是圍繞著產品缺陷這一概念而展開的。通常認為,產品缺陷包括三類,即制造缺陷、設計缺陷、指示缺陷。就制造缺陷引發的產品責任而言,公認其為無過錯責任;在軟件領域,制造缺陷多表現為軟件在復制過程中代碼復制的不完整等缺陷,此種情況在光盤拷貝的時代或許出現過,而在當今數字化時代已非常少見。因此,就人工智能軟件的缺陷而言,主要是指設計缺陷和指示缺陷。
就設計缺陷的認定標準而言,依照我國產品質量法第66條的規定,產品缺陷是指產品存在危及人身、他人財產安全的不合理的危險。其隱含的意義為合理的危險不構成產品缺陷。判斷一項危險屬于合理還是不合理,更接近過失的認定方法。從國外立法和理論來看,判斷設計缺陷主要有兩種標準,即消費者期望標準和風險—效益標準。相比較而言,消費者期望標準更有利于保護消費者。歐盟委員會提出的《關于缺陷產品的責任指令》草案采取了公眾對安全期望的標準,但是,其同時規定,在認定產品具有缺陷時,需要綜合考慮多項標準,這使得設計缺陷的認定具有一定程度的不確定性,遠不像制造缺陷那樣容易認定。美國《侵權法重述》(第3版)采用的是風險—效益標準,即當產品的可預見的損害風險可以通過合理的替代設計減少或者避免,而沒有采用這樣的合理設計,以至于產品不具備合理安全時,可認定該產品存在設計缺陷。在判斷一項設計是否具有不合理的危險時,需要考慮:“傷害的可能性、嚴重性與采取預防措施的平衡。考慮相關的因素包括替代設計的可行性、采納替代設計的成本和可能性、該種設計導致傷害的概率。”該種測試方法是與“漢德公式”的精神是一致的,本質上是一種認定過失的標準。就指示缺陷而言,主要是指產品的說明或警示不合理,未能通過合理的說明或警示而消除不合理的危險。因此,指示缺陷的認定依然是判斷指示說明合理還是不合理的問題。
從以上分析可以看出,就因設計缺陷和指示缺陷而引發的產品責任而言,無論名義上將其稱為嚴格責任還是過錯責任,就其責任認定方法來看,實質上與過錯責任的認定類似。一旦發生訴訟爭議,當事人將就設計是否合理、有無更為合理的替代設計、替代設計是否可行以及合理的說明或警示的標準等問題展開辯論。對于新出現的生成式人工智能而言,上述問題更容易引發激烈的爭論,法院依然需要就相關爭議作出判斷,遠不像處理制造缺陷引發的產品責任那樣快捷,適用產品責任能在多大程度上起到節省訴訟成本的目標是令人懷疑的。
就受害人舉證困難而言,由于在認定人工智能軟件系統是否有缺陷時需要就合理的替代設計或合理的替代說明等事項進行舉證,因此,受害人仍然會面臨舉證的困難。歐盟委員會在起草《關于缺陷產品的責任指令》的立法建議時亦認識到了這一點,因此,其在草案中特意規定了證據開示制度和缺陷推定制度,以緩解原告的舉證壓力。然而,要求被告開示證據或由被告舉證產品不存在缺陷,并非必須通過產品責任制度來實現,在一般侵權制度中亦可以實現。例如,在歐盟委員會制定的《關于適用于人工智能的非合同民事責任規則的指令(草案)》(以下簡稱“《人工智能責任指令》”)中亦規定了證據開示制度。
當然,從理論上講,立法者亦可通過立法改變對設計缺陷和指示缺陷的認定標準,使其像制造缺陷那樣,真正實現無過錯責任。然而,如果那樣的話,將會對人工智能技術的研發和廣泛應用產生非常大的抑制作用。生成式人工智能提供者為避免自己承擔無過錯責任而有可能嚴格限制他人對人工智能系統的使用。另外,如果將人工智能生成內容的虛假或錯誤看作是產品缺陷并科以無過錯責任的話,將對思想和信息內容的生成與傳播產生極大的抑制作用。
將某一事物納入產品責任的范疇,除了可能導致無過錯責任以外,另一個重要意義在于其突破了合同的相對性。對于生成式人工智能而言,如果將其認定為產品責任法意義上的產品,那意味著該其提供者不僅要對與之具有合同關系的用戶承擔民事責任,還要對第三人承擔產品責任,其將難以通過用戶協議的方式來限制或免除自己的責任。考慮到生成式人工智能系統作為一種基礎性軟件,具有廣泛的用途,其用戶有可能在營業活動中利用其為自己的客戶提供服務,因此,如果認定系統提供者應像產品制造者那樣承擔產品責任,那么,其潛在的責任風險將是巨大的。
綜合以上考慮,在本文看來,就生成式人工智能軟件系統本身而言,不宜將其納入產品責任法的范疇。至于生成式人工智能軟件被集成到某種硬件產品中或者與某類硬件功能的發揮存在密切的關系時,可另當別論。
三、一般侵權責任的分析路徑
對于生成式人工智能致人損害的侵權責任,除可考慮產品責任路徑以外,還可以適用一般侵權責任規則,從理論上講,兩者可并行不悖。例如,在德國等歐洲國家,產品缺陷的受害人除可依據產品責任法索賠以外,還可依據民法典中關于一般侵權責任的規定提出賠償請求。歐盟委員會關于人工智能侵權責任的立法建議亦同時包括兩項,分別為《關于缺陷產品的責任指令》和《人工智責任指令》,后者就是基于以過錯責任為基礎的一般侵權責任規則提出的立法建議。
兩條路徑并行的意義還在于可互相補充。例如,許多國家的產品責任法都將損害賠償的范圍限于人身傷害和有形財產損害,而將純經濟損失排除在外。在一般侵權責任制度框架下,在滿足一定條件的前提下,純經濟損失亦可在賠償范圍內。產品責任法關注的是與硬件產品相結合或存在密切關聯的人工智能軟件系統,而對于完全獨立的純粹的人工智能軟件系統,尤其具有明顯服務屬性的人工智能服務,更適合在產品責任以外的一般侵權法框架下進行討論。
就生成式人工智能而言,其本身通常并不會直接造成人身或財產的物質性損失,不具有高度危險性,因此,在以過錯責任為基礎的一般侵權責任框架下進行討論亦是適合的。而對于應用于特定類型的高度危險活動領域的人工智能,則可運用特別法予以規制,從而不在本文的討論范圍內。從一般侵權責任制度出發,生成式人工智能的侵權責任主要涉及過錯認定和因果關系等問題。實踐中最常見的侵權類型主要包括虛假陳述和侵害名譽權等。
(一)過錯責任認定中的一般性問題
1.人工智能致人損害中的過錯認定
所謂一般侵權責任,通常是指過錯責任,即只有當被告有過錯時才承擔損害賠償責任,并且,在一般情況下,由原告承擔關于過錯的舉證責任。然而,以大語言模型為代表的生成式人工智能系統非常復雜,若由接受其服務的普通社會公眾來證明其在設計上有缺陷或證明其提供者有過失,將非常困難。從大語言模型的技術原理來看,大語言模型是依照其通過機器學習發現的語言規律來生成內容,而其在機器學習時高度依賴學習材料,即數據,因此,如果訓練數據本身存在錯誤的內容或來源具有偏見性,那么,系統輸出的結果就有可能存在偏頗或者錯誤。更為復雜之處在于,由于機器思維與人類思維不同,生成式人工智能在學習材料中所發現的規律,有可能是人類難以發現或理解的,而且,隨著人工智能與用戶之間持續的交流互動和新數據源源不斷的輸入,模型的算法始終處于不斷變化之中,并且,隨著大語言模型的不斷發展,其算法結構日趨復雜,GPT-3研發者稱該模型參數已高達1750億個,足以想象其復雜程度,由此會帶來算法黑箱的問題,即缺乏可解釋性和透明度。在這種情況下,如果出現生成式人工智能生成的內容中含有侵犯他人權益的內容,將很難追溯到其產生的具體原因,從而難以證明人工智能提供者是否有過錯。
對此,歐盟的《人工智能責任指令》對受害人提供了可請求法院命令人工智能提供者披露相關證據的救濟方式,但限于高風險的人工智能系統,同時規定,如果提供者未按照要求披露相關證據,那么,可推定其未盡到相關的注意義務。在本文看來,歐盟的上述規定,對于有技術專家提供服務的原告而言,是有實質幫助意義的,而對于那些沒有技術專家提供幫助的原告而言,即使有技術性證據仍難以克服證明過錯的困難。在我國當前的司法訴訟環境下,普通民眾獲取專家證人的幫助仍有一定的困難,因此,對于生成式人工智能致人損害的案件,通過立法規定,采取過錯推定的方式,將舉證責任轉移至被告,更為合理。
即使采取過錯推定的歸責原則,該推定亦是可被推翻的,因此,仍需由法院來對人工智能提供者是否有過錯作出最終的司法認定。過錯包括故意和過失。所謂故意,是指行為人預見到自己的行為會導致某一損害后果而希望或者放任該后果發生的一種主觀心理狀態。鑒于人工智能系統具有一定的自主性,其輸出內容的數量不僅巨大,而且具體的輸出內容不僅依賴于系統本身的算法邏輯,亦取決于不同用戶的個性化需求以及用戶與系統之間的交流互動,其輸出結果具有隨機性和難以預見性,因此,要想證明人工智能提供者對于特定的系統輸出內容具有充分的可預見性是十分困難的,要證明其故意更為困難。但是,當用戶發現了系統輸出內容含有侵害其權益的內容而報告給人工智能提供者并提供了相關證據時,可以推定其在收到通知后對于損害是知情的。
對于過失的認定,傳統侵權法有兩個標準,即主觀標準和客觀標準。主觀標準是指行為人具有疏忽等主觀狀態,而客觀標準是指行為人未盡到合理的注意義務。在當今新興科技蓬勃發展的時代,以客觀標準作為過失認定標準的日漸增多。所謂合理的注意義務程度,通常以一個普通的理性人在類似環境下應有的注意義務為標準,即“理性人”標準。在人工智能致人損害領域,也有學者提出“理性計算機”(reasonable computer)的標準,其主要觀點為:既然人工智能的作用在于替代人,那就不應當僅僅將其看作是產品或工具,而應將其類比于人,在判斷其是否存在過失時應注重計算機系統的行為而非設計,未達到“理性計算機”的行為標準即為有過失;并且,其進一步認為,理性人的標準與理性計算機的標準最終將融合為一個標準。上述觀點雖然具有啟發意義,但是,亦有不合理之處。首先,由于人工智能系統本身并不具有獨立的法律主體人格,因此,所謂過失只能是人工智能提供者的過失。其次,所謂“人工智能”只是一種形象的比喻,其與自然人的智能存在明顯差異。在有些領域,對于自然人而言難度非常高,但是,對于人工智能而言非常容易,人工智能會表現得比自然人優秀;而在另外一些領域,對于自然人而言非常容易的事項,對于人工智能而言會非常困難,其表現得會非常拙劣,會犯一些在自然人眼中的低級錯誤。因此,當發生人工智能致人損害時,仍應著眼于人工智能提供者,以人工智能提供者在研發、設計、測試、運行、監測和維護人工智能系統時是否盡到合理的注意義務為標準。其中,人工智能系統設計的合理性至關重要,對此可以參照產品設計缺陷中的風險—效益標準,這其中涉及到替代設計的技術上可行性與經濟上可行性的問題。目前存在的困難不僅在于人工智能系統的高度復雜性,還在于其屬于新興技術,可參照的替代設計非常少。以大語言模型系統為例,目前世界上僅有美國OpenAI的ChatGPT、谷歌公司的Bard和中國百度公司研發的“文心一言”等屈指可數的軟件系統,因此,難以形成公認的行業標準,尋找可參照的替代設計亦非常困難。
為了確保人工智能系統的安全性,許多國家的立法者開始啟動人工智能領域的立法,對人工智能的研發、設計、運行、測試、監測和維護作出許多具體的管制性規定,當人工智能提供者未遵循上述規定時,可以推定其對于損害結果的發生有過錯,但是,當人工智能提供者有充分的證據證明其違反上述規定與損害結果的發生不存在因果關系時,可以推翻上述推定。
2.用戶不當誘導行為對人工智能提供者責任認定的影響
生成式人工智能的一個重要特點在于存在用戶與人工智能系統之間的交流互動,而且,用戶向系統提供的信息會影響到機器學習,從而影響到系統對外輸出的自動生成內容。因此,用戶對系統的不當誘導行為會導致系統對外輸出含有侵權內容的信息。例如,2016年3月23日,微軟公司曾推出一款聊天機器人“Tay”,其具有在與用戶聊天過程中進行機器學習、拓展語言能力的功能,結果遭到了許多用戶的不當誘導,導致該機器人系統“Tay”對外出輸出了大量的具有仇恨、歧視性的有害內容,微軟公司隨即在第二天就宣布關閉該系統。
當用戶的不當誘導行為實質上促成了生成式人工智能系統所生成的侵權內容時,如果用戶對系統提供者提出損害賠償請求,提供者可以以受害人對損害的發生存在過錯為由,而主張減輕或免除自己的賠償責任。如果所生成的內容構成對第三人權益的損害,用戶的不當誘導行為并不必然導致人工智能提供者免責,關鍵在于提供者對于可預見的用戶不當誘導行為或濫用行為,甚至惡意攻擊行為,是否盡到了風險防范的安全保障義務,包括合理的設計、持續監測和及時處置的義務。如果提供者未盡到上述義務,可視為其存在過錯,并且不能因為用戶不當誘導行為的介入而阻斷因果關系的成立,此時,可以將提供者與該用戶看作是共同侵權行為為人,共同對遭受損害的第三人承擔侵權責任。
(二)人工智能虛假陳述的責任認定
虛假信息的泛濫是國內外監管機構和社會公眾對人工智能生成內容共同的擔憂。國內外有許多研究都指出生成式人工智能系統有可能生成大量的虛假信息。制作和發布虛假信息不僅會損害公共秩序,還有可能產生侵權責任。由于人工智能本身不具備獨立的主體資格,因此,我們可以將人工智能生成的信息內容看作是人工智能提供者作出的陳述。
我國民法典侵權責任編并沒有使用虛假陳述這一概念,但是,其關于一般侵權責任的制度框架可以容納由虛假陳述產生的侵權責任問題。虛假陳述(misrepresentation)這一概念的表述可見于英美侵權法與合同法中。美國《侵權法重述》(第2版)將虛假陳述區分為造成人身損害的虛假陳述和造成純經濟損失的虛假陳述,又可分為故意虛假陳述、過失虛假陳述和無辜的虛假陳述,其對虛假陳述責任的規則構造比較具體,對我國侵權法的適用具有參考價值。對于人工智能生成虛假信息的侵權責任而言,基于過失的虛假陳述責任更為常見。
日常生活經驗告訴我們,錯誤的、不實的言論或信息在生活中很常見,特別是在網絡環境下,但并不是我們每一次不小心的失實言論都會產生對他人的侵權責任。法律需要將過失性虛假陳述責任限制一個合理的范圍內,否則將會危及人們的表達自由和思想的傳播。美國侵權法主要是通過兩個要件來進行控制的,一是作出虛假陳述的行為人對受害人負有注意義務,二是受害人對虛假陳述的信賴是合理的。
就注意義務要件而言,通常認為,陌生人之間的交流在一般情況下不會產生保障陳述真實的注意義務;但是,如果當事人具有特殊的身份或者當事人之間具有特殊的關系,如律師、醫生等專業機構與客戶之間的關系,則有可能產生法律上的注意義務。就生成式人工智能與普通公眾用戶之間的關系而言,一般可以看作是陌生人之間的關系,不會產生法律上的注意義務;但是,如果其以專業人士的名義向用戶提供與人身財產安全密切相關的專業性知識信息,則有可能在其可合理預見的范圍內產生法律上的注意義務。為避免承擔此類責任,許多生成式人工智能提供者通過程序設計和有意識的人工訓練使得人工智能系統拒絕向用戶提供此類信息。
就合理信賴要件而言,需要依照具體情形由法院來作出判斷。就ChatGPT而言,OpenAI公司對該系統生成內容的可信賴性的宣傳和表述是相互矛盾的。一方面,OpenAI宣傳其開發的GPT具有強大的解決問題的能力,暗示其輸出的內容是有價值的;另一方面,OpenAI又通過用戶協議等文件警告用戶不可信賴其輸出的內容并拒絕對內容的真實性承擔責任,并且,OpenAI公司還將用戶的過度信賴列為GPT系統存在的重要風險之一。實際上,ChatGPT越成功,其出錯概率越低,也越容易被過度信任。判斷用戶對人工智能生成內容的信賴是否合理,需要根據用戶與人工智能提供者之間的關系、生成內容的性質以及其對用戶人身財產安全的影響、人工智能提供者對其系統可靠性所作出的陳述或保證等因素。一般來說,面向社會公眾提供服務,尤其是提供無償服務的人工智能系統輸出內容的可信賴程度較低,而為滿足用戶個性化需要而有償定制的人工系統的可信賴程度較高。
有一類用戶比較特殊,那就是專業人士。人工智能剛出現時,人們擔心其有可能取代自然人提供相關服務,這既引發了人們對其安全性的擔憂,也引發了人們對失業的擔憂,專業人士對此尤其敏感。長期以來,各國以保障執業質量、維護公共利益的名義為醫師、律師、會計師等職業設置了較高的執業門檻,而生成式人工智能的廣泛應用有可能降低職業準入門檻,并且有可能使得社會公眾越過專業人士而直接從人工智能系統獲得專業服務,從而給專業人士帶來職業沖擊。例如,OpenAI聲稱GPT-4可以通過律師執業資格考試并能夠取得高分,因此,從理論上講,其具有為公眾提供法律咨詢服務的能力。早在20世紀60年代后期,美國開始出現利用計算機自動檢索法律信息的技術后,美國律師協會就擔心其對法律職業產生沖擊,主張將非律師人士使用計算機信息檢索為公眾提供法律咨詢服務作為非法從事律師業務來對待,從而限制非法律專業人士對該項技術的使用。而在人工智能出現之后,世界各國都在加強監管,其中一個趨勢就是將專業性的人工智能服務納入到專業領域,并按照專業性設備或服務來進行嚴格監管。例如,醫療領域的人工智將按照醫療器械來進行監管。由此而出現的結果就是,專業領域的人工智能系統通常不能直接向公眾提供服務,而是需要通過有執業許可證的專業人士才可服務公眾,這樣既增強了專業人士為客戶提供服務的能力,同時亦不致于使其失去工作崗位。在這種模式下,人工智能系統實際上成為用來輔助專家向客戶提供服務的工具,其生成的內容對專業人士而言僅具有輔助的參考作用,而不能也不應替代專業人士獨立地作出判斷。因此,專業人士對人工智能生成內容應當保持謹慎的態度,會受到合理信賴的限制。
人工智能提供者除了有可能對用戶承擔侵權責任外,還有可能對用戶以外的第三人承擔侵權責任,但是,第三人的范圍應當受到更為嚴格的限制,特別是那些未遭受人身或財產的物質性損害而僅遭受純經濟損失的第三人。當用戶利用生成式人工智能系統所生成的內容從事對第三人的侵害行為時,如果人工智能生成內容本身是合法的、中性的,并且人工智能系統提供者對用戶的用途并不知情,其可主張免責。例如,用戶詢問如何分辨哪些類型蘑菇有毒,然后依據答案采集毒蘑菇去毒害他人。然而,如果用戶詢問的問題本身可以揭示其意欲或有可能從事侵害他人人身財產安全的行為,甚至犯罪行為,如果人工智能提供者未采取合理的技術防范措施而導致系統生成了幫助其從事侵權活動的相關內容,則有可能構成教唆或幫助侵權。
(三)人工智能生成內容侵害他人名譽的責任認定
以大語言模型為代表的人工智能生成內容系統,由于其模型設計的技術特點,從而有可能出現“幻覺”。曾經有學者向ChatGPT問詢某類信息或某人的信息,結果ChatGPT反饋稱某人曾被指控犯罪或從事性騷擾等行為,并引用具體的法律文書或權威的新聞報道作為信息來源,從表面上看該信息非常可靠。然而,經查證,上述信息純屬子虛烏有,其所引用的法律文書或新聞報道根本不存在。而且,在當前技術條件下,盡管OpenAI公司不斷優化ChatGPT的算法模型,但是,仍然無法完全消除“幻覺”等編造虛假信息的問題。
雖然ChatGPT是在與用戶一對一的對話交流中編造關于他人的虛假信息,但是,這并不能阻礙侵害他人名譽權責任的成立,因為其提供者能夠合理地預見到用戶有可能將其收到的信息告知第三人,從而導致受害人的社會評價降低、名譽受損。另外,盡管OpenAI可以在其用戶協議中提醒用戶該系統可能存在“幻覺”的問題并免除自己的民事責任,但是,該免責協議即使有效亦只能在合同當事人之間產生法律效力,而不能約束遭受名譽權損失的第三人。因此,人工智能提供者對侵害他人名譽權的責任風險是現實存在的。
從法律規范所規定的責任構成要件的角度看,生成式人工智能提供者侵害他人名譽權與普通的侵害名譽權并無特別之處。但需要斟酌的是,依照我國民法典第998條的規定,在認定行為人承擔侵害名譽權的民事責任時,“應當考慮行為人和受害人的職業、影響范圍、過錯程度,以及行為的目的、方式、后果等因素。”對此,是否需要基于人工智能生成內容系統的特性而對其特別對待,是一個值得討論的問題。侵害名譽權責任的認定涉及名譽權保護與言論自由兩種價值之間的權衡。在傳統法律背景下,言論自由通常是指人的言論自由,保護人的創作與思想表達,而人工智能生成內容是軟件系統基于算法模型而自動生成的。在進行價值權衡時,是否需要像保護自然人的言論自由那樣來保護人工智能的言論自由,是一個值得思考的話題。對此,在一些學者看來,言論自由之所以受到保護,不僅僅是為了維護言論者的自由,還在于保護聽眾獲取信息的自由,站在受眾的立場上,無論言論者為自然人還是人工智能,其言論都應受到保護。在本文看來,這一問題涉及如何看待人工智能所生成的內容的價值。如果人工智能所生成內容的整體價值得到了社會認可,那么,給予其恰當的保護對于社會而言是有益的,實際上是給予人工智能提供者以責任風險的庇護。只輸出高質量、有價值、真實的信息而自動屏蔽虛假的侵權信息,在目前的技術條件下,還只能是良好的愿望。對于人工智能這樣一項新興的處于發展中的技術,如果我們對其生成內容提出過高的要求或科以過嚴的責任,那么,人工智能提供者為了規避自身的責任風險會過度限制系統自動生成內容的輸出,同時,也會抑制相關技術的創新和應用。
四、關于人工智能致人損害的責任限制與受害人救濟?
生成式人工智能是依托互聯網發展起來的新興數字技術的產物。在20世紀90年代互聯網剛剛興起的時候,美國先后通過制定《通信凈化法》第230條款和《數字千禧年版權法》,對網絡服務提供者的侵權責任作出了限制。前者為網絡服務提供者作出了范圍寬廣的免責規定,后者通過“通知—刪除”規則在版權法領域為網絡服務提供者提供了“避風港”式的保護。美國通過的上述兩部法律不僅對本國互聯網產業的發展起到了極大的促進作用,而且對歐盟、中國等世界其他國家的網絡立法都產生了深遠的影響。在ChatGPT等大語言模型出現后,人們禁不住要問,其可否適用現行法中關于網絡服務提供者的責任限制規定。
從我國民法典第1194—1197條關于網絡侵權的規定來看,其區分了網絡服務提供者因自身行為而承擔的侵權責任和網絡服務提供者因其用戶實施侵權行為而承擔的責任。體現對網絡服務提供者責任限制的“通知—刪除”規則僅適用于后者,而對前一種情形并不適用。然而,就ChatGPT之類的大語言模型提供者而言,大語言模型系統自動生成的信息內容并不是其用戶創作或發布的信息,而應看作是系統提供者創作、發布的信息,因此,其無法適用網絡服務提供者的責任限制規定,而只能適用侵權責任的一般規定。對于生成式人工智能提供者無法適用網絡服務提供者的責任限制規定的另一個重要原因還在于:在現行法框架下,當網絡服務提供者的責任被限制或免除以后,受害人仍可向制作發布侵權信息、實施直接侵權行為的用戶提出索賠;而在人工智能生成內容的模式下,如果免除了人工智能提供者的侵權責任,那么,受害人將無法找到其他索賠對象進行索賠。
如果依目前法律規定生成式人工智能提供者的侵權責任不會受到限制,那么,是否應當通過制定新的立法來限制該類提供者的侵權責任,亦是當前學術界和產業界討論的話題。在本文看來,將人工智能提供者的侵權責任保持在合理水平,對于保持促進人工智能產業發展與保護公眾安全之間的平衡,具有至關重要的作用。從當前生成式人工智能的技術模式和商業應用模式來看,通過立法對其侵權責任進行限制,尚缺乏充足的正當性理由。要求生成式人工智能提供者按照侵權法一般規則承擔過錯責任而非依產品責任法承擔無過錯責任,這本身就蘊含了對提供者的責任限制。在認定提供者是否存在過錯時,法院可以將當前人工智能技術的發展水平、避免損害的替代設計的可行性與成本,以及侵權責任的承擔對行業的影響等因素,納入到考量范圍內,通過動態地調整過錯的認定標準,實現將責任水平控制在合理程度的目標,并可以避免由立法直接作出責任限制規定而產生的僵硬性。
由于過錯責任原則的限制會導致許多受害人無法得到賠償,為了維持人工智能提供者與受害人之間的利益平衡,仍應給予受害人以必要的救濟,防止其持續地受到損害。建議未來的立法可通過確立“通知—處置”規則,在給人工智能提供者施加義務的同時也為受害人提供相應的救濟。所謂“通知—處置”規則,是指當權益受到損害的用戶或者第三人發現人工智能系統生成的內容含有侵權信息并通知提供者后,提供者負有及時采取處置措施以消除侵權信息的影響并防止系統再次生成侵權信息的義務;如果提供者未及時采取處置措施,將對擴大的損害承擔賠償責任。該“通知—處置”規則不同于我國民法典所規定的“通知—刪除”規則。首先,其性質并不屬于“避風港”規則或責任免除條款,而是義務與責任構成條款。人工智能提供者在接到通知后所負有的消除侵權信息的影響并防止系統再次生成侵權信息的義務,具有停止侵害、排除妨礙、消除危險的性質,其不以服務提供是否有無過錯作為適用的前提。其次,由于生成式人工智能的技術特點,在采取處置方式時,不同于對待傳統網絡侵權所用的刪除、屏蔽、斷開鏈接等方式。生成式人工智能所生成的內容被認為含有侵權信息時,往往很難追溯其產生的具體原因,也無法直接通過修改輸出結果來糾正其錯誤,而是通過再次精準訓練的方式來實現算法模型的調整和優化,以此避免系統下次再犯同樣或類似的錯誤。
五、結語
以ChatGPT為代表的大語言模型的出現標志著生成式人工智能技術取得了里程碑式的突破。人們在為這一新興技術的應用歡呼的同時也感受到了其存在的損害風險。由于大語言模型固有的技術特點和當前的技術水平,尚無法完全避免人工智能生成的內容中含有侵權信息,因此,如何合理地分配損害風險、確定人工智能提供者的侵權責任就變得至關重要。
在當前的法律背景下,關于生成式人工智能致人損害的侵權責任,涉及眾多復雜的法律問題,在法律適用方面尚存在許多不確定性,需要法院作出相應的法律解釋,以增強法律規則的可預期性,這對于促進人工智能技術的發展和應用具有重要的影響。將以大語言模型為代表的生成式人工智能軟件系統納入產品責任的范疇,可能并不是最佳的法律政策選擇。通過一般侵權責任制度并輔之以過錯推定規則,既可以解決受害人的舉證困難問題,也便于通過司法控制機制對生成式人工智能提供者的責任負擔進行動態調整。為了維持生成式人工智能提供者與受害人之間的利益平衡,可以通過“通知—處置”規則對提供者施加消除侵權信息的影響并防止系統再次生成侵權信息的義務。
作者:周學峰,北京航空航天大學法學院教授,法學博士
出處:《比較法研究》2023年第4期