美國人工智能研究公司OpenAI推出的自然語言處理工具ChatGPT,能夠通過學(xué)習(xí)和理解人類語言進(jìn)行對話,完成撰寫郵件、視頻腳本、文案、翻譯、代碼、論文等任務(wù)。據(jù)新華社報(bào)道,ChatGPT推出約兩個(gè)月后,活躍用戶即已達(dá)到1億,成為歷史上增長最快的消費(fèi)者應(yīng)用程序,迅速成為人們熱議的話題。但目前ChatGPT帶來的社會后果尚不能被人類完全預(yù)見,存在較高的安全風(fēng)險(xiǎn)。
ChatGPT的應(yīng)用風(fēng)險(xiǎn)
盡管OpenAI在開發(fā)ChatGPT時(shí)極力避免輸出帶有算法歧視、偏見、侮辱、攻擊、色情、暴力、血腥等導(dǎo)向的內(nèi)容,但如果使用者有意通過設(shè)置命令誘導(dǎo)其輸出不良、虛假或違法信息,最終可能突破研發(fā)者對其設(shè)置的道德倫理及法律底線。
其一,可能侵犯知識產(chǎn)權(quán)。因ChatGPT輸出內(nèi)容在不同用戶之間可能不具有唯一性,故不同使用者可能基于相似的問題輸入而收到人工智能相同的回應(yīng)。若享有著作權(quán)的使用者以文本檢查、翻譯等目的將其文字作品輸入ChatGPT中,而其他用戶輸入類似主題的寫作需求,ChatGPT則可能通過信息網(wǎng)絡(luò)將著作權(quán)人的作品進(jìn)行非法傳播,情節(jié)嚴(yán)重者,可能侵犯他人的著作權(quán)。
其二,可能存在數(shù)據(jù)泄露風(fēng)險(xiǎn)。當(dāng)ChatGPT使用的語言數(shù)據(jù)集包含涉及個(gè)人隱私、國家安全、商業(yè)秘密等敏感信息時(shí),如果該數(shù)據(jù)集沒有得到適當(dāng)?shù)陌踩Wo(hù),那么攻擊者就可能通過黑客攻擊等手段獲取這些敏感信息。
其三,可能存在非法利用ChatGPT的情形。不法分子可能利用ChatGPT快速編寫郵件的能力,批量撰寫“釣魚”郵件,實(shí)施網(wǎng)絡(luò)詐騙;或通過ChatGPT生成虛假的新聞信息、交易信息、投資建議等,對他人實(shí)施詐騙;或利用ChatGPT生成偽造的文檔、簽名、身份信息等,盜竊他人財(cái)物;或利用ChatGPT生成虛假的視頻或音頻,幫助不法分子偽造犯罪證據(jù);或利用ChatGPT生成相應(yīng)的攻擊代碼、惡意軟件代碼破壞網(wǎng)絡(luò)秩序;或利用ChatGPT制造網(wǎng)絡(luò)輿情、散播網(wǎng)絡(luò)謠言、實(shí)施網(wǎng)絡(luò)暴力等。
其四,在ChatGPT管理者責(zé)任方面,如果ChatGPT的提供者不履行法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全管理義務(wù),致使違法信息大量傳播、用戶信息泄露并造成嚴(yán)重后果等,經(jīng)監(jiān)管部門責(zé)令采取改正而拒不改正的,則可能構(gòu)成拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)的行為。這不僅不利于綠色網(wǎng)絡(luò)環(huán)境建設(shè),還可能對個(gè)人及社會產(chǎn)生嚴(yán)重的負(fù)面影響,危害國家安全和社會穩(wěn)定。
以法治規(guī)制生成式人工智能產(chǎn)品應(yīng)用風(fēng)險(xiǎn)
黨的二十大報(bào)告強(qiáng)調(diào):“堅(jiān)持安全第一、預(yù)防為主,建立大安全大應(yīng)急框架,完善公共安全體系,推動(dòng)公共安全治理模式向事前預(yù)防轉(zhuǎn)型。”鑒于生成式人工智能技術(shù)的迅速發(fā)展及對人們工作生活的影響,要使其在正確的軌道上為人的生產(chǎn)生活服務(wù),就必須發(fā)揮法治固根本、穩(wěn)預(yù)期、利長遠(yuǎn)的保障作用,以法治規(guī)制生成式人工智能產(chǎn)品的應(yīng)用風(fēng)險(xiǎn)。
明確ChatGPT等生成式人工智能產(chǎn)品的責(zé)任承擔(dān)與分配原則。首先,堅(jiān)持主體責(zé)任原則。生成式人工智能是一種技術(shù)工具,本身沒有獨(dú)立的主體責(zé)任,法律責(zé)任應(yīng)由使用或控制生成式人工智能的人員承擔(dān)。如生成式人工智能被用于制作淫穢物品,責(zé)任應(yīng)由制作、傳播和銷售這類物品的人員承擔(dān)。其次,堅(jiān)持原始責(zé)任原則。生成式人工智能所生成的內(nèi)容或行為由人類程序員編寫的算法和代碼所引起,因此,程序員應(yīng)對其所編寫的代碼和算法的內(nèi)容和行為承擔(dān)一定法律責(zé)任。如果生成式人工智能被用于詐騙活動(dòng),應(yīng)當(dāng)以故意制造欺騙性算法和代碼追究程序使用者的法律責(zé)任。再次,堅(jiān)持協(xié)同責(zé)任原則。在某些情況下,生成式人工智能的使用可能涉及多個(gè)人員的協(xié)同行為。如果生成式人工智能被用于進(jìn)行網(wǎng)絡(luò)攻擊,參與者之間存在相互協(xié)作和分工,行為人應(yīng)當(dāng)共同承擔(dān)相應(yīng)的法律責(zé)任。最后,堅(jiān)持情節(jié)責(zé)任原則。應(yīng)當(dāng)綜合考慮行為人違法犯罪的情節(jié)和后果。如果生成式人工智能所生成的內(nèi)容或行為在情節(jié)、后果方面具有較輕的違法犯罪程度,責(zé)任相應(yīng)較輕;如果情節(jié)、后果較為嚴(yán)重,責(zé)任則相應(yīng)較重。
構(gòu)建面向ChatGPT等生成式人工智能產(chǎn)品的風(fēng)險(xiǎn)防范體系。首先,對生成式人工智能產(chǎn)品的生產(chǎn)銷售應(yīng)用等進(jìn)行全生命周期監(jiān)管。近年來,隨著人工智能產(chǎn)品不斷迭代升級,類似ChatGPT的人工智能產(chǎn)品,從模型的建立、語料庫的標(biāo)注、模型訓(xùn)練、投放市場后的迭代進(jìn)化直到系統(tǒng)退出使用,每個(gè)具體的環(huán)節(jié)都應(yīng)當(dāng)受到嚴(yán)格監(jiān)管。其次,人工智能算法應(yīng)當(dāng)堅(jiān)持社會主義主流價(jià)值觀。任何組織或個(gè)人不得利用算法危害國家安全和社會公共利益、擾亂經(jīng)濟(jì)秩序和社會秩序、侵犯他人合法權(quán)益;不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播法律和行政法規(guī)禁止的信息;不得利用深度合成服務(wù)從事危害國家安全和利益、損害國家形象、侵害社會公共利益、擾亂經(jīng)濟(jì)和社會秩序、侵犯他人合法權(quán)益等法律和行政法規(guī)禁止的活動(dòng)。再次,強(qiáng)化ChatGPT等生成式人工智能產(chǎn)品研發(fā)主體的合規(guī)義務(wù)。有關(guān)責(zé)任主體應(yīng)當(dāng)依法履行備案義務(wù),并公示算法的基本原理、目的意圖和主要運(yùn)行機(jī)制;加強(qiáng)人工智能自檢測模型構(gòu)建,將人工智能生成系統(tǒng)設(shè)定在既有事實(shí)之上,保證有據(jù)可依,防止其生成編造的虛假內(nèi)容;引入多來源比照分析模型,提高人工智能識別信息真實(shí)性的能力,在有據(jù)可依的基礎(chǔ)上做到依據(jù)真實(shí)。
完善面向ChatGPT等生成式人工智能產(chǎn)品的相關(guān)立法。首先,以制度確保人工智能不會出現(xiàn)現(xiàn)實(shí)世界的歧視和偏見,維護(hù)社會公平;確保數(shù)據(jù)安全,保護(hù)商業(yè)秘密、個(gè)人隱私和國家安全。其次,依法建立識別人工智能系統(tǒng)生成文本的機(jī)制,保護(hù)知識產(chǎn)權(quán),并鼓勵(lì)行業(yè)協(xié)會、大型企業(yè)或第三方專業(yè)機(jī)構(gòu),積極推進(jìn)人工智能違規(guī)信息審核產(chǎn)品的研發(fā)和推廣。再次,現(xiàn)階段,我國監(jiān)管部門可以適用《中華人民共和國網(wǎng)絡(luò)安全法》《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī)應(yīng)對短期內(nèi)生成式人工智能產(chǎn)品可能引發(fā)的網(wǎng)絡(luò)安全風(fēng)險(xiǎn),加強(qiáng)對生成式人工智能產(chǎn)品相關(guān)產(chǎn)業(yè)的監(jiān)管。最后,制定符合我國國情的人工智能技術(shù)應(yīng)用領(lǐng)域的立法,以應(yīng)對各種潛在的安全風(fēng)險(xiǎn)。
綜上所述,對ChatGPT等生成式人工智能技術(shù)的治理而言,既要堅(jiān)持包容開放,更要守住底線。生成式人工智能產(chǎn)品的法治應(yīng)對并不在于限制生成式人工智能技術(shù)的發(fā)展和應(yīng)用,而是在促進(jìn)技術(shù)發(fā)展的同時(shí),讓技術(shù)更好地為人類服務(wù),統(tǒng)籌規(guī)劃有關(guān)人工智能的法律、行政法規(guī)、部門規(guī)章、技術(shù)標(biāo)準(zhǔn),形成政府規(guī)范、行業(yè)自律、企業(yè)自治、社會監(jiān)督的多元人工智能治理機(jī)制,建立“以人為本”的人工智能技術(shù)體系。
(作者單位:烏魯木齊市中級人民法院、西北政法大學(xué)人權(quán)研究中心,西南政法大學(xué))