ChatGPT是由美國公司OpenAI基于一種GPT—3.5架構(gòu)開發(fā)的大型語言模型,能夠生成各種不同的文本類型,可以針對對話場景進行特別優(yōu)化,根據(jù)上下文自動生成跟人類一樣的對話文本。
OpenAI在公司官網(wǎng)對ChatGPT產(chǎn)生方法進行介紹時說,該模型是使用人類反饋強化學習訓練而來,方法與InstructGPT(OpenAI開發(fā)的一種“指令生成預(yù)訓練”語言模型)一致,但在數(shù)據(jù)收集設(shè)置上略有不同。我們通過監(jiān)督微調(diào)的方法訓練出一個初始模型:人類人工智能訓練師分別扮演用戶與AI助手的角色。我們允許AI訓練師為模型編寫建議,幫助他們撰寫回復;我們把新的對話數(shù)據(jù)集與InstructGPT數(shù)據(jù)集混合,并轉(zhuǎn)化為對話格式。為了創(chuàng)建強化學習的獎勵模型進行收集對比數(shù)據(jù),包括兩個或多個按質(zhì)量排序的模型反應(yīng)。同時,為了更好收集此類數(shù)據(jù),使用AI訓練師與聊天機器人的對話,隨機選擇一個模型編寫信息,抽樣幾個替代信息,并讓AI訓練師對它們進行排序。繼而,我們利用這些獎勵模型,通過策略優(yōu)化方式進行微調(diào)。
由此可知,ChatGPT工作的原理及技術(shù)架構(gòu)包括四方面內(nèi)容:第一,生成基于GPT的模型(AI在海量數(shù)據(jù)下學習基于前后文生成后續(xù)文本能力),由于GPT模型會產(chǎn)生多個不同的輸出結(jié)果,例如:告訴GPT“世界上最大的平原是____”,可以給出“綠色的”“是無邊無盡的”“亞馬孫平原”等多個合理答案。第二,引導方向,并監(jiān)督微調(diào)初始模型,通過前述問題,不難看出“亞馬孫平原”是最符合人類期望的答案,因此,開發(fā)者通過人工給出一些問題答案,進而訓練AI學習,從而形成一個初始的ChatGPT模型。第三,提升能力的獎勵模型。在兩步基礎(chǔ)上,如何提升初始模型處理能力?研究人員會讓GPT對特定問題給出多個答案,由人類進行好壞排序,基于比較數(shù)據(jù)生成符合人類標準的模型。第四,AI指導AI,強化學習,由于以上三步形成較為成熟AI,因此使用AI指導AI進行強化學習,不斷訓練迭代,形成完整ChatGPT模型!
ChatGPT具有廣泛的知識儲備和強大的語言理解能力,讓翻譯、生成文案、分析文本等工作變得簡單,極大提升了工作效率。它還具有較強的自我學習及推理能力,也讓應(yīng)用場景變得多樣,不僅能夠從事文字工作,還能夠從事AI建模、語音交流、圖像生成等復雜工作。但它也存在一定的缺陷及限制,比如邏輯不透明,ChatGPT訓練數(shù)據(jù)來自人類歷史數(shù)據(jù),可能充滿了各式各樣的偏見;回復滯后性及有限性,ChatGPT根據(jù)預(yù)設(shè)數(shù)據(jù)集進行數(shù)據(jù)分析及整合,它的數(shù)據(jù)來源具有滯后性及有限性,這使得本身很難獲取最新數(shù)據(jù)信息。
ChatGPT應(yīng)用可能產(chǎn)生的安全風險
數(shù)據(jù)安全風險。ChatGPT是以對話方式進行交互,使用機器學習技術(shù)根據(jù)接收到的“輸入內(nèi)容”生成“類似人類的文本”。它的技術(shù)優(yōu)勢主要來源于先進的算法及海量的數(shù)據(jù),但這也引起了人們關(guān)于數(shù)據(jù)安全方面的擔憂。我國數(shù)據(jù)安全法明確規(guī)定,維護數(shù)據(jù)安全,應(yīng)當堅持總體國家安全觀,建立健全數(shù)據(jù)安全治理體系,提高數(shù)據(jù)安全保障能力。ChatGPT是通過GPT模型進行不斷的監(jiān)督微調(diào)及強化學習進行數(shù)據(jù)分析,它本身的算法技術(shù)及預(yù)設(shè)數(shù)據(jù)集均來自域外,主要以西方價值觀為導向,可能存在著意識形態(tài)偏差。ChatGPT還可以進行深度的自主學習,也無法排除存在對國家相關(guān)信息數(shù)據(jù)深度分析及發(fā)掘的可能。因此,ChatGPT技術(shù)的應(yīng)用可能會給國家數(shù)據(jù)安全帶來潛在風險,從而影響國家數(shù)據(jù)權(quán)益保護。此外,ChatGPT通過連接大量的語料庫來訓練模型,其中數(shù)據(jù)不僅來源于預(yù)設(shè)的數(shù)據(jù)集,還包括用戶輸入的相關(guān)數(shù)據(jù)信息。用戶一旦使用ChatGPT輸入相關(guān)數(shù)據(jù),它會成為機器智能學習的一部分,從而對用戶的個人信息、秘密信息、商業(yè)秘密和其他秘密情報形成安全風險。
網(wǎng)絡(luò)安全風險。一是基于虛假信息產(chǎn)生的網(wǎng)絡(luò)安全風險。一方面,ChatGPT依賴海量數(shù)據(jù)信息進行深度學習,數(shù)據(jù)主要來源于現(xiàn)有互聯(lián)網(wǎng)公開文本數(shù)據(jù)。這些數(shù)據(jù)有真實準確來源的信息,也有虛假信息。ChatGPT在監(jiān)督微調(diào)、獎勵模式、強化學習過程中若以虛假信息作為處理分析對象,進而生成文本也會存在虛假信息。另一方面,ChatGPT具有強大的自主性特質(zhì),即便處理數(shù)據(jù)均來自真實、準確信息,亦不能排除基于ChatGPT通過算法進行數(shù)據(jù)整合生成虛假信息的可能。二是基于網(wǎng)絡(luò)攻擊產(chǎn)生的網(wǎng)絡(luò)安全風險。ChatGPT的出現(xiàn),意味著“強人工智能時代”的來臨,但與之相關(guān)的網(wǎng)絡(luò)安全問題也越來越受到關(guān)注。首先,從生成內(nèi)容角度看,ChatGPT為網(wǎng)絡(luò)犯罪分子提供更便捷的網(wǎng)絡(luò)攻擊武器,比如利用ChatGPT的編寫功能,非?焖偕舍烎~電子郵件,騙取他人信息。其次,ChatGPT降低了惡意軟件的開發(fā)門檻。借助ChatGPT,黑客甚至不需要編碼就可以生成一個惡意軟件,這極大地降低了黑客的技術(shù)能力門檻,從一定程度上加速惡意軟件的開發(fā),提高漏洞利用的可能性和速度。最后,ChatGPT提高了網(wǎng)絡(luò)防御難度。借助ChatGPT,黑客能夠開發(fā)出安全人員極難識別的惡意軟件,提高網(wǎng)絡(luò)攻擊的有效性!
知識產(chǎn)權(quán)侵權(quán)風險。使用ChatGPT也面臨著較為嚴重的版權(quán)風險。從ChatGPT生成框架來看,ChatGPT運用大量不同的數(shù)據(jù)集訓練形成大型語言模型,它的數(shù)據(jù)集可能來自受著作權(quán)保護的材料,若沒有經(jīng)過授權(quán),則可能存在侵犯他人作品復制權(quán)的問題!
從ChatGPT生成內(nèi)容來看,ChatGPT具有強大的語言重組和整理能力,當用戶輸入特定命令時,若ChatGPT生成的內(nèi)容主旨與他人在先作品獨創(chuàng)性表達存在部分或完全一致時,基于ChatGPT通過計算機傳播,且用戶可以在自己選定時間及地點獲取內(nèi)容,符合信息網(wǎng)絡(luò)傳播權(quán)構(gòu)成要件,因此存在作品信息網(wǎng)絡(luò)傳播權(quán)侵權(quán)風險。此外,ChatGPT作為典型的語言模型,它的模型訓練需要海量的文本數(shù)據(jù)集,若開發(fā)公司為訓練ChatGPT引入特定作者的作品進行訓練,在未經(jīng)相關(guān)著作權(quán)人許可情況下,當用戶輸入特定命令時,ChatGPT生成的內(nèi)容若具有一定獨創(chuàng)性,且存在與在先作品的相似表達,即便其可能會構(gòu)成演繹作品,但其生成內(nèi)容也為侵權(quán)作品;若開發(fā)公司訓練ChatGPT時,從未引入特定作者的作品,只是由于用戶的特定問題使算法“預(yù)測”生成內(nèi)容時剛好與在先作品相同,則不構(gòu)成侵權(quán)。因此,如何規(guī)制ChatGPT帶來的侵權(quán)風險,需要持續(xù)性的關(guān)注和思考。
ChatGPT等生成式人工智能的監(jiān)管路徑
隨著人工智能的快速發(fā)展,以ChatGPT為代表的新技術(shù)將廣泛應(yīng)用于人們未來的生產(chǎn)生活。但ChatGPT等生成式人工智能也是一把“雙刃劍”。一方面,它高度的智能性為生產(chǎn)生活帶來了極大便利,提高了社會生產(chǎn)力,給社會各領(lǐng)域活動帶來了顛覆性變革。另一方面,它的快速發(fā)展沖擊現(xiàn)有規(guī)則,存在較多潛在風險。
鑒于目前ChatGPT技術(shù)應(yīng)用尚未完全成熟,可能存在較大的數(shù)據(jù)安全風險,世界各國采用了不同的監(jiān)管規(guī)范思路。以對數(shù)據(jù)與隱私保護較為嚴苛的歐盟為代表,對ChatGPT持續(xù)嚴監(jiān)管。比如,意大利已于當?shù)貢r間3月31日發(fā)布ChatGPT禁令,宣布將暫時封鎖意大利境內(nèi)訪問ChatGPT的途徑,并審查OpenAI在最近一次網(wǎng)絡(luò)安全事件中收集的個人信息等問題。同時,歐盟計劃出臺全面人工智能法規(guī)《人工智能法案》,對ChatGPT等生成式AI設(shè)置專門監(jiān)管部門。以引領(lǐng)科技創(chuàng)新為目標的美國對ChatGPT持寬松監(jiān)管態(tài)勢。5月4日,美國拜登政府宣布對“值得信賴的”人工智能增加投資,強調(diào)加強對ChatGPT在倫理道德方面的監(jiān)管,擬研究和制定針對ChatGPT的監(jiān)管政策和指南,以確保ChatGPT的發(fā)展和應(yīng)用符合法律法規(guī)和倫理標準!
針對人工智能應(yīng)用,我國今年4月發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》,主要規(guī)制生成式人工智能服務(wù)提供者的行為,為提供者設(shè)置較高的合規(guī)義務(wù)。方向上鼓勵促進生成式人工智能技術(shù)和產(chǎn)品發(fā)展,管理上強化規(guī)范化、法治化,力求在保障合法合規(guī)的同時,為生成式人工智能未來的技術(shù)創(chuàng)新和推廣應(yīng)用保留一定政策空間!
此外,ChatGPT生成式人工智能服務(wù)提供者也應(yīng)當積極利用自身技術(shù)的完善減少相關(guān)風險,比如,通過算法優(yōu)化以及人為介入管控等方式提升信息過濾能力;對于用戶輸入內(nèi)容,加強內(nèi)容識別能力,對虛假或危險信息作出警示。對于用戶隱私建立完善的保存機制并形成日志以便后續(xù)監(jiān)督等!
黨的二十大報告強調(diào),“推動戰(zhàn)略性新興產(chǎn)業(yè)融合集群發(fā)展,構(gòu)建新一代信息技術(shù)、人工智能、生物技術(shù)、新能源、新材料、高端裝備、綠色環(huán)保等一批新的增長引擎!盋hatGPT等生成式人工智能技術(shù)具有高度智能化,可應(yīng)用于教育、科研、醫(yī)療等多個領(lǐng)域,極大提高社會生產(chǎn)效率,與此同時,也對數(shù)據(jù)安全、網(wǎng)絡(luò)安全、知識產(chǎn)權(quán)等多領(lǐng)域帶來巨大沖擊及挑戰(zhàn)。因此,這需要我們以“包容審慎”的監(jiān)管理念進行政策制定和引導,既有效地減少AI帶來的風險,保障數(shù)據(jù)隱私和安全、版權(quán)保護方面的合法權(quán)益,又加大對AI基礎(chǔ)創(chuàng)新領(lǐng)域和生態(tài)能力開放的政策支持力度,為AI產(chǎn)業(yè)發(fā)展營造良好的外部政策環(huán)境,確保我國在全球新一輪科技革命中獲得領(lǐng)先地位。