近段時間以來,一款來自國外的Avatarify軟件在朋友圈、短視頻平臺上迅速走紅。用戶只要在該軟件中上傳一張照片,照片上的任何人就可以扭動脖子唱一曲魔性十足的“螞蟻呀嘿”。這不由使公眾聯想起2019年國內紅極一時的換臉軟件ZAO。這些軟件都涉及深度偽造技術。
就在近日,國家網信部門和公安部門依法約談映客、小米等11家互聯網企業,督促其加強對語音社交軟件和涉深度偽造技術的互聯網新技術新應用安全評估,完善風險防控機制和措施,并對發現的安全隱患及時采取有效整改措施。這也讓更多的公眾意識到深度偽造技術所蘊含的安全隱患。
“深度偽造”是隨著現代人工智能技術(尤其是語音模擬、人臉合成、視頻生成等)的發展而出現的技術,是計算機“深度學習”和“偽造”組合的產物。簡單地說,就是通過人工智能技術來制作虛假的視頻或音頻,或者對原本真實的視頻或音頻的內容進行修改,從而呈現與真相不符合的狀態。
可以說,在深度偽造技術面前,傳統的“眼見為實”“有圖有真相”的說法會變得不堪一擊,親眼所見和親耳所聽的東西都可能是完全子虛烏有的。深度偽造技術的濫用會對公眾的合法權益造成損害,破壞社會秩序、經濟秩序和政治秩序,損害社會公共利益乃至危害國家安全,包括我國在內的許多國家的法律都對之作出規范,例如換臉軟件ZAO上線不久,就被工信部約談。
目前我國尚未發生因深度偽造技術而產生侵權糾紛案件,但實踐中,一些違法犯罪分子利用深度偽造技術侵害他人人身財產權益的情形屢見不鮮。從被侵害的民事權益的類型看,這些侵害行為包括以下幾種:
首先,利用深度偽造技術,實現移花接木,會對他人名譽權構成侵害。我國民法典第1024條規定:“民事主體享有名譽權。任何組織或者個人不得以侮辱、誹謗等方式侵害他人的名譽權。”制作虛假色情視頻,是深度偽造技術最早也是最常見的非法運用方式之一。利用該技術能將一些知名歌星、影星等公眾人物的臉移轉到色情明星身上,偽造逼真的色情場景。這些虛假色情視頻一經傳播,公眾可能真假莫辨,從而導致受害人的名譽嚴重受損。即便不是用于制作色情視頻,深度偽造技術也完全可以通過制造虛假的視頻或音頻,侵害自然人、法人或非法人組織的名譽權,進而給其造成財產損失以及精神損害。
其次,深度偽造技術會構成對自然人肖像權的侵害。運用深度偽造技術,可以實現所謂的“換臉”,即將某個自然人的臉部形象逼真地移植到他人身上,從而構成對該自然人肖像權的侵害。我國在編纂民法典時,有單位提出,利用信息技術手段“深度偽造”他人的肖像、聲音,不僅侵害自然人的人格權益,嚴重的還可能造成惡劣的社會影響,危害國家安全和社會公共利益,建議法律對深度偽造技術帶來的“換臉”等問題予以回應。后來民法典在制定時采納了這一意見——第1019條第1款明確規定,任何組織或者個人不得以丑化、污損,或者利用信息技術手段偽造等方式侵害他人的肖像權。
再次,深度偽造技術為違法犯罪分子實施詐騙等行為提供了便利。實踐中,一些犯罪分子利用深度偽造技術,非常逼真地克隆出被害人的近親屬、朋友或同事的聲音,然后輕易地騙取巨額錢財。據報道,2019年3月,就有犯罪分子使用深度偽造技術成功模仿了英國某能源公司的母公司CEO的聲音,從而詐騙了22萬歐元。從民法角度說,這種行為侵害了他人財產權,而從刑法角度講則可能構成詐騙等犯罪,均應依法承擔法律責任。
最后,在深度偽造技術利用的過程中,還往往會涉及非法收集、買賣個人信息的違法行為。我國民法典、網絡安全法等法律對于個人信息保護作出明確規定,人的臉部特征信息就屬于生物識別信息。而深度偽造技術能夠應用的一個重要前提,就是要大量處理包括生物識別信息在內的個人信息。因此,深度偽造技術還會侵害自然人的個人信息權益。
總之,由于目前業界還沒有相關標準對這些用深度偽造技術制作出來的假視頻、假音頻進行檢測,因此,公眾因深度偽造技術遭受侵害時,往往很難加以證明并得到有效救濟。這就迫切需要從民法、刑法、行政法等多個角度對于深度偽造技術進行嚴格規范,從而充分保護廣大民事主體的合法權益。此次兩部門約談一些互聯網企業,要求其對這一技術進行安全評估,也旨在督促企業履行主體責任,實現有效的事先風險管理,這也會為以后從法律角度進行規制積累有益經驗。
(作者系清華大學法學院副院長、教授)