近年來,人工智能技術在很多國家的法律領域得到不同范圍、不同深度的使用和發展,引發了各國法學界的熱烈討論,成為法學領域的熱點議題和法學期刊的熱點選題。人工智能在法律領域的適用必須接受法律本身的規范和治理。圍繞人工智能,特別是以ChatGPT為代表的通用人工智能給法律領域帶來的風險和法律對這些風險的回應,以及人工智能時代法律本身、法律職業、法學教育的發展等問題,本報記者采訪了馬克斯·普朗克創新與競爭研究所高級研究員達莉亞·金(Daria Kim),美國商業雜志《福布斯》專欄作家、人工智能專家蘭斯·艾略特(Lance Eliot),明尼蘇達大學法學教授蔡曉峯(Jonathan H. Choi)。
法律具有滯后性
達莉亞·金在采訪中表示,在涉及可能對諸多領域產生變革性影響的新興技術時,政策和立法決策有著不可避免的滯后性。GPT-4在ChatGPT 3.5發布后僅幾個月便面世,但是,這種仍處于早期版本的技術以及一般意義上的大型語言模型(LLMs)可能會對社會互動、創意寫作、語言多樣性等造成什么樣的影響,人們了解得還不夠多。有些人認為,在某種程度上,突破性技術使得現有的監管框架變得過時或不再適用。但這種結論是基于“目的適用性”評估得出的,即將現有監管與法律框架對標政策目標所得出的結論。原則上,技術監管是為了最大限度地降低技術風險,同時為社會帶來最大的技術效益。為此,政策制定者需要充分了解這些風險和效益分別是什么。在新興技術領域,對新技術與現有法律法規的適用性評估所得出的結果具有或然性。沒有哪項技術是絕對安全的,就算進行了大量試驗測試的技術也一樣,比如新推出的藥品。因此,歸根結底還是要花時間進行包容性討論,在技術風險和技術效益之間達到某種平衡。
她表示,為了找到這樣一種平衡,需要花費一定的時間并進行廣泛的討論。同時,政策制定者和立法者需要在社會利益和風險、生成式人工智能應用所帶來的監管挑戰、各國的政策目標以及合適的政策措施等方面達成共識。這是極具挑戰性的,歐盟人工智能法案的立法過程就是一個很好的例子,它表明,在如何貫徹安全可信賴人工智能理念、最佳水平的安全監管應當是什么,以及如何處理人工智能的通用技術特性等問題上達成共識,需要花費漫長的時間。但與此同時,生成式人工智能領域的發展卻是躍進式的,新技術不會等待社會達成共識。
達莉亞·金說,不久前,曾有1000多名相關專家簽署聯名信強調了人工智能系統的潛在危險,包括其對社會、經濟、政治的潛在影響和破壞,呼吁立即停止發展人工智能。像大型語言模型這樣的應用程序具有廣泛影響,其使用將影響人類生活中涉及語言的所有領域。鑒于人工智能應用廣泛存在,試圖禁止使用人工智能可能會像用網捕捉風一般徒勞無功。更可能的情況是,包括政策制定者和監管者在內的社會各界需要摸著石頭過河,邊使用人工智能邊解決問題。
關于立法者是否應制定或修改法律以應對新挑戰的問題,還需要在法律領域內進行全面而有針對性的評估。由于像ChatGPT這樣的機器學習應用具有“通用技術”的特點,無法就可能需要加以監管的使用行為進行窮盡列舉。因此,很難為其設計監管框架。例如,生成式人工智能在知識產權法領域引發了一系列問題,包括以訓練人工智能系統為目的對受知識產權保護的內容的可訪問性,以及機器學習模型和人工智能輸出內容的可保護性問題。在人工智能生成文本的使用方面,其合法性可能要受到著作權法之外的其他法律法規的約束,如透明度、錯誤信息和誹謗方面的法律法規的約束。無論涉及哪個領域,都需要制定與人工智能應用透明度相關的特定規則。這些規則應能幫助人們了解人工智能在特定情況下會發揮什么作用,以及相應的法律后果。總的來說,鑒于這一領域技術發展的動態特性、政策和立法的發展,以及對人工智能形成更廣泛的社會理解,將會是一個持續性的過程。
人工智能進入知識產權領域
達莉亞·金表示,在立法者改革專利法之前,有必要甄別那些暗示計算系統具有“獨立”代理能力的假設。首先,這種假設傾向于將人工智能系統視為擁有“獨立自主”的能力,并以“擬人化”的方式描述人工智能。特別是,認為人工智能系統具有做決策、確定實現目標的手段,以及自主完成任務和目標的能力。這種做法可能會令人困惑,尤其是對于那些對人工智能理解有限的人來說。如果我們假設人工智能系統能夠“自主”,就意味著這些以人工智能為基礎的系統具有“推理”“決策”和“行為”能力,而人類對于這種“決策”過程的控制力有限或毫無控制力。這些假設給各種法律和監管框架帶來挑戰,包括侵權責任、消費者保護、透明度監管等領域。在專利法領域,假設人工智能“自主”帶來了許多問題。人們可能會認為發明的行為被簡單地移交給了人工智能系統,是人工智能系統在“自主”發明。因此,在“人工智能驅動”發明的情況下,將專利權歸屬于人類用戶可能不再能被證成。這個問題成為了全球范圍內訴訟案例的核心。目前,法院的主流立場是,只有人類才能被指定為發明人。然而,我們仍需澄清人工智能系統究竟是否能夠“自主”發明。
她進一步解釋道,在關于人工智能的日常話語和技術文獻中,“自主”(autonomy)和“自動化”(automation)這兩個術語經常被混用。然而,它們在概念上和技術上存在顯著差異。雖然“自主”尚不存在人們廣泛接受的定義,但這個詞通常與自我管理和自我決定聯系在一起,也涉及行使自由意志的能力(表現為能夠自己做決策和做出某個行為)。人工智能系統并不能自主,它無法“決定”違背人類的設定,不能創造先前不存在于數據或者無法從數據中推衍出的信息。“自動化”意味著在執行過程中無需人類直接干預即可完成任務。然而,在實現自動化之前,還需要人類來配置和設置計算過程。
人工智能系統可以進行自動化計算,即在算法實施過程中無需人類直接參與,人工智能就可以自動執行數據和信息處理等操作。盡管隨機化在機器學習技術中得到了廣泛應用,但仍然具有確定性,即在輸入內容相同和條件相同的情況下,機器學習系統會輸出相同的內容。系統或計算模型的復雜性和隨機化的使用可能導致內容輸出的變化和出人意料的效果。此外,通過傳感器感知的與現實世界的互動可能導致人工智能系統的設計者或用戶失去對人工智能系統的控制,但控制的缺失應歸因于環境的不可預測性,而非計算機具有的“自主決策”能力。
達莉亞·金說,主張改革專利法的評論者往往是基于人工智能系統中存在“獨立”代理人的假設。但她認為人工智能技術更像是計算工具和解決問題的工具,雖然專利制度可能需要改革,但要想知道該如何改變,我們得進一步了解人工智能技術對創新過程的影響,以及專利法的目標和功能。這樣,我們才能更好地確定推動創新的最佳方案。
厘清何為“人工智能驅動”的發明
達莉亞·金提出,有關發明權的歸屬問題,應當先明確“人工智能驅動”的發明到底是什么。盡管人工智能應用程序很強大,但它目前只是一種可被用于發明創造的工具。在歐洲專利法的語境下,一項發明可被理解為解決技術問題的技術方案。機器學習的基礎是數學優化,這也許可以解釋為什么它可廣泛用于解決技術和工程問題,比如藥物開發中應用機器學習來識別和優化分子的結構活性關系。只要人工智能是作為工具被使用的,就應當適用發明權和創造性(即非顯而易見性)相關規則。在大多數法律制度中,發明權的歸屬明確要求或隱含推定某項發明或其貢獻的背后具有創造性或智能構思。為了滿足這一要求,在發明構思階段,創造者的參與方式不應當只是提出抽象想法,而讓另一端簡單地執行他人提出的想法。創造過程應該在智能和創造性的層面上進行,而不是在金融、物質或僅僅是執行層面上開展。
她表示,發明的概念化涉及抽象思維。盡管機器學習系統或計算模型能夠模仿人類的認知過程,但它們的性能仍然依賴于人類在設計和應用這些建模技術時的思考和決策行為。應用計算模型來解決技術和工程問題需要人類來設置計算過程。為此,人要能準確把握問題所在,并深入了解相關的工作設想、底層數學結構、潛在的局限和陷阱等。因此,她并不認為技術已經達到足以讓人類可以簡單“外包”發明任務的程度。在使用人工智能進行發明創造的情況下,一種可能比較合適的做法是將“如何運用人工智能技術解決手頭的技術問題”的決策本身作為衡量發明構思中“智能參與”行為的一大指標。誰將是具體決策者則視個案情況而定。
達莉亞·金補充道,毫無疑問,某些技術發明比其他發明更容易實現,且發明者可能會使用不同工具來解決問題或進行研究,如基因組學或數學優化技術。這種情況下,發明性的要求,即發明的非顯而易見性變得非常關鍵。原則上,只有那些比相關領域“平均”水平專業人士解決某種技術問題能力更強的發明才能被視為“非顯而易見”,從而取得專利權。一些評論者認為,人類在這種發明過程中扮演的角色太微不足道。也有人認為,評估發明性現在需要參照“平均”水平的人工智能系統而非熟練技術人員。但她認為,目前人工智能算法和系統的作用仍然是工具,因此,熟練技術人員的概念仍然可作為判斷發明“顯著性”的相關指標。她也不認為人工智能系統能使任何問題的解決方案變得顯而易見,因為將人工智能應用于解決復雜問題可能需要人工智能系統的設計者和用戶做出復雜的決策。在運用人工智能驅動創新的情況下,盡管在確定發明者和發明的非顯而易見性方面的實體性規則仍然有效,但其實際應用可能面臨挑戰,因此有必要進行更詳盡的分析。
力爭采用均衡恰當的監管方式
艾略特在接受記者采訪時表示,我們必須關注生成式人工智能的出現和使用所引發的保密風險和隱私問題。生成式人工智能應用越普及,私人數據和機密電子材料遭受侵犯的風險就越大。侵犯隱私的情況通常有以下兩種。第一種是,生成式人工智能程序的數字訓練內容來自互聯網上發布的數字內容,網站和其他在線發布內容會被秘密瀏覽與抓取。在此過程中,網站的所有者并不知悉人工智能的瀏覽行為,也沒有人事先征得他們的明確許可。隨后,生成式人工智能程序會利用瀏覽過的內容生成復雜的模式匹配編碼結構。人工智能收集到的私人或機密數據可能會永久存在于這些結構中,在生成式人工智能用戶的請求下被調取利用。第二種是,在使用生成式人工智能應用程序時,用戶可能會輸入私人或機密數據。人們通常以為除了用戶本人之外,沒有其他人可以訪問他們輸入的數據。實際上,大多數生成式人工智能程序并未提供這樣的保證。相反,制作或部署人工智能的公司保留使用用戶輸入內容的權利。用戶應仔細審查與他們希望使用的生成式人工智能應用相關的許可條件。因此,只有在明確知曉系統所聲明的保護措施或所缺乏的保護措施的情況下,用戶才應該考慮使用生成式人工智能程序。
艾略特認為,律師在使用包括ChatGPT在內的生成式人工智能時具有雙重職責。一方面,律師應該就如何正確使用生成式人工智能應用程序向客戶提供建議,例如,如何進行數據保密和隱私保護。另一方面,律師必須遵守自己的建議,同樣要注意在使用ChatGPT等應用程序時不能涉及任何與客戶有關的隱私或保密信息。為了履行這些職責,律師必須迅速了解生成式人工智能。如果一名律師對生成式人工智能的運作方式不了解,他可能會被認為在法律盡職調查方面做得不夠,而他服務的客戶將無法獲得充分的法律保障。更糟糕的是,律師在使用生成式人工智能時可能會因為不知道自己在做什么而無意中暴露客戶的私人數據或機密數據。
此外,他觀察到,生成式人工智能還伴隨著其他法律問題和挑戰。例如,ChatGPT等人工智能應用可能會輸出不當言論,包含各種偏見言論乃至仇恨言論。如果某家公司選擇使用生成式人工智能來服務消費者,那么它輸出的內容就有可能包含某些具有法律損害性的表述。受到冒犯的消費者看到了可能會反過來抨擊這家公司,甚至對該公司提起訴訟。為了遏制生成式人工智能的負面影響,各國立法者都在努力掌握最恰當的管控力度。約束性較強的法律可能會限制人工智能的發展,削弱人工智能帶來的預期效益,而采用較為寬松的監管方式或索性不設立相關法律則可能會縱容甚至變相鼓勵人工智能擾亂社會。每個國家的立法者都需要思考他們想達到何種平衡。
法律職業和法學教育應及時自我調整
艾略特認為,人工智能必將滲透到法律實踐的各個方面。人們已經在使用人工智能篩選和分析案件材料。人工智能通常是律師事務所使用的合同生命周期管理(CLM)軟件包的重要組成部分,可以被用于起草、審查合同以及其他與合同相關的法律事務等。法學院的學生需要了解各類人工智能應用,并在初涉法律行業時便開始使用最新的人工智能應用。法學院應確保學生在畢業后進入職場時擁有足夠的使用人工智能的經驗,從而不至于在職場中處于劣勢。法學院會意識到有必要將人工智能納入法律課程中,同時,未來的學生在擇校時也會傾向于選擇設置相關課程的院校。
蔡曉峯對記者表示,雖然有朝一日人工智能模型最終可能會替代法律從業者,但距離這一天的到來還有很長時間。這是因為人工智能目前為止還不夠可靠,而法律實務涉及的問題往往與人們的切身利益攸關,因此較為重要。短期內最有可能發生的還是人類與人工智能合作。
在蔡曉峯看來,機器將逐漸覆蓋基礎性的法律工作,但律師不應該想著與機器競爭,而是應該把精力放在機器完成不了的工作任務上,比如提升判斷力與發現法律問題的能力,這兩個技能是人工智能目前尚未掌握的。聊天機器人帶來了很多法律問題。例如,從知識產權的角度看,使用受版權保護的材料來訓練機器人是否侵犯著作權?讓人工智能法律助理在未經授權的情況下從事法律實務工作是否存在風險?一旦人工智能模型犯下代價高昂的錯誤,誰應承擔法律責任?這些問題都沒有確切的答案。ChatGPT是一個多用途工具,目前并沒有專門為法律領域做出優化調整,但已經有不少公司開始著手這項工作。也許在幾年甚至幾個月內,我們就能看到法律實務專用的新的工具。有些公司還在嘗試將人工智能模型嵌入現存的工具中。
蔡曉峯認為,隨著ChatGPT的到來,法學院的學生應該產生危機感,因為人工智能可以顯著提升律師的工作效率,而這也意味著不及時調整適應的從業者將被遠遠甩在同行后面。但我們也應該樂觀看待科技進步,因為人工智能模型能夠接手律師最不感興趣的工作,比如檢查文件、復制草稿等,這使得法律從業者能夠更好地投入到更復雜、價值感更高的工作當中。