国产伦久视频免费观看视频,国产精品情侣呻吟对白视频,国产精品爽爽VA在线观看无码,韩国三级HD中文字幕

法治視野下的人工智能倫理規范建構
發布日期:2024-01-22  來源:數字法治  作者:宋華琳


  人工智能系統是用一種或多種人工智能技術和方法開發的軟件,針對人類界定的特定一系列目標,可以生成影響其交互環境的內容、預測、建議或決策等輸出。倫理風險是指在人與人、人與社會、人與自然、人與自身的倫理關系方面,由于正面或負面影響可能產生不確定事件或條件,尤指其產生的不確定的倫理負效應。在技術、數據、應用和社會層面,都可能引發人工智能倫理風險:技術層面涉及算法及系統安全問題、可解釋性問題、算法歧視問題和算法決策問題;數據層面涉及人工智能治理過程中,數據采集、存儲、流通和利用行為所蘊含的風險;應用層面的風險體現為人工智能活動中算法的濫用與誤用;就社會層面而言,人工智能應用可能會引發不平等,間接引發失業和財富再分配等倫理問題。

  2018年10月30日,習近平總書記在主持中共中央政治局第九次集體學習時,指出要“加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德”。有必要認真對待和防范人工智能倫理風險,建立保障人工智能健康發展的法律法規和倫理道德框架,制定促進人工智能發展的法律法規和倫理規范。

  一、堅持人工智能治理的“倫理先行”

  倫理是一個錯綜復雜的概念,可將其界定為規范個人或群體行為的道德原則。換言之,倫理是一套原則、規則或準則系統,它有助于確定什么是好的或正確的,也可以將倫理視為界定是與非,界定人類或人工智能體的道德義務與責任的學科。法律和倫理在規范價值層次、規范調整范圍、規范方式和強制程度等方面都存在很大差異。法律規范是調整有意識行為的行為規范,倫理規范則包含了價值觀念和行為準則。法律規范是他律式的,是國家制定的以國家強制力為后盾來保證實施的規范;倫理規范更多是自律式的,是社會形成的,主要依靠社會成員自覺遵守。在人工智能領域,要倡導設計和發展“有道德”的人工智能倫理規范,將“倫理先行”的理念貫穿于人工智能的開發、設計和使用全過程,促進人工智能科技活動與人工智能倫理協調發展、良性互動,確保人工智能安全、可靠、可控,實現負責任的人工智能創新。

  人工智能治理中的“倫理先行”也是包容審慎監管的生動體現。包容審慎監管要求規制者對新業態持寬容態度,要鼓勵創新、保護創新、寬容創新。《優化營商環境條例》第55條規定:“政府及其有關部門應當按照鼓勵創新的原則,對新技術、新產業、新業態、新模式等實行包容審慎監管。”人工智能業態仍處于快速發展變化過程之中,筆者認為,此時或許很難通過立法來約束權利義務,應堅持“倫理先行”,立足我國自身人工智能發展階段及社會文化特點,遵循科技創新規律,逐步建立符合我國國情的人工智能倫理體系。應當將倫理約束融入人工智能研究開發過程各環節,在數據收集、存儲、使用等環節嚴格遵守相應的倫理要求,禁止使用違反倫理要求的人工智能技術及應用。人工智能倫理治理的目的并非要為人工智能技術和應用“踩剎車”,其目的也是鼓勵創新,是為人工智能科技前沿的探索和創新設定可行性條件。

  “倫理先行”的原則蘊含了對倫理規范與法律規范關系的審視。倫理在一定程度上是法律的重要補充,倫理觀念支配了法律蘊含的價值觀念,影響著法律的性質和方向;倫理規范所蘊含的精神實質和價值取向常常被法律規范所吸收。人工智能倫理規范興起于法律規范之前,未來的人工智能立法則可將倫理規范中的核心要素納入法律框架之中。例如,中共中央辦公廳、國務院辦公廳在2022年印發的《關于加強科技倫理治理的意見》中提出:“推動在科技創新的基礎性立法中對科技倫理監管、違規查處等治理工作作出明確規定,在其他相關立法中落實科技倫理要求。”在2023年國家網信辦等7部門發布的《生成式人工智能服務管理暫行辦法》中,即規定提供和使用生成式人工智能,應遵守社會公德和倫理道德,并寫入了堅持社會主義核心價值觀、防止歧視、不得實施壟斷和不正當競爭行為、尊重他人合法權益、提升服務透明度等要求,這一定程度上體現了人工智能法律規范對倫理規則的吸納。

  二、人工智能倫理規范的制定

  在人工智能等新興風險領域,立法者無法將從事與人工智能風險有關的活動,以及所遵循的安全標準與要求加以詳細規定。而且新興風險也處于動態發展之中,目前我國統一人工智能立法的時機尚不成熟,無法以法律來確立人工智能活動的行為規范。因此,亟待引入人工智能倫理規范。引入倫理規范的考慮是,既引導科技發展的基本方向,又給相關研發機構和企業根據具體的技術場景提供選擇的靈活空間。當通過倫理規范的人工智能治理積累充分經驗后,可考慮逐步再用更為細節化、精確化的法律來取代人工智能倫理規范。

  例如,美國國防部于2020年2月頒布了《人工智能倫理準則》,美國國家情報總監辦公室于2020年7月頒布了《情報共同體的人工智能倫理準則》和《情報體系人工智能倫理框架》。歐盟委員會2021年的《人工智能法》第69條第1款規定,歐盟委員會和成員國應鼓勵和促進制定行為準則,從而根據技術規范和解決方案,來自愿地將該草案第2章中規定的要求,應用于除高風險人工智能系統之外的人工智能系統,此行為準則可以針對人工智能系統的預期用途,構成了確保系統合規的適宜手段。2019年3月29日,日本內閣通過《以人為中心的人工智能社會原則》,確立了日本人工智能倫理監管的最高準繩,該原則闡述了人工智能開發利用的7項原則。日本經濟產業省則于2019年、2021年先后制定了《人工智能·合同利用指針》和《實現人工智能原則的監管指針》,前者用于指導企業在數據利用和人工智能軟件開發過程中保護隱私和權利,后者用于指導企業建立人工智能倫理監管制度。

  我國人工智能倫理規范的制定某種程度上體現了“自上而下”的特點。在2017年國務院印發的《新一代人工智能發展規劃》中,提出要更好發揮政府在倫理法規制定等方面的重要作用,建立保障人工智能健康發展的倫理道德框架。在2022年中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》時,指出,國家科技倫理委員會各成員單位按照職責分工負責科技倫理規范制定等相關工作,提出要制定包括人工智能等重點領域的科技倫理規范、指南等。在2020年國家標準化管理委員會等五部門頒布的《國家新一代人工智能標準體系建設指南》中,指出要建立人工智能倫理標準,特別是防范人工智能服務沖擊傳統道德倫理和法律秩序而產生的風險。

  2019年6月,中國國家新一代人工智能治理專業委員會發布了《新一代人工智能治理原則——發展負責任的人工智能》,強調了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理八項原則。2021年9月,國家新一代人工智能治理專業委員會發布了《新一代人工智能倫理規范》,提出了增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養六項基本倫理要求,對人工智能管理、研發、供應、使用等特定活動提出了十八項具體倫理要求。

  人工智能這樣的新興技術,具有迭代快、不確定性強、復雜及存在潛在風險等特點。人工智能倫理規范的引入,也是“敏捷治理”的體現。“敏捷治理”是“具有柔韌性、流動性、靈活性或適應性的行動或方法”。其特征可歸納為以下兩點。

  其一,人工智能倫理規范的形成具有較為廣泛的參與度,其需要政府、企業、消費者等利益相關者參與規范形成過程。在人工智能倫理規范的形成過程中,通過引入程序化理念和參與式程序,讓不同主體表達各自的觀點、偏好和立場,從而形成促進和鼓勵組織之間協商和相互學習的機制。以2023年3月頒布的《人工智能倫理治理標準化指南》為例,其由中國電子技術標準化研究院牽頭,依托國家人工智能標準化總體組和全國信標委人工智能分技術委員會,組織浙江大學、上海商湯智能科技有限公司等政、產、學、研、用56家單位共同編制完成。

  其二,人工智能倫理規范也體現了“反思性法”的典型樣態。在動態演進的人工智能治理環境下,可以定期評估人工智能倫理規范的績效,思考人工智能倫理體系中的各項內容是否需要變更,從而對人工智能倫理規范的原則和內容加以適當修正。相對法律規范而言,倫理規范是“活的文件”(living document),更容易對其進行不斷補充和修正,通過及時動態調整治理方式和倫理規范,來快速、靈活應對人工智能創新帶來的倫理挑戰。

  三、人工智能倫理規范應秉承的基本原則

  受歷史條件和發展階段限制,人類對人工智能產品的道德風險存在認知的滯后性,往往對人工智能產品缺少完善的倫理控制,同時賦予了這些產品更多的自主決策權,由此催生了更多的倫理道德問題。因此更需采取政府牽頭、多元主體參與的形式,共同推動人工智能倫理規范的形成。作為科技倫理規范,人工智能倫理規范也應體現增進人類福祉、促進公平公正、保護隱私安全、保持公開透明、強化問責擔當的原則。

  (一)增進人類福祉

  我國《憲法》中沒有明文規定“增進人類福祉”的國家任務,但在憲法序言中,載明要“推動物質文明、政治文明、精神文明、社會文明、生態文明協調發展”。《憲法》第47條規定了公民有進行科學研究的自由,根據該條規定,國家對于從事科學、技術事業的“有益于人民的創造性工作”,有“給以鼓勵和幫助”的義務。而人工智能帶來社會建設的新機遇,其在教育、醫療、養老、環境保護、城市運行等場景的廣泛運用,將提高公共服務精準化水平,全面增進人類福祉。

  在2020年11月中央全面依法治國工作會議上,習近平總書記指出,全面依法治國“必須堅持為了人民、依靠人民。要把體現人民利益、反映人民愿望、維護人民權益、增進人民福祉落實到全面依法治國各領域全過程”。人工智能的開發與應用應堅持以人民為中心的發展思想,遵循人類共同價值觀,尊重人權和人類根本利益訴求,遵守倫理道德。人工智能的開發和利用應促進人機和諧友好,以建設智能社會促進民生福祉改善,不斷增強人民獲得感、幸福感。

  沿著此論說的脈絡,人工智能的開發與利用不得侵害“人的尊嚴”。人不能被視為客體、被視為工具,尊重“人的尊嚴”意味著社會成員中的每個個體都會從社會得到最低限度的、有尊嚴生活的積極保障。我國《憲法》第38條規定:“中華人民共和國公民的人格尊嚴不受侵犯。”在人工智能開發和利用時,尤其要注意維護兒童、老人等的尊嚴,避免對兒童的人格尊嚴造成傷害,避免加劇老年人的無力感和孤獨感。

  (二)促進公平公正

  人工智能應用過程中,可能會存在算法歧視和數據歧視。算法可能會蘊含價值判斷,可能會不當地將特定對象、特定項目、特定風險給予不當的權重,乃至有可能植入不當的目的,而且算法很難對規則和數字之外的因素加以充分考量,算法學習的結果也可能存在不可預見性。人工智能應用所利用的數據也可能會缺乏均衡性、代表性,數據自身可能存在偏見,這些都會影響人工智能活動的公平公正性。

  在人工智能應用過程中,應堅持促進公平公正的原則,即秉承“相同事物相同對待”的平等理念,對于具有相同重要特征的人或群體,給予相同的分配。其一,當以人工智能方式開展行政執法、司法裁判或配置有限的社會資源時,應考慮受眾所開展的活動、所生成的結果、個體的實際需要等因素,盡量讓受眾“得其應得”。其二,人工智能的應用應具有普惠性和包容性(inclusion),應努力縮減、調和乃至消除“事實上不平等”的狀態,讓每個人在立足點相同的基礎上,平等地享有全社會共享人工智能的機會,促進社會公平正義和機會平等,還要考慮不同年齡、不同文化體系、不同民族的具體需求。其三,要避免在數據獲取、算法設計、技術開發、產品研發與應用過程中,產生針對不同或特定群體的歧視與偏見。

  (三)保護隱私安全

  1保護隱私

  隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。自然人享有隱私權。任何組織或者個人不得以刺探、侵擾、泄露、公開等方式侵害他人的隱私權。人工智能的利用以算法的深度學習為前提,但深度學習作為數據驅動的技術,需要收集大量的數據,這些數據可能涉及用戶興趣、愛好、個人信息等隱私信息。此外,當利用人工智能技術收集、分析和使用個人數據、信息、言論時,都可能給個人隱私帶來危害、威脅和損失。

  就隱私保護而言,開展人工智能研發和應用,不得提供侵害個人隱私或者個人信息權益的產品和服務。人工智能服務的提供者應遵守《網絡安全法》《數據安全法》《個人信息保護法》等法律、行政法規的有關規定和有關主管部門的相關監管要求。開展人工智能研發和應用,涉及個人信息時,應依照合法、正當、必要和誠信原則處理個人信息。處理個人信息時,應以個人在充分知情的前提下自愿、明確同意為前提。不得損害個人合法數據權益,不得以竊取、篡改、泄露等方式非法收集利用個人信息,不得侵犯個人隱私權。

  2保護安全

  根據《網絡安全法》第76條的規定,網絡安全“是指通過采取必要措施,防范對網絡的攻擊、侵入、干擾、破壞和非法使用以及意外事故,使網絡處于穩定可靠運行的狀態,以及保障網絡數據的完整性、保密性、可用性的能力”。應保障人工智能系統的安全性,算法不被黑客控制,系統和算法不能被黑客攻擊或改變。同時還應注重人工智能活動中的人身安全,即確保人工智能技術不會傷害人類。因此,需強化人工智能產品和系統網絡安全防護,構建人工智能安全監測預警機制,確保把人工智能發展規制在安全可控范圍內。

  另外,根據人工智能系統的重要性和危害程度,或可將人工智能系統分為中低風險智能系統、高風險智能系統和超高風險智能系統三級。國家有關主管部門應針對不同人工智能技術特點及其在有關行業和領域的服務應用,完善與創新發展相適應的科學監管方式,制定相應的分類分級監管規則或者指引。例如,針對高風險和超高風險的人工智能應用,可以采用事前評估和風險預警的監管模式;針對中低風險的人工智能應用,則可采用事前披露和事后跟蹤的監管模式。這有助于更好地配置有限的監管資源,確保人工智能的安全利用。

  (四)保持公開透明

  在人工智能倫理領域,人工智能的公開透明是指在不傷害人工智能算法所有者利益的情況下,公開其人工智能系統中使用的源代碼和數據,避免“技術黑箱”。例如,《互聯網信息服務算法推薦管理規定》第16條規定:“算法推薦服務提供者應當以顯著方式告知用戶其提供算法推薦服務的情況,并以適當方式公示算法推薦服務的基本原理、目的意圖和主要運行機制等。”可以考慮公開算法流程,公開驗證算法時所生成的適當記錄,向公眾披露如何開發算法,開發算法時有哪些考量。但應當結合具體場景與具體對象,來確定算法的公開程度,有時應公開算法,有時只適合小范圍公開,有時甚至不公開算法,不應將算法的公開作為一般原理而機械化地適用。完全公開算法的代碼和數據,可能會泄露個人的敏感隱私數據,可能損害人工智能系統設計主體的商業秘密和競爭優勢,乃至有可能危及國家安全。

  公開透明還體現為人工智能系統的可解釋性。《個人信息保護法》第24條第3款規定:“通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”理由說明有助于保障當事人的程序性權利,增強決定的可接受性。因此,當人工智能產品、服務對個人權益有重大影響的,人工智能使用者有權要求提供者對產品、服務決策的過程、方式等作出解釋,有權對不合理的解釋進行投訴。當人工智能提供者進行解釋時,首先是局部的解釋,這是對某一特定決定的解釋,不需要對整個人工智能系統的活動進行解釋。其次是對因果關系的解釋,說明存在哪些因素,為何這些因素導出這樣的結果。但不必對系統技術細節加以過多解釋。

  (五)強化問責擔當

  可問責性(accountability)適用于人工智能活動中的不同主體。可問責性是良好治理的一部分,它與職責擔當、透明、可回答性和回應性有關。可問責性是解釋性的,有責任對所采取行為加以記述或說明;可問責性也是修正性的,如果出現錯誤,則應承擔糾錯的責任。或可將人工智能利用中的可問責性分解為“誰承擔責任”“對誰承擔責任”“遵循什么樣的標準來承擔責任”“對何事項”“通過什么程序”“應當產生何種結果”六個要素,通過明確問責主體、問責方式、問責標準、問責范圍、問責程序、責任后果,使得能夠對人工智能活動網絡中的多元主體加以問責,通過無遺漏的問責方式,通過依法設定的程序機制,讓問責體系與被問責的人工智能活動相匹配。

  人工智能系統是數據集、技術堆棧和復雜人際網絡的集合體,因此問責關系經常錯綜復雜。人工智能技術有可能取代人的勞動,乃至把控人的精神世界,但人工智能是將人的特征、技能予以片段化、分割化和分散化。或可將人工智能視為“特定目的的人”,但它只能在特定領域、特定方面、特定環節發揮作用。人工智能不能完全取代人,更不能由此弱化人的主體性地位。因此,在人工智能利用過程中,應堅持人類是最終責任主體,明確利益相關者的責任,全面增強責任意識,在人工智能全生命周期各環節自省自律,建立人工智能問責機制,不回避責任審查,不逃避應負責任。

  四、建設多元交迭的人工智能倫理規范體系

  以上討論了在人工智能利用全生命周期中,引入“倫理先行”原則的可能性,并討論了我國人工智能倫理規范的大致現狀,以及倫理規范應蘊含哪些實體原則和核心關切,又如何將這些原則和關切內化于我國的人工智能法律規則和政策體系之中。

  需要指出,不能依靠人工智能倫理規范來回應我國人工智能活動的所有問題。就人工智能倫理規范的內容形成及實施機制而言,或許還存在如下問題:第一,人工智能倫理規范很多時候是指導性規范或倡議性規范,如果不能在法律規范中將人工智能倫理規范的核心內容嵌入其中,則倫理規范的諸多內容仍是倡導性的,業界并不一定遵從;第二,人工智能倫理規范的內容可能會較為模糊,或者過于理想化,業界可能并不知道要采取哪些舉措,來踐行人工智能倫理規范中的要求;第三,很難對違反人工智能倫理規范的行為加以確證,也很難對違反倫理規范的行為給予后續的制裁。

  在未來的人工智能立法中,應該明確給倫理原則和倫理規范一席之地。筆者認為,可在立法中規定,“從事人工智能研究、開發、應用及相關活動,應當符合倫理原則和倫理規范”。但倫理規范制定的主體不限于行政部門,可在法律中明確規定學會、協會、產業技術聯盟等有權通過頒布標準或規則,來制定和實施人工智能倫理規范。需知,《標準化法》第18條第1款規定:“國家鼓勵學會、協會、商會、聯合會、產業技術聯盟等社會團體協調相關市場主體共同制定滿足市場和創新需要的團體標準,由本團體成員約定采用或者按照本團體的規定供社會自愿采用。”團體標準是供團體成員或社會自愿采用的標準。由學會、協會、產業技術聯盟來制定自律性的人工智能倫理規范,有助于在協商一致的基礎上制定倫理規范,更好適應人工智能產業的變化。這不僅激發了社會的力量,而且利用專業的知識來尋求自我規制,縮短了規則制定者和公眾之間的距離,有助于倫理規范的實施,讓人工智能倫理規范與法律規范互為替代和補充,從而構成交迭的規則體系。

  應鼓勵企業個體頒布規范本企業的人工智能倫理規范,以落實關于人工智能技術、產品和服務的可信要求。2018年以來,谷歌、微軟、IBM、曠視、騰訊等國內外企業都推出了企業人工智能治理準則,并設置了內設機構,來落實人工智能治理責任。筆者認為,在未來的人工智能立法中,應明確規定從事人工智能科技活動的單位要履行人工智能倫理管理主體責任,努力制定本單位的人工智能倫理規范或準則。對于從事人工智能科技活動的單位,當研究內容涉及科技倫理敏感領域的,應設立人工智能倫理審查委員會,并明晰人工智能倫理審查和監管職責,完善人工智能倫理審查、風險處置、違規處理等規則流程。

  當法律為人工智能領域的市場主體設定制定人工智能倫理規范、設立人工智能倫理審查委員會等義務時,其體現了“對自我規制的規制”或“元規制”精髓,這在以命令手段為特征的行政規制和私人主體的自我規制之間進行了勾連,形成了“鉸鏈”。元規制開辟了一張“疏而不漏”的羅網,給自我規制系統的活動留足了彈性空間,但綿密之處在于,當出現自我規制的失靈時,依然可以實現人工智能規制結構的安定性。

  需要指出,不應因人工智能倫理規范有著濃厚的科技背景,就放棄正當法律程序的要求、放棄公眾參與。在建設多元交迭的人工智能倫理規范體系時,應建構更為妥當的民主審議程序,讓包括普通公眾、社會團體、新聞媒體在內的利益相關方,能在信息充分、參與機會平等、決策程序公開的條件下,對相應人工智能政策議題進行討論,讓不同聲音都能進入人工智能倫理規范形成的競技場,讓不同利益都能得到恰如其分的衡量,從而更好凝練科學共識,以保障倫理規范的合法性、合目的性、民主性、透明性,進而改進倫理規范的科學性、有效性、靈活性,切實為人工智能產業提供助力和引導。

(作者系南開大學法學院院長。)



責任編輯:譚則章
本站系非盈利性學術網站,所有文章均為學術研究用途,如有任何權利問題請與我們聯系。
^