孔祥穩(對外經濟貿易大學法學院講師)
【摘 要】 互聯網時代,公共表達的主要空間轉移到互聯網平臺。由于技術能力和執法資源受限,行政機關傾向于通過課以平臺義務督促平臺展開內部規制,對信息內容的規制模式也隨之轉化為高權干預與私人規制的結合。但由于制定法對違法信息判斷標準和平臺審查義務界定的模糊,以及對責任設定的缺陷,致使平臺的規制活動存在侵犯使用者權利的風險和隱患。規制的不斷趨嚴可能帶來“寒蟬效應”,而平臺規制外觀上的私法屬性則使其逃避了公法規則的約束。可能的應對方案為優化平臺的法定審查義務,并明確平臺的基本權利保護要求。互聯網時代如何調處國家、平臺、私人的關系將是未來需要繼續面對的課題。
【關鍵詞】私權力 平臺責任 內容審查 基本權利第三人效力
一、問題的提出
數字經濟時代,信息成為社會經濟發展的重要驅動力,網絡平臺的迅速崛起則成為最顯著的經濟標志。作為信息聚合與流散的中心,網絡平臺通過高效的信息匹配形成了雙邊或多邊市場效應,成為社會生產生活的組織中心。信息撮合是平臺的本質和基礎,這致使巨量信息在平臺內融匯。在資源配置優化、社會生活便利的同時,大量違法信息也進入了平臺生態。由于技術能力和執法資源受限,行政機關通常難以直接對平臺內的所有違法行為進行管控,而傾向于對平臺課以義務、設定公法或私法責任,從而督促平臺展開內部規制來實現公共目的,“平臺責任”與“平臺治理”的命題就此形成。
為實現國家立法所規定的目標,大部分平臺制定了作為內部治理規則的“網規”,依托過濾、屏蔽等技術措施,在平臺內部建立和實施違法信息查處機制,優化整體秩序。這種兼具技術與策略的治理手段取得了良好的效果。在我國互聯網管理中,這一路徑也被形象地概括為“以網管網”。從大陸法系行政法學的理論框架來看,這一治理形式尚無法納入“行政授權”“行政委托”等傳統概念的范疇,也與行政任務民營化有一定差別。因為平臺并未得到實定法的明確授權或是特定主體的委托,而僅是基于法定義務的督促而展開內部規制。換句話說,實定法僅賦予平臺進行規制的義務,但卻并未賦予平臺相應的行政職權。此外,平臺的治理活動也并非是面向整個社會場域,而僅僅針對其平臺內部生態進行。鑒于此,平臺所行使的并非是來自于國家或公共組織所授予的“公權力”,而是基于其與平臺用戶之間支配與被支配關系而形成的一種“私權力”。
近年來,國內行政法學者在肯定私人審查和規制活動能夠提高規制效率、改善規制框架的同時,也指出其通常存在著突破比例原則、缺乏正當程序保護、合法性約束淡化等一系列問題。也即在私人規制的語境之下,除了厘清公權力與私權力之間的關系外,如何調和私權力與公民個人權利間的沖突,平衡治理效能和權利保護之間的張力也是極為重要的命題。正如有研究者所指出,智能互聯網時代形成了“公權力—私權力—私權利”之間復雜博弈的新格局,三者之間都可能發生合作與對抗機制,這在很大程度上改變了以往國家與社會、權力與權利的關系結構與功能。從國內相關研究來看,對于此種情境下如何保護權利的探討尚不充分。盡管有研究者指出私主體執行行政任務存在著侵犯公民權利、模糊政府責任以及危害公法價值等潛在風險,但卻并未系統構建應對機制。在公權力、私權力、私權利的三者的復雜博弈之中,私權利明顯處于相對弱勢的地位。
將這一復雜博弈體現得最為充分的是網絡平臺對于信息內容的規制。當互聯網成為社會信息的主要載體后,各類網絡平臺也成為了公共表達的主要場域。由于互聯網信息內容多、傳播速度快、影響范圍大、損害不可逆,仇恨性、煽動性表達可能造成的社會風險成倍提升,政府防范和干預風險的難度也逐漸增大。這使得各國開始重新審視對互聯網信息內容的規范。2018年,歐盟理事會要求歐盟委員會提交了關于提高檢測和刪除恐怖主義內容的立法提案,該提案于2019年4月17日經歐洲議會投票通過。德國也在2017年出臺了《改進社交網絡中法律執行的法案》(Gesetz zur Verbesserung der Rechtsdurch setzung in sozialen Netzwerkn,簡稱“《網絡執行法》”),該法案賦予了平臺更嚴格的信息管控義務。這似乎表明依托平臺展開規制成為世界范圍內的普遍選擇。但與此同時,平臺基于“私權力”而廣泛展開的規制活動逃逸在傳統公法規范的約束之外,增加了使用者權利被不當干預的風險。這種激烈的沖突反映出,在互聯網信息內容規制領域,國家公權力、平臺私權力、使用者個人權利三者間的內在張力需要得到更進一步的思考與解決。在此背景下,本文所要試圖回答的問題是,當數字經濟時代的公共治理發生轉向,私人規制成為公共治理的重要依托時,這一模式對于個體權利的保護帶來了哪些潛在的隱患和風險,以及如何在保障治理效能與保護個人權利之間尋求可欲的平衡。
二、網絡平臺信息內容規制的基本結構
傳統上,對表達權利的保護所面向的是“政府”與“個人”的二元關系,相應的制度安排也是在此基礎上構建。但當互聯網崛起,尤其是網絡平臺興起后,公共表達的主要場域從傳統媒介轉移到網絡平臺,內容規制的結構也隨之變為“個人(發言者)—企業(平臺)—政府(國家)”的三角關系。面對平臺企業的迅猛發展,我國以《網絡安全法》和《互聯網信息服務管理辦法》為基礎,輔之以大量的規章和規范性文件,已經構建起一個以平臺為中心的規制體系,各網絡平臺則在此基礎上制定頒布“網規”,形成內部治理的基本規則。
(一)內容規制的基本模式:從二元結構到三元結構
按照歐文·費斯(Owen Fiss)等學者對美國表達自由傳統的論述,古典的表達自由模式可以被理解為對“街頭發言者(the street corner speaker)”的保護——“街頭發言者”象征一個站在大城市街頭的肥皂箱上,因為向路人發表批評政府言論而被逮捕的個人。在這一設定中,公共言論的核心是批評政府的政治言論,美國憲法第一修正案如同一面盾牌,主要圍繞著防范國家對個人表達的壓制而構建。上述建構可以被歸納為古典的表達自由理論,其內在核心承襲了約翰·彌爾頓、約翰·密爾等人所構建的自由觀,與政治哲學上的古典自由主義和經濟學上的自由放任主義有著深刻聯系,也與美國表達自由理論體系中保護“自治”(autonomy)的理念緊密相關。在這一時期,表達權所面向的依然是“政府”與“個人”的二元對立關系,媒體的屬性、架構、功能等尚未對發言者和公共言論造成結構性影響,甚至于媒體也通常被視作具有表達需求的“個人”之代表,得到表達自由相關權利的保護。
然而,當大型媒介逐漸崛起,尤其是互聯網時代來臨后,“街頭發言者”模式逐漸被顛覆。首先,公共話語的集散地不再是“街頭”或傳統媒體,而轉移到了互聯網平臺。在“雙邊效應”的作用下,平臺經營業態逐漸混合化,部分平臺兼具了即時通訊、社交等多種功能,逐漸成為公共意見的集散地。美國皮尤研究中心的調查顯示,在2016年,有62%的美國人通過互聯網社交平臺獲取新聞,這一數字比2012年的49%上升了13個百分點。這顯示出互聯網在信息傳播上的作用正隨著數字技術的發展而不斷躍升。當更多人參與到公共表達中,且信息的載體逐漸數字化后,信息的量級急速遞增。面對無數的發言者、海量的信息、極快的傳播速度,公共部門無法再通過傳統的事先許可加事后審查的方式對信息內容進行直接規制,而必須訴諸于平臺的力量。強大的平臺面對分散的用戶具有技術上和資源上的優勢,包括關鍵詞過濾、刪除、屏蔽、封停賬號等手段在內的技術操作可對信息流通產生較大的影響,以至于國外有人從政治、經濟等方面進行分析后開始將Facebook等大型網絡平臺比作“國家”(Facebookistan)。故而在這個時代,公共表達中“政府”與“個人”的二元關系也開始逐漸轉化為“個人—企業—政府”的三角關系。
在對內容進行規制時,平臺因其在互聯網架構中的關鍵作用而有著政府難以比擬的優勢。用戶公開發表任何信息均需要經過平臺的服務器進行傳輸,在這一過程中,平臺可以通過關鍵字過濾等技術進行事先過濾,當用戶試圖發布的內容涉及敏感字詞時,可能會出現無法正常發送的情況,這意味著平臺能夠以較低的成本過濾掉大量具有違法風險的內容。在需要確定信息發布者并課以線下責任時,平臺通過其保存在后端的用戶注冊信息可以完成快捷和準確的確認,這一功能在實名制的網絡環境下體現得尤為明顯;而且,互聯網信息的傳播速度快,影響大,平臺可以基于對傳播效果的監測,在第一時間采取措施,有效阻止信息擴散。甚至可以采取封停賬戶等方式,清除發布嚴重違法信息或多次違法的賬號。總而言之,主管機關在對信息內容進行管控時,倘若能夠借助平臺的力量,將獲得事半功倍的效果。
(二)我國互聯網信息內容規制的法律框架
從實定法規范來看,我國互聯網信息內容規制的架構同樣符合上述特征,其具體規則分為三個層次:第一個層次是對違法信息的判定標準;第二個層次是平臺對違法信息的處理義務;第三個層次是平臺不履行或未按規定履行相關處理義務所可能導致的后果。
在互聯網違法信息判定上,公安部1997年發布的《計算機信息網絡國際聯網安全保護管理辦法》已經初步提出了判斷標準,這一標準在國務院2000年發布的《互聯網信息服務管理辦法》中得到進一步完善。該辦法第15條規定了八類互聯網信息服務提供者不得制作、復制、發布、傳播的信息,以及一項兜底條款,因而也被業界稱為“九不準”。由于這一條文調整的是互聯網信息服務提供者“制作、復制、發布、傳播”的行為,并不自主生產內容的第三方平臺自然也被納入調整范圍當中。2017年生效的《網絡安全法》雖未直接定義違法信息,但在總則部分規定了不得利用網絡從事的違法活動,這一范圍與“九不準”大致相同,僅在具體表述上存在部分差異。
在平臺對違法內容的處理義務方面,現行立法所規定的義務主要包括停止傳輸、消除信息、防止擴散、保存記錄、報告有關部門五類。早期的《互聯網信息服務管理辦法》僅規定停止傳輸、保存記錄、報告有關部門三項義務,并規定當平臺發現有信息“明顯”屬于該辦法第15條所規定的違法信息時,才負有相關的處理義務。《網絡安全法》沿用了2012年《全國人民代表大會常務委員會關于加強網絡信息保護的決定》中的規定,增加了采取消除等處置措施、防止擴散的義務,從側面反映出當下更加強調對于違法信息傳遞過程的管控,這與移動互聯網應用條件下違法信息的量級和傳播速率增加有緊密關聯。
在法律責任層面,《網絡安全法》第68條規定,平臺對法律、行政法規禁止發布或者傳輸的信息未采取停止傳輸、消除、保存有關記錄等措施的,由有關主管部門責令改正,給予警告,沒收違法所得。倘若有“拒不改正”或“情節嚴重”的情形,處十萬元以上五十萬元以下罰款,并可以責令暫停相關業務、停業整頓、關閉網站、吊銷相關業務許可證或者吊銷營業執照,對直接負責的主管人員和其他直接責任人員處一萬元以上十萬元以下罰款。這一條款相較于《互聯網信息服務管理辦法》第23條在責任形式上有所豐富,并增加了對于主管人員和其他直接責任人員個人的處罰。
從以上梳理可以看出,以《網絡安全法》和《互聯網信息服務管理辦法》等規范為基礎,實定法已經構建起一個以平臺為中心的規制體系。在該體系中,執法機關充分借助平臺在發現、尋找、處理違法信息方面的優勢,要求平臺積極展開規制活動。若平臺未按照法定要求處理違法信息,可能需要承擔相應的法律責任。國外有研究者將這一模式稱為“附屬審查”(collateral censorship),即當A主體可能對并無直接隸屬關系的B主體所發布的信息承擔法律責任時,A基于其實際權力而對B所發布信息進行的審查,并認為從政府直接規制到依托平臺的附屬審查體現了“新派”(new school)的表達規制路徑。從實踐來看,這一模式在保障互聯網信息秩序上發揮了很大作用,平臺在發現和處理違法信息上高效、便利的特點得到充分體現。但值得注意的是,雖然立法為平臺設定了發現和處理違法信息的義務,但對于平臺如何發現、判定違法信息則沒有進行清晰的界定,這導致規制體系內部存在著一定的隱患。
其一,《網絡安全法》第47條規定了平臺在發現違法信息后具有處置義務,但對于平臺應當負有怎樣的“發現”義務卻缺乏解釋。接到主管機關指令、接到用戶舉報、主動監控、人工排查等均可以納入“發現”范疇,但采用不同的標準卻對平臺運營的成本和架構有著不同影響。從實踐來看,下位法多有強化平臺“發現”義務,要求平臺主動進行違法信息的搜尋和監控的傾向。如2015年發布的《互聯網危險物品信息發布管理規定》明確要求網絡服務提供者加強對接入網站及用戶發布信息的管理,并確立了定期對信息進行巡查的義務。國家網信辦《互聯網用戶公眾賬號信息服務管理規定》第12條則要求平臺要對用戶公眾賬號的留言、跟帖、評論等互動環節進行實時管理。此外,部分規范還明確提出人工審查的要求,如《互聯網新聞信息服務管理規定》第6條就明確規定,申請互聯網新聞信息服務許可,必須有與服務相適應的內容審核人員。
其二,平臺對內容違法性的判斷可能欠缺專業度。《網絡安全法》和《互聯網信息服務管理辦法》對違法信息范圍的劃定較為全面,但卻存在判斷標準不夠清晰的問題。例如,《互聯網信息服務管理辦法》所規定的違法信息包括了“散布謠言,擾亂社會秩序,破壞社會穩定”,即俗稱的網絡謠言,《網絡安全法》也規定“不得編造、傳播虛假信息擾亂經濟秩序和社會秩序”。然而,判斷信息是否屬于“謠言”是一個復雜的事實認定和法律推理過程,通常需要對信息內容的性質、類型等進行實質性判斷,后果條件中的“社會秩序”“社會穩定”“經濟秩序”等概念又高度抽象,平臺作為不具備政策形成與法律裁量空間的企業,很難做出專業和準確的認定。對于這一問題,《互聯網信息服務管理辦法》曾經設定了一個獨特的規范結構——當互聯網信息服務提供者發現相關信息明顯屬于違法信息時,才負有采取措施的義務。信息達到“明顯違法”的標準,意味著一般理性人即可判斷,這避免了平臺專業能力不足的窘境。然而,包括《網絡安全法》在內的后續法規范幾乎都未采用這一標準。
其三,主管機關在對平臺課以行政責任時,可能存在忽略平臺技術審查能力的情況。因為對發現和處置義務界定不夠清晰,對平臺是否盡到審查義務的判斷往往被忽略,這導致執法可能出現“結果主義”——以平臺存在違法信息與否而非平臺存在過錯與否進行問責,實質上讓平臺對內容承擔了嚴格責任。有研究者認為,《網絡安全法》規定“發現違法信息”是平臺承擔處置義務的前提,這意味著平臺對于“未被發現”和“未能被發現”的違法信息不用承擔責任。也有研究者提出,從2012年《全國人民代表大會常務會員會關于加強網絡信息保護的決定》出發,平臺只有“發現法律、法規禁止發布或者傳輸的信息”時,才需要履行處置義務,如果平臺未發現相關信息是法律所禁止的信息,或者發現違法信息后履行了法定義務,則不應當承擔任何法律責任。但之所以執法中未采取此種過錯主義的歸責路徑,一種可能的解釋是,執法機關很大程度上把平臺視為了信息的總把關人,要求平臺對于其生態內的所有信息負總責。然而,在互聯網環境下,平臺并不具備傳統媒體管道中的層級管控能力。如果要求所有內容均經過人工把關的話,平臺運營成本將大幅度增加,信息效率可能受到影響,同時還可能會對內容豐富的大平臺形成主動減少創新的負向激勵。
(三)平臺內部的信息內容規制結構
在國家立法之外,絕大多數平臺幾乎都建立了系統內部的規則體系,即俗稱的“網規”,這被認為是低信息成本下實施法律,滿足治理要求的一種方式。在用戶注冊并使用個人賬戶時,這些規則以“用戶協議”“行為規范”等形式呈現,用戶必須同意相關規則才能順利注冊賬戶,接受平臺所提供的服務。從性質上說,網規與實定法最大的區別是,平臺通過與用戶簽訂協議的方式完成了規制依據的私法化。通過網規規范用戶行為的治理方式在近年來得到了主管機關的認可,成文立法中也開始明確要求平臺通過協議對用戶行為進行規范。
在對違法信息的應對和處理上,平臺采用了事前預防與事后制裁并行的技術手段。首先,如前所言,大部分平臺均建立了基于關鍵詞的事前過濾機制,從源頭上預防高風險信息進入平臺空間,大量違法信息在這一環節失去了流通可能。其次,當平臺經過主動審查或者接到其他用戶的舉報投訴,認定有違法信息存在時,將會啟動對違法信息和信息發布主體的處理。從實踐來看,各平臺使用較多的處理方式由輕到重,主要包括:屏蔽相關信息(其他人無法查看)、停止信息傳輸(即俗稱的刪帖)、一段時間內或永久的停止發言(禁言),以及暫停或永久性關閉用戶的賬號(封停),但對于上述各種處理手段之間的適用標準和相互關系,大多數網規的說明并不細致。
在救濟層面,當用戶發布的信息被認定為違法信息并被處理后,大多數平臺均設定了申訴復核機制。與網規的內部屬性相似,這一機制同樣屬于平臺內部機制,旨在為被錯誤判斷的用戶提供挑戰處理決定的途徑。以微信公眾平臺為例,在相關內容涉嫌違法被刪除后,后臺運營界面將在處理決定告知中附帶“發起申訴”鏈接,對于每條內容處理決定,公眾號運營者有一次申訴機會,可填寫200字以內的申訴原因并附上相關申訴證明材料。
三、網絡平臺信息內容規制結構的內在缺陷
依托前述規制結構,平臺實現了對違法信息的及時審查與處理。然而,由于成文法規則的不完善,導致這一結構也存在著一定的缺陷與隱患:在嚴格的法律責任面前,平臺的自我規制存在趨嚴的傾向,從而導致個人空間被壓縮。而當個人權利受損時,平臺私主體的屬性決定了其不受“國家—個人”關系中基本權利保護要求的限制。這所導致的結果是,在“政府—平臺—個人”的三角結構中,用戶個人始終處于弱勢狀態,并可能由此影響到平臺生態的繁榮和公共利益的實現,這一三角結構本身也難以形成可持續的均衡狀態。
(一)自我規制不斷趨嚴可能造成“寒蟬效應”
作為一個開放的公共論壇,通常來說,平臺會傾向于鼓勵內部多元文化的表達,豐富公共場域的觀點,從而實現信息乃至文化的繁榮。然而,在現有的規制體系下,因為實定法對平臺的審查義務和法律責任要求較嚴,而相關的判定、解釋標準又不夠清晰和細致,致使平臺暴露在過大的法律風險當中。從趨利避害的理性人角度出發,嚴格處理涉嫌違法的信息所涉及的是分散的單個用戶的權益,并不會對平臺內部的海量內容造成本質影響,尤其是發表這些內容所帶來的正向激勵更多歸屬于用戶個人而非平臺。但是,疏于處理卻可能使平臺面臨巨大的法律風險,這決定了平臺的審查標準必定是更加謹慎和嚴格的。有研究發現,在英國等國也存在著平臺在接到投訴后未經仔細核查就將合法內容下架的問題。具體而言,在違法內容的認定標準和處理機制兩個方面,平臺自我規制都存在不斷趨嚴的傾向,從而可能造成“寒蟬效應”。
首先,以微信公眾平臺的內容規制作為觀察對象,即可發現平臺在違法信息認定上存在擴張傾向。《微信公眾平臺服務協議》在第6.1.2部分明確規定了禁止發布、傳送、傳播、儲存的違法內容,共計12項,其中第12項為兜底條款。然而,在前11項中,除前8項與《互聯網信息服務管理辦法》所列舉違法信息范圍相一致外,第9至11項均有擴張的趨勢。尤其是該規范第11項,認為不符合《即時通信工具公眾信息服務發展管理暫行規定》及遵守法律法規、社會主義制度、國家利益、公民合法利益、公共秩序、社會道德風尚和信息真實性等“七條底線”要求的均屬于違規信息。在概念上,“七條底線”中存在著“國家利益”“公民合法利益”“公共秩序”等大量不確定概念,在解釋中可能出現擴大現象。在性質上,“七條底線”應當是規范即時通信工具服務使用者一般行為的原則性要求,而非判斷違法信息的具體標準,但平臺在執行時直接依據其判斷相關內容是否合法。這一“層層加碼”的趨勢擴大了審查范圍,使得審查進一步趨向于嚴格,同時也無助于用戶形成穩定的預期。
其次,舉報投訴機制中權利義務關系的失衡加劇了這一情況的發生。從制度設計上看,內容管理領域舉報投訴機制的原型是《侵權責任法》第36條的“通知—刪除”條款,其所借鑒的樣本是美國1998年《數字千年版權法》所確立的“避風港”規則。按照這一規則,當平臺上出現侵權內容時,權利人有權通知并要求平臺采取必要處理措施,若平臺未及時采取措施,需要就損害擴大部分承擔連帶責任。由于《侵權責任法》第36條的制度設計相對簡單,可能導致權利人通知行為的濫用,學者們普遍主張應當規定反通知機制,并明確錯誤通知的法律后果,此類主張在后續的《電子商務法》等立法中得到了體現。具體而言,版權領域“通知—刪除”規則中對于權利人的通知行為具有如下制約方式:第一,權利人在提出侵權通知時,必須提供構成侵權的初步證據,以襄助平臺作出判斷。第二,錯誤通知造成損失需要承擔責任,尤其是惡意通知,需要承擔更為嚴重的法律責任。第三,被通知人可以發出不存在侵權的反通知,通知與反通知之間的爭議將交由執法機關或司法機關解決,以避免平臺陷入判斷窘境。正如有研究者在評論《侵權責任法》第36條時所言,“在解決言論自由與人格權之間的矛盾時,只有法律的權威性方能夠賦予這種取舍以合理性基礎,而作為以個體利益最大化為目標的網絡服務提供者,顯然不能也不應被置于對二者進行利益衡量并予以取舍的地位”。
然而,當舉報投訴機制遷移到內容規制領域后,由于缺乏對于舉報投訴人行為的規范和制約,就有可能出現制度性失衡:其一,目前實定法所規定的“違法信息”主要為涉及公共利益而非私益的信息,用戶的判斷未必具有專業性,這使得舉報投訴可能是不準確的;其二,錯誤舉報投訴甚至惡意舉報投訴不用承擔責任,使得舉報投訴近乎“零成本”;其三,舉報投訴信息難以完整送達內容發布者,失去了通知與反通知機制中的實質性交涉環節。這使得內容領域的舉報機制過于偏向舉報投訴者。從平臺的角度出發,倘若在接到投訴舉報后未采取措施,而相關信息在后續處理中被主管機關認定為違法的話,平臺可能因為“發現”違法信息未處理而承擔責任。故平臺自然“寧失之于嚴,不失之于寬”,以投訴舉報的數量、內容的影響力等更加模糊的標準作為判定內容是否違法的依據。
此處值得一提的是,審查標準和審查力度的不斷強化,盡管能夠在很大程度上減輕主管機關查處違法信息的壓力,但對于公共治理而言卻并非益事。一方面,過于嚴格的信息過濾可能窒礙公共信息的有效傳遞,從而削減公共言論在促進文化繁榮、監督公權力運行等方面的作用,不必要的管制也會增加社會運行的額外成本;另一方面,由于平臺的規制活動與行政執法有著緊密聯系,誤判、誤刪等過度反應可能被使用者歸因于政府,導致主管機關公信力受挫。最為典型的例子是,由中央氣象臺官方微博所發布的臺風黃色預警曾經因為關鍵詞“涉黃”而被刪除,在互聯網上引發強烈批評。
(二)平臺在對基本權利進行限制時逃逸于公法規則約束之外
從上文的分析可以看出,平臺在其生態內部具有較為完整的規則制定權、執行權以及準司法救濟權,形成了一個近似于主權國家的權力體系。但倘若平臺的規制活動涉及用戶權利,則往往會因為在性質上屬于私主體而逃逸于公法規則的約束之外,增加權利被侵犯的風險。具體而言,這種風險可能表現在三個層面。
首先,在規則制定層面,平臺獨占了規則制定的話語權。在成文憲法國家中,憲法居于法律體系金字塔的頂端,代議機關通過立法實現憲法的具體化,授權政府展開規制活動。這也是行政法上最為傳統的正當性傳遞模式。然而,盡管網絡平臺所構建的公共生態與主權國家的公共空間存在一定同構性,但平臺用戶卻無法參與到規則制定當中。在用戶協議面前,用戶僅僅有選擇接受與否的權利。盡管從法律性質上看,平臺與用戶所締結的協議是平等主體之間的民事協議,但用戶卻缺乏實質上的議價能力。而大型互聯網企業向寡頭壟斷的邁進,也使得用戶“用腳投票”的可能性不復存在。美國皮尤研究中心2016年的調查顯示,在占美國總人口比例86%的美國網民中,Facebook的活躍用戶占比達到79%,比2015年升高5個百分點。這一數字遠遠高出排名第二的Instagram(32%),且Facebook用戶依然在逐漸增長,而其他社交平臺則僅能基本維持原有市場占比。這反映出大型平臺在用戶聚集上的虹吸效應。
其次,在規則實施層面,平臺的私主體身份讓其規避了公法原則的限制,其中最為典型的是對正當程序原則的規避。近代以降,正當程序逐漸成為保護公民權利的重要屏障。在行政執法活動中,正當程序的要求集中體現在,公權力機關對當事人做出不利決定時,應當告知當事人決定的內容并且說明理由,同時給予當事人陳述申辯的機會,告知其救濟的途徑。我國《行政處罰法》等多部法律的具體規范都體現了正當程序原則的精神。然而,在平臺規制活動中,作為私主體的平臺并不受到《行政處罰法》等公法規范的調整。正當程序作為一種權利保障裝置,其本身需要付出一定成本,以商業利益為主要考量的平臺并無動力主動遵循。事實上,免卻了正當程序的限制,也是平臺治理效率如此之高的一個重要原因。而缺乏了正當程序裝置的保障,用戶權利被侵犯的可能性將大幅增加。例如,在基于關鍵詞過濾的事前審查中,平臺所實施的事前限制的非正式性和隱蔽性都更加明顯;在對違法信息的處理中,平臺并未給予用戶充分的告知和說明,這導致用戶缺乏合理預期,對形成良好規范的平臺秩序也并無助益。部分平臺還直接在網規中列明,其有權不經通知隨時對相關內容進行刪除、屏蔽,并視行為情節對違規賬號處以警告、限制功能、封禁、注銷等各類處罰。
最后,在救濟路徑的選擇上,私法救濟對用戶權利的保護力度不足。從實踐來看,平臺內部的申訴機制存在著透明度不足等問題。當信息被刪除時,發布者雖然可以選擇進行申訴,但因平臺并未告知發布者刪除的詳細理由與依據,發布者自然也不可能提出有效的申訴理由。雙方無法形成實質性的交涉,該機制也就難以充分發揮作用。同時,對于平臺所展開的審查行為,用戶在尋求司法救濟方面存在困難。盡管我國未建立針對個案的憲法監督機制,但傳統上卻依靠其他公法規范形成了一套獨特的基本權利保護體系。尤其是行政訴訟制度,在保護公民基本權利上發揮了重要作用。然而,當平臺實施處置行為時,用戶不服處置決定在理論上只能以違反協議為由提起違約訴訟。值得注意的是,適用公法規范亦或私法規范對平臺活動進行審查的差異極大。在行政訴訟中,作為被告的行政機關需要承擔舉證責任,證明其行為的合法性;私法訴訟則遵循誰主張誰舉證的原則。同時,由于爭議所適用的是私法規則,更重視意思自治,提供格式合同文本的平臺顯然享有更為充分的解釋權和話語權。
四、以平臺為中心的規則調適
在“政府—平臺—用戶”的三元結構中,實定法賦予平臺的審查義務是平臺規制強化的重要動因,平臺相對于用戶的強勢地位則導致了其行為缺乏相應的限制與約束。調試這一結構需要回應上述兩個問題。一方面,應當從優化平臺的法定審查義務入手,設定更為清晰和明確的內容規制要求,減少平臺自我加壓的可能;另一方面,面對平臺對用戶所形成的實際支配地位,應當通過引入正當程序等公法要求和裝置,提高平臺在處置信息內容時的規范性,從正反兩個方面入手,保證“政府—平臺—用戶”三元結構的均衡性。
(一)優化平臺的法定審查義務
優化平臺責任的設定,其關鍵在于厘清平臺“發現”和“判明”違法信息的標準。如前文所言,之所以平臺規制會出現寬嚴失據的現象,其中一個原因是實定法在為平臺設定違法信息處理義務時,忽視了侵犯公共利益與侵犯私人利益的信息內容之差異,確立了相似的處理規則,從而導致部分權利平衡機制的失靈。因此,在對違法信息進行界定時,應當對侵犯公共利益的信息與侵犯私人利益的信息進行分類,根據不同信息內容的性質和特點來設計相應制度。
首先,對于侵犯公共利益的信息,在如何界定“發現”上,應當結合平臺經濟的特點和平臺技術特征確立標準。從實踐來看,平臺“發現”違法信息的主要路徑可以分為三類,分別為:(1)主管機關的通知;(2)平臺的自主監控;(3)用戶的舉報投訴。其中主管機關的通知屬于對違法內容的有權認定和處理,且通知內容確定,自然可以成為平臺“發現”義務的來源。對于平臺是否應當建立對內容的普遍監控,存在不同觀點。學界一般認為,盡管隨著互聯網平臺的發展,“避風港原則”經歷了部分修正與調整,然而其作為平臺法律責任的基本出發點這一判斷尚未發生改變。但是,由于互聯網在信息傳播上的優勢,平臺上的違法信息可能比傳統媒體上的違法信息對社會影響更大,這也促使平臺開始反思應當如何在公共治理中承擔更多責任。例如,2016年 12月,Facebook、微軟、Twitter和 YouTube就宣布將聯合開發一個共享數據庫,用來限制恐怖主義內容的傳播。因此,可行的折中方案為,不要求平臺承擔全面審查義務,尤其不應要求平臺對于每一條信息均進行發布前的人工審查,但可要求平臺建立符合技術特點的信息篩查和風險防范系統,即有研究者主張的“技術性審查”,從而以相對較小的成本實現有效率的規制。只要平臺建立并運行了相應機制,就應當認定其履行了相關義務,而不應采結果主義。對于技術能力有所欠缺的中小平臺而言,這種技術性審查可以考慮通過向第三方購買服務的方式實現。此外,還應當對用戶的舉報投訴機制進行適當改造,例如要求舉報者詳細闡述認定相關信息違法的理由,并設定惡意舉報時可對舉報投訴者處以暫停使用舉報功能,或暫停訪問等處置。當被舉報投訴的信息存在法律定性上的難題時,應當建立與主管機關的聯系與溝通制度,由主管機關進行最終的性質判定。目前,《互聯網用戶公眾賬號信息服務管理規定》已經意識到這一問題,在第 15條第2款規定了“完善惡意舉報甄別、舉報受理反饋等機制,及時公正處理投訴舉報”,但相應機制的設計還需繼續細化。
在對違法的判定標準上,應當重新回歸“明顯”標準。《互聯網信息服務管理辦法》第16條的規定表明,在規制初期,主管機關僅要求平臺對明顯違法的信息進行處理,只是這一標準在后續的立法中未被采納。然而,對信息內容進行法律定性本不是平臺所擅長的工作,平臺審查人員并非受過專業訓練的法律人士,并不掌握法律解釋的技能,難以對復雜內容進行準確定性。曾經有主張認為可以要求平臺通過雇傭律師等形式建立人工審核團隊,提高審查精確性。對于這一主張,暫且不論平臺是否能夠負擔相應人力成本,即便平臺聘請了相關專業人士,因其并不具有行政執法的主體資格,所作判斷同樣無法在法律上獲得最終的權威性,平臺依然要面臨與主管機關判斷不一致的風險。更為科學和合理的做法應當是回歸“明顯違法”這一判斷標準,無論是平臺主動監控獲得違法線索,亦或是通過舉報投訴途徑掌握違法線索,只有當相關內容的違法性明顯到一般理性人能夠直接作出判斷時,平臺才負有相應的處理義務,否則平臺僅應當依據主管機關指令來作出最終的處理決定。從比較法上的經驗來看,在歐美國家,平臺對用戶行政違法內容的注意義務通常都要低于民事侵權內容。這并非是因為行政違法內容所侵及的法益不如民事侵權內容重要,而是由于缺少了權利人所提供的相關證明材料等可用于認定,平臺很難進行法律上的準確判斷。
其次,對于侵犯私人利益的信息,由于其所侵犯的法益并不具備社會范圍內的整體危害性,從法益衡量和保護平臺生態的角度而言,不宜要求平臺建立一般性的審查機制。平臺對此類信息的“發現”只應基于執法機關、司法機關的指令和權利人的通知。在“通知——刪除”規則上,可大致沿用目前《侵權責任法》《電子商務法》的相關設定,即以“避風港”原則為基礎,明確反通知機制和錯誤通知的責任。但需要注意的是,在侵犯私人利益的信息中,有一類信息具有較高的公共利益屬性,屬于公益與私益交叉的信息,即《互聯網信息服務管理辦法》第15條第8項規定的“侮辱或者誹謗他人,侵害他人合法權益的”信息。相較于版權侵權,該類信息因為可能包括對公眾人物和公共事務的監督而具備一定的公益屬性,故在違法性判斷上應當參照侵犯公益的信息進行適當調整。
(二)明確平臺的權利保護要求
從制度經濟學的角度出發,通過設定相應的責任條款,以反向激勵的方式要求平臺承擔責任,在功能主義層面具有正當性基礎。然而,這種責任的設定必須在一個合理限度內,充分考慮到平臺的執行能力及其可能面臨的現實后果。從前文的梳理來看,制定法在設定平臺責任時較為嚴格,對平臺的審查義務要求偏高。造成這一現象的一個重要原因是,立法機關和主管部門在很大程度上注重了“以網管網”所帶來的快捷、便利、有效,但未充分考慮到這一路徑可能對私主體權益造成的損害。尤其值得注意的是,在互聯網平臺經濟迅速發展,內容創業成為重要風口的當下,信息內容規制不僅可能涉及平臺用戶的表達權利,還有可能影響到用戶的財產權利,從而形成基本權利的競合。因此,應當將保護基本權利作為平臺治理的一項重要價值納入規制系統的設計當中。在合理設定平臺法定審查義務的同時,還必須設計相應制度防止平臺過度侵及公民權利。有研究者提出,私人規制以合同和自愿為行動基礎,不受“無法律則無行政”原則的約束,但仍應當接受憲法規范的調整,負擔最基本的憲法義務。然而,其沒有解決的問題是,要求私主體承擔憲法義務,保護公民的基本權利,是否屬于憲法的效力范圍之內?如果屬于的話,私主體應當承擔的憲法義務又包括哪些?
這一問題的本質是憲法基本權利是否拘束私主體間關系的問題。以美國為代表的“國家行為”(State Action)理論和以德國為代表的“基本權利第三人效力”理論都試圖為這一問題提供方案。“國家行為”是指在私人關系中存在國家行為的因素時,即可適用基本權利規范,這些因素可能包括公共職能的承擔、與國家機構的緊密聯系、共同作出行為等。這一學說在美國國內即存在巨大爭議,關于其存廢或改造的論爭一直未停止。“基本權利第三人效力”是指傳統上針對國家權力的基本權利效力及于國家與公民關系之外的第三人,即拘束私人與私人之間的關系。基本權利第三人效力有“直接效力說”和“間接效力說”之分。直接效力說認為基本權利可以在私人之間直接適用,法院可以在民事爭議中直接援引基本權利規范進行裁決。間接效力說則主張基本權利不能直接適用于私人之間,而應當通過轉介后方可適用。其中間接效力說又存在“客觀價值秩序說”與“國家保護義務說”兩種理論進路。客觀價值秩序說認為憲法基本權利具有主觀權利與客觀價值秩序的雙重功能,其中客觀價值秩序應當對所有的法領域產生影響;國家保護義務說認為當公民的基本權利遭到私主體的侵害時,國家有義務采取積極有效的保護措施。
近年來,間接效力說遭到兩點較為有力的批評。一是間接適用具有虛假性,因為民法概括條款的適用僅具有形式意義,起實質作用的依然是基本權利規范;二是由于概括性條款高度不確定,間接適用可能導致法安定性喪失,尤其是其普遍適用可能會對私法自治帶來威脅。論者所提出的解決方案是,在承認公私法二元框架下,通過引入“社會公權力”這一概念,對部分具有支配力量的私主體進行法律上的重新定義,以擴大公法調整的范圍。然而,該主張存在的問題是,“社會公權力”這一概念可能對公法學的體系性帶來沖擊,很難以被納入規范框架。例如,論者將一部分職業團體、企業等也視為“社會公權力”的主體,這與行政法上“法律、法規授權的組織”這一概念存在著重合,因而行使“社會公權力”的主體是否應當適用行政法相關規范就存在疑問。此外,也有研究者沿日本法上高橋和之等人的研究路徑,主張基本權利對第三人無效力,其主要立場是我國憲法并非如同德國憲法一般是法律之上的價值母法,因此憲法基本權利不可能對所有法領域形成客觀價值秩序,憲法基本權利與民事權利均為人權這一道德權利的分別實證化。
可以看出,厘清這一爭議的關鍵是找到憲法基本權利客觀價值秩序的位置。應當承認,通過民法實證化的權利可以有多重道德價值來源,其中既包括憲法基本權利所包含的價值(如基于憲法財產權而形成的物權),也包括憲法之外的其他道德價值。但在憲法基本權利規范的輻射空間內,民法的價值體系必須要受到憲法價值秩序的約束和整合,即受到基本權利客觀秩序的拘束,例如財產權所承擔的社會義務。中國特色社會主義法律體系“以憲法為統帥”,這種整合的具體形式包括了立法機關通過制定法律的方式對憲法規范進行具體化。事實上,前文提及的《電子商務法》等立法中對于通知與反通知機制的規定實際上就已經涉及保護表達的價值面向。故由立法機關將憲法基本權利的保護要求以制定法的形式在私主體間具體化并無不當,它既是基本權利國家保護義務的實現,也是憲法基本權利規范的具體化。因此,在互聯網立法中,明確平臺信息審查義務的同時,同時也應當明確平臺的權利保護要求。
由于私主體間的基本權利侵害多以權利沖突的形式出現,即在保護一方基本權利時(用戶表達自由)可能對另一方的基本權利構成干預(平臺行為自由),因此不能直接套用傳統基本權利保護的框架,而應當進行更加細致的處理。在德國法上,對傳統的基本權利侵害通常以比例原則作為審查標準,但在國家基本權利保護義務上則僅要求達到憲法的最低水準,適用不足之禁止的原則。具體而言,在處理私主體之間的基本權利保護問題時,可考慮三個方面因素:其一,侵害基本權利的行為類型,即區分對基本權利的侵犯是通過法律行為抑或事實行為實施;其二,私主體之間的地位區別和力量差異,這其中應當主要考慮具備優勢地位者是否具備支配性地位,因為只要競爭機制能夠運行,權力差距本身對協商自由的影響就會較小;其三,所涉及法益的重要性,即根據法益重要性來確定保護的必要性,例如卡納里斯曾經提出,“在那些不具備或者基本不具備人身內容的基本權利的限制情形中,基本上應該不予考慮類似的必要性和合比例性的審查”。
具體到本文所討論的信息內容規制,其性質本質上是一種基于合同而展開的治理。由于實定法僅僅賦予了平臺審查義務,而并未賦予其行政職權,故平臺并不具有法定的行政管理權限。只是由于用戶需要依托平臺所提供的基本架構發布信息,平臺對用戶才形成了實際上的支配力,并通過用戶協議確認了這種權力。基于契約自由的原則,應當承認平臺在合同下具備一定的自治空間。美國也有研究者提出,不應當對社交媒體平臺完全適用第一修正案,否則大量無法被有效治理的言論等將降低信息環境的質量,導致平臺價值的降低。因此,制度建構的重點應當是解決由于平臺的“雙邊經濟”效應和頭部效應造成的用戶弱勢問題。在所涉及的法益方面,表達自由是我國憲法基本權利中較為重要的政治權利,在基本權利序列中排序較為靠前。同時,由于對用戶的刪帖、封號等行為可能涉及賬號所有者的財產利益,因而可能出現基本權利的競合,具有較強的保護必要性。但從另一方面來說,考慮到平臺上違法信息的數量級和治理可能,保護裝置的要求同樣不宜過高。
綜合考慮上述因素,應當從實體與程序兩方面設定平臺的權利保護要求。首先,在實體要求上,應當規定平臺在對違法信息進行處理時,處理措施應當與違法信息的內容、性質、社會危害程度相當。例如,在通過刪除內容能夠實現治理目的的前提下,就不應當采用封停賬號的形式進行處置。當通過短期封停賬號能夠起到警示作用時,就不應當采用永久封停賬號的處置形式。其次,在程序要求上,應當明確平臺的信息處理措施要遵循最低程度的正當程序原則,其具體內容包括:(1)規制信息內容的標準應當事先公開,并做到清晰可理解;(2)在認定相關信息內容違法需要進行處理時,應當有充分的理由說明;(3)建立具有實質交互性的參與和申訴救濟機制。
五、結 語
自近代以來,對公民基本權利的侵犯主要來源于國家公權力,故憲制架構也以防范國家公權力對公民基本權利的侵害為主要目的。然而隨著科學技術的發展進步,新經濟組織的壯大和社會結構的變化,使得基于傳統社會而設定的法律構架面臨著挑戰。互聯網及互聯網產業的發展即是個中代表,其在便利生活的同時,也形成了支配生活的強大力量。于是傳統的“國家—個人”二元結構逐漸形成“國家—平臺—個人”的三元結構,“公權力”與“私權利”之間的對抗博弈也轉換成了更加復雜的“公權力—私權力—私權利”之間的合作對抗與復雜博弈。在這組博弈關系中,私權利的保護是一個難解的話題。有從博弈論視角展開的研究認為,作為監控者,國家與商業組織會在絕大多數情境中采取合作策略,而在利益嚴重沖突時則轉變為對抗策略。但無論監控者之間采取何種策略,均將使作為被監控者的社會個體利益遭受損害。本文以網絡平臺展開的信息內容規制作為例證,試圖對這一組復雜關系中的私權利保護問題進行解剖并尋找對策,但遠未在規范上提出徹底解決這一問題的辦法。未來應當如何完成三元格局的規范建構,依然需要繼續探索。