揭露還是遮掩?成人平台在歐盟數位服務法透明度報告的實踐現狀 #
1. 緒論 #
網際網路內容生態在過去二十年間經歷深刻的典範轉移。於網路發展的早期階段,線上內容主要由報社、出版社、電視網路等傳統媒體機構或專業內容提供者掌控,形成自上而下、集中式的單向傳播模式。內容的生產、編輯與品質控制多由少數專業人士決定,平臺則扮演基礎設施提供者的角色。但社群媒體、影音分享平臺、即時直播服務以及各類用戶生成內容(User-Generated Content, UGC)平臺的崛起,此一格局已被徹底改寫。任何具備網路連接的個體皆得以成為內容創作者,無需經過傳統媒體的審查流程即可直接向全球受眾發布影像、照片、文字與直播內容。內容的生產、發布與傳播能力逐漸由一般使用者掌握,形成「人人皆為出版社」的時代。
然而,此一內容生產民主化的浪潮亦帶來前所未有的治理挑戰,使傳統集中式把關為核心的內容管制模式難以為繼。在數十億使用者持續生成與上傳內容的數位環境中,人工的集中式審查機制難以負荷其規模與速度,內容生產的民主化也伴隨著監管實踐的高度碎片化。
首先,在規模與複雜度層面,內容審核決策的數量呈現爆炸式成長。依據歐盟委員會所公布的資料,經指定之「超大型線上平台」(Very Large Online Platforms, VLOPs)與「超大型線上搜尋引擎」(Very Large Online Search Engines, VLOSEs)於歐盟透明度資料庫中,累計提交之內容審查決策已超過三十六億筆。面對如此龐大的規模,人工審查顯然無法全面應對,平台因而愈加依賴自動化演算法系統,其中約有47%的決策係由完全自動化機制所作成。惟此類系統之運作邏輯通常不具可見性,其內含的偏誤與錯誤亦難以為外界有效辨識與評估(DSA Transparency Database)。數位平台透過演算法系統決定內容的曝光度、可見性與可存取性,已掌握前所未有的資訊控制能力。然而,與此種權力集中相對應的問責機制卻仍相當薄弱,使內容審查成為當代數位治理中最具爭議性、亦最不透明的治理場域之一。
其次,在規範層面,內容治理亦面臨根本性的定義困境。「非法內容」、「有害內容」或「不當言論」等關鍵概念,即便在歐盟法制架構內部亦未必具有一致內涵,不同成員國基於其社會價值與文化背景,往往採取截然不同的判斷標準。例如,對於宗教批評言論或性別暴力影像之評價,在各文化之間即存在顯著差異。跨境平台必定遭遇彼此衝突甚至相互矛盾的法律與道德規範。
最後,內容審核始終處於言論自由與權利保護間的緊張關係之中。過度嚴格的審查可能壓抑合法言論並引發寒蟬效應,而審查不足則可能導致仇恨言論、暴力內容或兒少性虐待素材的擴散。此一張力在成人內容領域尤為明顯,而兩者在實務上往往難以兼顧。
為因應上述挑戰,歐盟推出全球首套結構化、全面性的數位平臺監管框架《數位服務法》(Digital Services Act, DSA),並於 2022年 11 月正式生效。本文主要關注於其引入之透明度義務與其實踐分析。
本文 2. 將回顧透明度此一概念的發展,並整理相關學說對其在演算法問責領域中之限制與批判,進而說明DSA所建立之透明度義務框架。3. 將闡述本文為比較 DSA 下透明度義務於社群平台與成人平台之實踐時間差異所採取的研究方法,以及研究對象之選擇依據。4. 將呈現研究方法實際應用於研究對象後所獲得的數據結果。5. 則進一步分析並比較社群平台在透明度報告中所展現之特性,是否得以在成人平台的透明度報告中加以復現,並就兩者之差異進行討論。6. 最後將總結本文之研究發現與實證貢獻,並提出未來研究之可能方向。
2. 文獻回顧 #
2.1 透明度 #
透明度長期以來被視為一項重要價值,無論在公領域或私領域中皆佔有重要地位。當此一價值被引入監管體系時,亦往往被視為理所當然且正當的規範目標。然而,隨著當代科技的快速發展,以及相關制度與技術架構日益複雜,學界開始對透明度作為監管指標的規範意義與實際效用提出反思。特別是在複雜性已超出一般非專業人士(lay persons)理解能力的情境下,透明度是否仍能發揮其傳統所期待的問責、監督與正當化功能,已成為備受爭論的問題。以下將回顧並整理既有文獻中對於透明度概念及其監管角色的主要論述與批判。
2.2 概念與規範理想 #
關於透明度的具體定義各家學說有不同的見解與分類,但其大致可以被定義為「能使公眾能夠獲得有關特定實體的運營和結構資訊的原則」(Etzioni, 2010)。對於透明度的理想通常遵循著以下邏輯:觀察產生洞見,洞見創造知識,而知識則是治理和問責系統所必需的。因此觀察者對系統內部運作瞭解得越多,就能越有理有據地對其進行治理和問責。這也是為什麼近來透明度多見於針對國家和大企業實現有效問責的工具中(Ananny & Crawford, 2018)。
2.3 在演算法治理中的侷限 #
然而,當透明度的概念被引入演算法問責(algorithmic accountability)的場域時,既有研究發現,其在功能與價值層面所面臨的困境,與其他高科技監管領域相仿,甚至更為嚴峻,從而使透明度機制在實務運作上顯現出顯著侷限。首先,透明度在演算法問責中的具體實踐,會因技術性質的差異而呈現出決定性的落差。例如,針對較為傳統的評分或決策系統,要求「完全透明度」(all-process),亦即全面揭露所有評分依據、處理流程或相關數據,往往在技術上可行,且對一般非專業人士而言仍具有一定的可理解性(Ananny & Crawford, 2018; Citron & Pasquale, 2014)
然而,當演算法的複雜度急遽提升,特別是在涉及機器學習或深度學習模型的情境下,對「完全透明度」的追求不僅難以實現,其規範價值亦不若前述情境,甚至可能背離透明度原初所欲達成的目的。有學者即指出,無效的透明度可能引發「資訊過載」的悖論,使關鍵資訊淹沒於大量雜訊之中,形成所謂的「不經意遮蔽」;或透過釋放龐雜而瑣碎的資訊,刻意轉移監督與審查焦點,構成「策略性遮蔽」(Ananny & Crawford, 2018)。
針對此一因演算法類型差異而產生的透明度實踐落差,部分文獻主張,透明度所應關注的層次亦須隨技術特性而調整,建立針對該技術特性的透明度標準。例如,在面對具黑箱特性的機器學習演算法時,有學者認為透明度不應僅限於模型演算法的揭示,而應擴展至資料層面,特別是資料選擇、處理與標註等「資料操作階段」(playing-with-the-data stages),以回應其特有風險(Lehr & Ohm, 2017)。
此外隨著理解技術的門檻逐漸增高,「可觀察」的透明度往往流於形式上的「看見」而非實質的「理解」,僅揭示系統內部構造不足以解釋其複雜行為。此外,受限於演算法的運算規模、速度及暫存性特徵,靜態的程式碼或數據揭露僅能提供特定時間點的快照(snapshot),難以捕捉如自適應系統(adaptive systems)的全貌。因此,僅要求表面層次的明度不足以應對當代演算法系統的複雜問責需求,也不足以滿足人們對於有效問責的理想(Ananny & Crawford, 2018)。
綜上所述,儘管透明度作為一價值仍然具有其吸引力,但其作為演算法治理與問責工具的功能,已不再能被視為理所當然。特別是在高度複雜、動態且具有黑箱特性的系統中,傳統想像中單一、抽象且以的「全面揭露」為核心的透明度構想,不僅難以實現,亦可能無法有效回應實際的問責需求。此一反思亦對立法者提出關鍵挑戰:在承認透明度之規範價值的同時,如何重新設計其制度內涵,使其得以在不過度簡化技術現實的前提下,仍能發揮促進理解、監督與問責的功能。歐盟近年所制定之《數位服務法》正是在此脈絡下,嘗試對透明度加以重新定位與具體化。
2.4 透明度報告:DSA的核心透明度監管工具 #
歐盟數位服務法為了構建符合線上平台監管需求的透明度,引入了一套的透明度義務體系。此一體系透過分層設計,對不同平台課予差異化義務,其中尤以 VLOPs 與VLOSEs承擔最高強度的透明度要求。整體而言,DSA 的透明度規範可概分為二個類別。
2.4.1 個人程序透明度(第17條) #
當用戶的內容被平臺限制、移除或以其他方式進行內容審核時,平臺必須向用戶提供「理由說明書」(Statement of Reasons, SoR),根據規定,理由說明書必須包含提出移除/限制決定所依據的具體規則或條款、決策是否由自動化工具做出,以及人工審查的程度、用戶申訴和複審的途徑、訴外紛爭解決機構(out-of-court dispute settlement)。
理由說明書的提供是DSA透明度框架的基礎,確保每一個受影響的用戶都能了解平臺為什麼對其內容採取了行動。所有的理由說明書都被收集在歐盟委員會維護的DSA透明度資料庫中,形成了全球最大的線上平臺內容審核決策資料集,可供研究與確認平台內容審核決策標準的一致或偏移。
2.4.2 平台透明度報告(第15、24、42條) #
除個案層次的理由說明義務外,DSA 亦透過定期透明度報告制度,要求平台揭露其內容審核決策,以提升外部監督與問責可能。此一報告義務依平台類型與風險程度採取分級設計,適用範圍與揭露密度隨平台影響力而逐步提高。依第 15 條規定,所有中介服務提供者均須定期公布其接收並執行之移除令與限制令的數量,說明用戶檢舉內容的規模、內容類型及處理結果,並揭露內部申訴機制的運作情形。此外,平台亦須說明是否使用自動化工具進行內容審核,以及該等工具的基本運作方式與指標。
針對線上平台提供者,第 24 條進一步加重其透明度義務,要求平台揭露因違反自身社群守則而遭移除的內容數量,並提供關於訴外爭議解決機制所受理案件的統計資料。同時,平台亦須說明其內部申訴程序的平均處理時間與結果分布,以呈現用戶救濟機制的實際情況。
對於VLOPs/VLOSEs,DSA 則於第 42 條設立最高強度的透明度要求。此一層級不僅要求平台提供更為細緻的內容審核統計數據,亦進一步觸及其組織與制度層面的運作資訊,包括內容審核人員的語言能力與地理分布、不同成員國間審核決策的一致性,以及系統性風險評估的結果與相應的風險緩解措施。此外,平台尚須依不同內容類型(如成人、暴力或錯誤資訊)分別揭露審核實務,並特別就兒少保護相關的內容審核活動提供專門統計。
然而,透明度報告本身並不能保證問責或資訊可理解性。既有研究指出透明度揭露制度在各個檢管框架中(例如:永續報告)中,往往被企業用作形象管理與合法性維護的策略性工具,而非真正旨在提升公共理解或強化問責的機制。既有研究指出,永續報告雖以透明為名,但在實務中常形成「有組織的虛偽」,企業透過選擇性揭露、堆砌技術用語或低度相關資訊的方式,來塑造企業合規或負責任的形象,而非回應利益關係人真正關切的核心議題(Higgins et al., 2020; Zalnieriute, 2021)。
為了解透明度報告的實際運作情況,既有研究針對於2021年十一月前共計13家公司(如一家公司具有一個以上的VLOP指定線上平台將被歸類為一個研究對象)所出版的透明度報告,透過可量化的透明度指標進行編碼發現沒有任何一份報告提供的數據完全符合 SCP 2.0 標準,而最大的制度與實踐落差在於對內部審查和檢舉流程(flagging processes)的數據報告不完整、或完全未公開(Urman & Makhortykh, 2023)。
因此,本文旨在探討在SCP 2.0的分析框架下,觀察現行DSA透明度報告的實際運作情形,與過往相關研究中指出不同線上平台在實踐透明度報告之間的差異,以了解這些現象是否有隨時間改變,或是這些在專注成人內容市場的線上平台,與其他線上平台於透明度報告的呈現上是否有所不同。
3. 研究方法 #
為確保本文的分析結果能與既有文獻可比較性,本文延續既有研究方法,採用「聖塔克拉拉透明與問責原則 2.0」(The Santa Clara Principles on Transparency and Accountability in Content Moderation 2.0,下稱 SCP 2.0)作為透明度報告的分析基準 (Urman & Makhortykh, 2023)。SCP 2.0 由學者、產業界、人權組織與公民社會倡議者共同提出,目的在於回應網路平台日益積極介入使用者生成內容之情況,要求平台提供「具意義的透明性與問責機制」,並已獲多個對全球平台治理具影響力的組織採納。
SCP 於 2021 年發布的 2.0 版本特別強調,各國在透明度實踐上的落差正在擴大,因此有必要明確化平台應揭露的資訊指標。其中與本文最相關的重大調整是於「實踐性原則」(Operational Principles)下新增「數據」(Numbers)章節,系統性列舉平台應公開的量化指標,以作為透明度與問責性的最低揭露標準。此章節不僅提高透明度要求的可操作性與可量化性,也為本文分析結果的可驗證性與可重現性提供重要基礎。
在研究設計上,本文蒐集並分析四個被指定為超大型線上平台(VLOPs)的成人內容平台之最新透明度報告,逐項記錄其是否揭露透過此分析架構,且為量化合規程度,本文以合規項目、合規百分比作為分母分子,分群為社群平台組(Urman & Makhortykh, 2023)與本研究之成人平台組之間的合規趨勢差異。本文得以評估成人平台在 DSA 監管下之透明度揭露程o度,並與既有研究所揭示的平台透明性趨勢進行比較。 平均合規分數 = 所有公司的合規得分總和 ÷ 公司總數 平均合規百分比 = 所有公司的合規得分總和 ÷ 公司總分上限 × 100%
3.1 研究對象 #
所謂成人平台係指提供成人內容之線上服務,儘管此類平台在一般大眾日常語境中常被視為禁忌,惟《數位服務法案》(Digital Services Act, DSA)於指定VLOPs及VLOSEs時,並未將其排除在監管之外。截至本文完成之日已被歐盟委員會指定為 VLOPs 的成人平台包括 Pornhub(Aylo Fressites Ltd)、Xvideos(WebGroup Czech Republic)、XNXX(NKL Associates s.r.o.)及 Stripchat(Technius Ltd.),截至2025年12月4日之前最新的透明度報告。
作為比較組別的13個社群平台為則是Google and YouTube , Microsoft , Apple , Meta, LinkedIn , Github, TikTok , Snapchat , Pinterest , Reddit , Twitter , Amazon與 Twitch(Urman & Makhortykh, 2023),報告時間區間為2021年11月至2022年11月。
3.2 網路內容管制之濫觴:成人內容 #
網路內容管制的發展,最早即集中於對成人與猥褻內容(obscenity)的規範,此一討論可追溯至美國憲法第一修正案下對言論自由與的長期辯論。在網際網路出現之前,美國最高法院已透過普通法建立判斷猥褻內容的憲法標準,其中以Miller v. California, 413 U.S. 15 (1973)為最具代表性的案例。於該案中,法院提出著名的 Miller test: • 一般人若套用當代社群標準 (Community standards),是否會發現整體作品引發了猥褻的興趣。 • 該作品是否以描繪或以明顯冒犯的方式描述性行為或排泄功能 • 以及整體而言是否欠缺嚴肅的文學、藝術、政治或科學價值。 前兩項標準依社群標準進行,第三項則基於「合理之人是否會從整體作品中獲得此等價值」。此一測試反映出法院試圖在保障言論自由與容許對特定內容進行限制之間,建立一套相對彈性的衡量機制。
然而,當網際網路逐漸成為主要的資訊傳播媒介後,傳統以具有地域性的社群標準為核心的猥褻測試架構,開始面臨適用上的根本挑戰。為回應對兒少接觸網路成人內容的社會焦慮,美國國會於 1996 年通過《通訊端正法》(Communications Decency Act, CDA),試圖以刑事責任的方式,禁止在網路上傳播「猥褻」或「不雅」(indecent)內容予兒少。CDA 的立法邏輯,體現出早期網路治理將網路空間(cyberspace) 類比為廣播或電信媒介,依舊以保護兒少為正當化基礎的管制取向。
此一全面且嚴格的監管模式,尤其是針對內容的監管模式,很快即遭遇重大挫敗。在 Reno v. ACLU, 521 U.S. 844 (1997) 一案中,最高法院宣告 CDA 中關於「不雅內容」(indecent)的禁止規定違憲。法院指出,網際網路不同於傳統媒體,其具備高度多元、去中心化與使用者主動取用的特性,因而應享有與傳統媒體相近、甚至更高程度的憲法保障。更重要的是,法院認為 CDA 所使用的「不雅」等概念過於模糊,以至於缺乏第一修正案所要求的精確性,可能對言論產生寒蟬效應,並不符合比例原則下對言論自由限制的要求。
從 Miller v. California 到 Reno v. ACLU 的發展可以清楚勾勒出網路內容管制的軌跡就如同其他新興言論形式,是從成人內容開始作為最早被制度性介入的對象;再者傳統以全面禁止與刑罰威嚇為核心的管制手段,尤其是內容管制模式,已然遭遇憲法上的高度限制。此一經驗不僅形塑了後續美國網路言論法制的基本方向,亦對各國在設計網路內容治理制度時,如何在言論自由、兒少保護與技術現實之間取得平衡之思考留下重要的參考。
3.3 線上成人平台與DSA #
關於成人內容是否應被允許存在之議題自古以來爭議不斷,然而現實情況是此類內容不僅持續存在,更具有廣大的受眾與相當程度的社會影響力。雖然第一批於 2023 年 4 月 25 日公布的 VLOPs 與 VLOSEs 名單中尚未納入成人平台,但在第二批指定時,三個成人平台因符合每月平均 4,500 萬用戶之門檻而被納入 VLOPs 的監管範疇,而XNXX則緊接其後 。
從第二批指定名單及XNXX被納入 VLOPs 以及 DSA 對兒少保護所設定的義務可觀察到,歐盟委員會並未因成人內容在公領域中具有禁忌性而放寬監管。相反地,委員會意欲透過 DSA 所建構的線上平台監管架構,將其對兒少保護之政策理念具體落實於成人線上平台之管理之中的野心。
本文之所以選擇成人內容平臺作為研究對象,而非更廣為人知的Facebook或YouTube等大型社群平台,原因有三:
- 研究空白:針對社交媒體平臺(特別是Facebook、YouTube、TikTok)的DSA合規性研究已相對豐富,這些平臺的審核實踐也受到學術界、新聞媒體和民間監督機構的廣泛關注。而針對成人內容平臺的研究幾乎是空白狀態。這些平臺儘管被指定為VLOPs,擁有超過閾值的歐盟月均活躍用戶,但關於它們如何遵守DSA透明度義務、它們的實踐存在什麼問題的研究文獻幾乎不存在。
- 平台特性差異:社群平台與成人平台在用戶基礎上存在顯著差異,例如,社群平台中的用戶多同時扮演內容生產者與內容消費者的角色,而成人平台的用戶則主要以內容消費者為主,內容創作者所佔比例相對較低。此種用戶角色結構的差異,可能進一步影響平台在內容治理與透明度義務履行上的監管重心與實踐方式。不同平台類型是否因其用戶基礎與互動模式的差異,而在透明度規範的實施上表現出差異,正是本文欲加以探討的核心問題之一。
- 內容審核:在內容審核層面,成人平台所面臨的法律與倫理問題尤為複雜。在社群平台上,涉及成人內容的內容審核可以輕易的以「不符社群守則」移除,但以成人內容為主要載體的成人平台就不得不面對關於成人內容是否符合規範的價值判斷。而相較於暴力內容或兒童性虐待素材等判斷標準相對明確的非法內容,成人內容的審核往往涉及多組彼此衝突的價值原則,要求平台在不同規範目標之間進行權衡。比方說在網際網路的情境下,成人內容的評價亦受到文化與價值差異的影響,歐盟所強調的性別平等與性自主,可能與部分成員國根植於宗教或傳統文化立場產生根本衝突。正因如此成人平台的內容審核決策相較於主流社群平台更難以標準化,也更容易呈現不一致的結果,從而更容易體現DSA透明度框架在實務運作上的限制。基於此,成人平台可被視為一種「放大鏡」,有助於觀察與檢驗DSA在透明度義務設計與實施上的挑戰。
4. 結果 #
本文依據SCP 2.0 實踐性原則下之數據章節所提出的三大評估指標作為基準,對於四大成人線上平台最今公開之透明度報告進行檢視與編碼,最後以圖表的方式呈現實行狀況。至於各平台提出高於SCP 2.0所要求的揭露內容,則在4.4部分個別討論。
4.1 未涉及國家行為之內容與帳號處置 #
SCP 實踐性原則的其中一種重要分類即是區分內容審核行動是否有國家行為介入,這是區分平台自主與被動的重要指標,本節項目皆以無國家行為介入,也就是平台自主內容審核(Own-initiative content moderation)。視覺化成限於下表格1
表格 1: 未涉及國家行為之內容與帳號處置
| 公司/項目 | 1.1 總處置數 | 1.2 申訴次數 | 1.3 申訴成功率 | 1.4 自動化申訴成功率 | 1.5 主動復原數 | 1.6 仇恨言論數據 | 1.7 危機期處置 |
|---|---|---|---|---|---|---|---|
| Pornhub | ⁶/₈ (¾) | ⁴/₈ (½) | ⁶/₈ (¾) | ²/₈ (¼) | ⁰/₈ | ²/₈ (¼) | ⁰/₈ |
| XVideos | ⁶/₈ (¾) | ⁴/₈ (½) | ⁶/₈ (¾) | ²/₈ (¼) | ⁰/₈ | ⁰/₈ | ⁰/₈ |
| Stripchat | ⁴/₈ (½) | ⁴/₈ (½) | ⁶/₈ (¾) | ²/₈ (¼) | ⁰/₈ | ²/₈ (¼) | ⁰/₈ |
| XNXX | ⁶/₈ (¾) | ⁴/₈ (½) | ⁶/₈ (¾) | ²/₈ (¼) | ⁰/₈ | ⁰/₈ | ⁰/₈ |
4.1.1 被處置的內容總數及被停權的帳號總數 #
有四個部分被考慮,是否公開被處置的內容、帳號、是否區分案件類型、國家。皆沒有按照國家分類,所有平台都有做到的是按照內容分類,僅stripchat沒有公開被處置的帳號總數。
4.1.2 對內容處置決定或帳號停權提出申訴的件數 #
所有平台皆有提供提出申訴的件數,但皆未依據國家區分。
4.1.3 成功申訴並使內容或帳號恢復的件數(或百分比),以及未成功申訴的件數(或百分比) #
所有平台皆有提供申訴總數、申訴成功以及申訴失敗的件數,但皆未依據國家區分。
4.1.4 對最初由自動偵測系統標記之內容所提出的成功或未成功申訴件數(或百分比) #
所有平台皆未對於提出申訴的案件是否是由自動偵測系統標記或是人工偵測進行區分。
4.1.5 公司主動發現誤判並在未經申訴情況下恢復的內容或帳號件數 #
所有平台皆未提供此數據
4.1.6 反映仇恨言論政策執行情况的數據,並按被針對的群體或特徵分類(如可辨識) #
由於成人平台的管制重點不在於文字,更多是在於圖片或影片的形式,故僅有Pornhub與Stripchat在內管制種類中提到仇恨言論(Hate speech)的件數,並未針對具體仇恨言論種類與國家進行分類。
4.1.7 在危機期間(如 COVID-19 疫情、暴力衝突期間)所移除或限制內容的相關數據 #
所有平台皆未提供此數據
4.1.8 小結 #
如前述此一分類主要的目的在於揭露平台自主依據其平台社群守則(Term and Condition,TOC)進行的內容審查。但實際上可以沒有任一平台完全合規,各報告間的實踐資訊揭露、分類方式與揭露程度差異極大,且大多項目皆未將國家分類作為分類依據。成人平台的各項目之平均合規分數為9.25分,平均合規百分比為33.03%,高於社群平台組11.88%。 但需要注意到的是作為本文研究對象的透明度報告皆是主要依循DSA下的義務,部分項目與SCP未有一致屬於合理現象,例如SCP制定的時空背景正處於COVID-19疫情高峰期,4.1.7的指標應運而生。
4.2 涉及國家行為的決策 #
「特別揭露要求」是SCP在形容揭露涉及國家行為者之決策時所使用詞彙,除了與平台自主啟動的內容區隔之外,也意味者揭露平台決策過程中關於國家行為介入對於內容審查與否的重要性。下表格2為涉及國家行為的決策。
表格 2: 涉及國家行為的決策
| 公司/項目 | 2.1 請求次數 | 2.2 具體行為者 | 2.3 法律標記 | 2.4 已/未處置數 | 2.5 公司 vs 地方 | 2.6 執行細節 |
|---|---|---|---|---|---|---|
| Pornhub | ⁸/₈ (1) | ⁰/₈ | ⁰/₈ | ⁸/₈ (1) | ⁸/₈ (1) | ⁰/₈ |
| XVideos | ⁸/₈ (1) | ⁰/₈ | ⁰/₈ | ⁸/₈ (1) | ⁸/₈ (1) | ⁰/₈ |
| Stripchat | ⁸/₈ (1) | ⁰/₈ | ⁰/₈ | ⁸/₈ (1) | ⁸/₈ (1) | ⁰/₈ |
| XNXX | ⁸/₈ (1) | ⁰/₈ | ⁰/₈ | ⁸/₈ (1) | ⁸/₈ (1) | ⁰/₈ |
4.2.1 國家行為者提出要求或請求的次數(要求平臺處置內容或帳號) #
所有平台皆有本項目的資訊,且對於是哪一國家,指稱的原因接有具體的數據。
4.2.2 每項請求中具體國家行為者(提出請求的政府單位/實體) #
所有平台皆未提供此數據
4.2.3 內容是否因法院命令/法官指示或其他類型之國家行為者而被標記 #
所有平台皆未提供此數據,或是僅以模糊的文字例如「執法單位」作為說明。
4.2.4 國家行為者所提出之請求中,被平臺採取行動者與未被採取行動者之件數 #
所有平台皆對於政府「請求採取行動」與「請求資訊」有所行動,且提供回應時間的中位數。
4.2.5 每一請求之基礎是否為違反平臺政策、違反當地法律,或兩者兼具(以及具體違反之規範) #
所有平台皆未提供此數據
4.2.6 最終採取之行動是否基於平臺政策違規、當地法律違規,或兩者之間之關係 #
所有平台皆未提供此數據
4.2.7 小結 #
無論是社群平台還是成人平台,在有無政府行動介入內容審核項目指標下,都可以看出平台對於涉及國家行為時的合規情況會顯著的提升,顯示出平台對於國家行動展現出高度的配合。成人平台的各項目之平均合規分數為12分,平均合規百分比為50%,高於社群平台組5.13%。 但是依據SCP揭露這些資訊的目的不僅僅是觀察平台接受到政府的影響,還有希望能夠了解究竟是哪些國家機關對於平台有索取資料或要求行動的情況,但在揭露這些機關單位身分與來源的資訊上的合規明顯存在落差。
4.3 檢舉流程 #
SCP在考量到使用者除了將檢舉系統用於回法非法或違反平台規範的內容之外,也將該機制可能會被有心人適用於攻擊、中傷其他使用者,故在項目中加入「 能追溯至機器人之標記總數」但其具體成效有待商榷。
表格 3: 檢舉流程
| 公司/項目 | 3.1 總標記量 | 3.2 Bot 標記量 | 3.3 內容/帳號標記量 |
|---|---|---|---|
| Pornhub | ¾ (⁶/₈) | 0 | ¾ (⁶/₈) |
| XVideos | ¾ (⁶/₈) | 0 | ½ (⁴/₈) |
| Stripchat | ¾ (⁶/₈) | 0 | ½ (⁴/₈) |
| XNXX | ¾ (⁶/₈) | 0 | ½ (⁴/₈) |
4.3.1 在特定期間收到的標記總數 #
所有平台皆提供本項目數據,但是並未依據國家分類。
4.3.2 能追溯至機器人之標記總數 #
所有平台皆未提供此數據
4.3.3 被標記的貼文與帳號數量,包含總量及依據涉嫌違反哪些規則與政策,以及標記來源的分類 #
大多數平台會提供經由用戶檢舉(User notices/Information on notice submitted)產生的數據,且根據檢舉的種類進行分類,但僅有Pornhub提供檢舉是來自人工或自動偵測,而Xvideo與XNXX並未提供標記來源。所有平台皆未依地區拆分。
4.3.4.小節 #
平台對於檢舉系統資料的提供除為依據國家進行分類,在數據上可稱得上是齊全,但關於檢舉是否是來自於機器人的項目指標,考量SCP最初的對象是社群平台有管制假消息、輿論操作的相關需求因此設立該項目。但文認為難以認為以操作輿情為主要目的個人或組織會以成人平台作為主要對象,展現出線上平台內容審查的透明度指標存在依據不同平台性質給予調整的必要。成人平台的各項目之平均合規分數為5.25分,平均合規百分比為43.75%,高於社群平台組29.01%。
4.4 提供SCP 2.0 標準以外之資訊 #
所有成人平台對於採取內容移除與帳號限制原因的分類都十分詳盡,將具體的違規項目都列了出來,包含未成年內容、人獸交、亂倫、暴力、騷擾、違反同意、復仇式成人,甚至區分屬於劇情或是真實。這是在社群平台的透明度報告中事件不到的詳細程度,這也凸顯了不同性質、受重、甚至是地區的平台在透明度報告的實踐上存著一定的調整空間,這一方面是為了是應該平台的性質,一方面也會營DSA與SCP的目的所希望達到的有意義的透明度。
5. 討論 #
本文以 SCP 2.0 所提出之揭露原則為分析基礎,系統性比對四家成人平台於最新透明度報告中的資訊呈現、揭露深度與分類邏輯。分析結果顯示,各平台之透明度實踐型態高度異質,顯示 DSA 法定義務雖具最低限度要求,但平台間仍保有相當的裁量空間。本節將從四個面向進行討論,以釐清研究結果對平台治理與透明度制度發展之意涵。
5.1 與既有研究的比較 #
5.1.1 涉及國家行為者之揭露普遍較完整 #
本文與既有文獻的觀察一致:VLOPs 在涉及國家行為者的內容審查領域普遍展現較高的揭露完整度。這一現象反映兩項重要趨勢:其一,面對政府請求,平台多採取更制度化、流程化的處理方式,因此相關數據較易產生與揭露;其二,國家行為者具更高的外部強制力,使平台在此領域不得不維持相對透明的回應機制。反之,對其內部審查實務則仍採取保留態度,可能弱化透明度制度的問責功能。
5.1.2 小型平台較大型平台展現更少修辭化、更直述的透明度呈現方式 #
與過往研究相符,本文發現相較於大型社群平台,Pinterest、Reddit 以及四家成人平台等中小型平台在透明度報告中較少採用「合規修辭」(如「致力保障用戶」、「我們承諾維護安全環境」等),取而代之的是較為直接的數據呈現與操作描述。此差異可能反映平台規模、品牌壓力與公關需求不同,亦顯示透明度報告的形式本身即受到平台資源差異的影響。
5.2 預設媒體型態差異導致透明度揭露的不完整性 #
本文發現,部分成人平台普遍採取「媒介導向」的透明度揭露方式,尤其是以影片為核心的影音平台,其透明度報告往往僅聚焦於影像內容審查,忽略平台上同時存在的龐大文字型內容,例如用戶評論(comments)、影片標題(titles)、描述(captions)等,以及可能涉及仇恨言論、歧視或騷擾的文本資訊。以 Xvideos 為例,其透明度報告完全未揭露任何文字內容的審查數據,易使外界誤以為該平台不存在文字違規,或文字內容的審查並非治理重點。然而,本文推策此現象更可能源於平台的「選擇性揭露」而非實際無違規。由於外部觀察者往往預設成人平台以影片為主要內容媒介,平台的此類順勢揭露策略使得外部監督者難以全面掌握其內容審查範圍,因而可能呈現扭曲的透明度報告。
因此,為實現「有意義透明度」,透明度揭露必須充分考量平台實際的多媒介內容結構,否則無法提供外部利益關係人對平台治理操作的完整理解,也可能掩蓋審查偏誤或策略性操作的存在。
5.3 可信檢舉者制度的失靈 #
DSA第 22 條規定,會員國之數位服務協調員(Digital Services Coordinators)得授予在該會員國內已證明符合特定條件之實體「可信賴檢舉者」(trusted flaggers)身分,並賦予其檢舉內容時之優先處理地位。DSA 將可信檢舉者制度視為提升非法內容檢舉效率與準確性的重要制度支柱,藉此強化平台內容治理之品質。然而,本文之實證分析顯示,該制度在實務運作上並未如立法者所期待地發揮關鍵功能。無論於成人平台或主流社群平台,平台於透明度報告中對可信檢舉者之實際運作情形皆僅有極為有限的揭露,一次報告週期中僅有不過1至2次的檢舉紀錄,使外界難以掌握其介入內容審核之頻率與方式。此一揭露不足亦導致無法評估可信檢舉者是否在內容治理中享有過度影響力,或是否因其組織立場與價值取向而產生偏誤。
6. 結論 #
本文以 SCP 2.0 為分析框架,檢視四家成人平台在 DSA 下的透明度揭露情形。整體而言,各平台在自主內容審查之揭露上呈現零散且不一致的狀態,尤其缺乏國家區分、自動化偵測參數與主動復原(proactive remediation)等關鍵資訊,顯示平台在此領域仍保有高度裁量空間。相比之下,涉及國家行為者或法規強制要求的揭露則相對完整,凸顯外部強制力仍是推動透明度提升的重要因素。
此外,平台普遍採取媒介導向的揭露策略,使影音平台的文字內容治理系統性被忽略,造成透明度報告呈現片面性。可信檢舉者制度在實務中亦未展現立法所期待的效能,其缺乏運作細節的揭露,使外部利益關係人難以評估該制度對內容治理之實質貢獻。
基於上述發現,未來研究與制度設計應更加重視平台媒介差異、治理能力與內容類型等因素,並探索如何設計可操作性更高、能反映實際運作的透明度揭露指標,實際上歐盟委員會也意識到報告項目的明確程度會直接影響到呈現的透明度報告,進而提出更進一步的報告範本明確指定透明度報告應具有的項目。
7. 參考資料 #
[1] Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability. New Media & Society, 20(3), 973–989. https://doi.org/10.1177/1461444816676645 [2] Citron, D. K., & Pasquale, F. (2014). The Scored Society: Due Process for Automated Predictions. 89. Commission designates second set of VLOPs under the DSA. (n.d.). [Text]. European Commission - European Commission. Retrieved December 2, 2025, from https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6763 [3] DSA Transparency Database. (n.d.). Retrieved January 7, 2026, from https://transparency.dsa.ec.europa.eu/ [4] Etzioni, A. (2010). Is Transparency the Best Disinfectant? Journal of Political Philosophy, 18(4), 389–404. https://doi.org/10.1111/j.1467-9760.2010.00366.x [5] Higgins, C., Tang, S., & Stubbs, W. (2020). On managing hypocrisy: The transparency of sustainability reports. Journal of Business Research, 114, 395–407. https://doi.org/10.1016/j.jbusres.2019.08.041 [6] Lehr, D., & Ohm, P. (2017). Playing with the Data: What Legal Scholars Should Learn about Machine Learning Symposium - Future-Proofing Law: From RDNA to Robots (Part 2). U.C. Davis Law Review, 51(2), 653–718. [7] Urman, A., & Makhortykh, M. (2023). How transparent are transparency reports? Comparative analysis of transparency reporting across online platforms. Telecommunications Policy, 47(3), 102477. https://doi.org/10.1016/j.telpol.2022.102477 [8] Zalnieriute, M. (2021). “Transparency Washing” in the Digital Age: A Corporate Agenda of Procedural Fetishism. Critical Analysis of Law, 8(1), 139–153. https://doi.org/10.33137/cal.v8i1.36284