Privacy, Safety, and Policy Hub
欧盟
2024 年 1 月 1 日 - 2024 年 6 月 30 日

发布时间:

2024 年 10 月 25 日

更新时间:

2024 年 11 月 29 日

欢迎访问我们的欧盟 (EU) 透明度页面,我们在此发布《数字服务法案》 (DSA)、《视听媒体服务指令》 (AVMSD)、《荷兰媒体法案》 (DMA) 和《恐怖主义内容网络监管条例》 (TCO) 要求的欧盟特定信息。 请注意,这些透明度报告的最新版本可以在 en-US 区域中找到。

法定代表人 

Snap Group Limited 已指定 Snap B.V. 作为其 DSA 法定代表人。 您可以在我们的支持网站[此处]或以下位置,通过 dsa-enquiries@snapchat.com 联系 DSA 代表,通过 vsp-enquiries@snapchat.com 联系 AVMSD 和 DMA 的代表:通过 tco-enquiries@snapchat.com 联系 TCO 的代表:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

如果您是执法机构,请遵循 此处概述的步骤。

联系我们时,请使用英语或荷兰语交流。

监管机构

关于 DSA,我们受欧盟委员会和荷兰消费者和市场管理局 (ACM) 监管。对于 AVMSD 和 DMA,我们受到荷兰媒体管理局 (CvdM) 的监管。对于 TCO,我们受荷兰预防网络恐怖主义内容和儿童性虐待内容 (ATKM) 的监管。

DSA 透明度报告

最后更新日期:2024 年 10 月 25 日

我们根据欧盟数字服务法案(规章 (EU) 2022/2065)(“DSA”)第 15、24 和 42 条中规定的透明度报告要求,在 Snapchat 上发布有关我们内容审核工作的报告。 除非另有说明,本报告中包含的信息适用于 2024 年 1 月 1 日至 2024 年 6 月 30 日的报告期(2024 年上半年),涵盖受数字服务法监管的 Snapchat 功能的内容审核。

我们不断努力改善我们的报告。 在本报告期间(2024 年上半年),我们对报告结构进行了调整,新增了更具差异化的表格,以提供更深入的内容审核工作洞察。 

1. 平均月度活跃接收用户
(DSA 第 24.2 和 42.3 条)


截至 2024 年 10 月 1 日,我们在欧盟地区的 Snapchat 应用平均每月活跃用户(“AMAR”)为 9290 万。这表明,在截至 2024 年 9 月 30 日的六个月内,欧盟地区内总数为 9290 万的注册用户平均每月至少打开一次 Snapchat 应用。

该数据按成员国分类如下:

这些数据是根据当前的数字服务法要求计算的,且仅适用于数字服务法用途。随着时间推移,我们时常根据内部政策变化、监管机构指导和科技等对该数据的计算方法进行调整,因此不同时间点的数据不宜用于比较。这也可能与我们出于其他目而发布的其他活跃用户数据所用的计算方法不同。

2. 成员国权力机构请求
(数字服务法第 15.1(a) 条)
a) 针对非法内容采取行动的指令


在本报告期间(2024 年上半年),我们收到来自欧盟成员国当局针对某些具体非法内容的处理指令为零(0),包括根据数字服务法第 9 条发布的指令。

由于此数字为零(0),我们无法按相关非法内容的类型、发出指令的成员国、确认接收或执行指令的中位时间来提供详细分类。

b) 提供信息的指令


在本报告期间(2024 年上半年),我们收到欧盟成员国当局发出披露以下用户数据的指令,包括根据数字服务法第 10 条发布的指令:


通知相关权力部门收到该信息提供指令的通知中位时间为 0 分钟——我们自动发送确认回执。

执行该信息提供命令的执行中位时间约为 7 天 。此指标反映了 Snap 从收到指令起到 Snap 认为该事项完全解决的一段时间,该时间可能部分取决于相关成员国权力部门响应 Snap 为处理该指令提供澄清请求的速度。

请注意,我们不对上述指令提供分类细节,因为此类与非法内容相关的信息我们通常无法获取。

3. 内容审核 


Snapchat 上所有内容都必须遵守我们的社区准则服务条款。某些内容还必须遵循额外的指导原则和政策。例如,提交用于算法推荐以覆盖更广泛用户的内容必须符合推荐资格的内容指导原则中附加设定的更高标准,以及广告则必须遵循我们的广告政策

我们采用科技和人工审核来执行该类政策。我们还为 Snapchat 用户提供举报非法内容或非法活动等违规情况的渠道,可以通过应用内或网站上操作。主动检测机制和报告将引发审核,该审核利用自动化工具与人类审核员的结合来根据我们政策采取适当的行动。

以下是我们在 2024 年上半年关于内容审核的更多信息。

a) 根据数字服务法第 16 条提交的通知
(数字服务法第 15.1(b) 条)

根据数字服务法第 16 条,Snap 已建立一套机制,允许用户和非用户向 Snap 举报他们认为在 Snapchat 上的某些非法内容。他们可以通过直接在 Snapchat 应用内或我们网站上对某些具体内容或账户进行举报。

在报告期内(2024 年上半年),我们收到了以下根据欧盟数字服务法第 16 条提交的通知:


下面,我们提供了一个详细的分解,反映这些通知是如何处理的——例如通过人力审核的过程或完全通过自动化手段。

在通过应用内或我们网站提交通知时,举报人可以从一个选项菜单中选出具体的举报理由,菜单中的列表反映了我们社区准则里的违规类别(如仇恨言论、使用或贩卖毒品等)我们社区准则禁止任何在欧盟国家内的内容和活动,因此我们的举报理由主要反映欧盟国家内某些指定类别的非法内容。但如果欧盟国家内举报人发现举报菜单中未列出他们认为非法内容的举报原因的话,他们可以选择“其他非法内容"进行举报,并可以为他们认为该内容非法的理由提供解释。

如经审核后我们确定所举报的内容或帐号违反了我们社区准则(包括因非法理由),我们可能会 (i) 删除该违规内容,(ii) 警告相关账号持有人并对该账号施加违规记录,和/或 (iii) 锁定相关账号,具体详情请参见我们的 Snapchat 内容审核、执行与申诉说明

在 2024 年上半年,依据欧盟国家数字服务法第 16 条提交的通知,我们采取了以下执法措施:

在 2024 年上半年,我们处理的所有“其他非法内容”报告最终都依据我们的社区准则得到了执行,因为我们的社区准则禁止此类内容或活动。因此,我们在上表中将这些执法措施归类为相关的社区指导原则违规类别。

除了上述执法措施外,我们可能会根据其他适用的 Snap 政策和准则对通知我们的内容采取行动: 

  • 关于我们公共广播平台上的内容,如果我们确定所举报的内容未达到我们的推荐资格的内容指导原则的更高标准,我们可能会拒绝该内容的算法推荐(如果该内容不符合我们的资格标准),或可能会限制该内容的传播,以避免敏感受众(如果该内容符合我们的推荐资格标准,但在其他方面敏感或暗示的话)。

在 2024 年上半年,我们根据推荐资格的内容指导原则,对欧盟境内向我们举报的 Snapchat 公共广播内容采取了以下行动:

  • 如果我们确定被举报的广告违反了广告政策,我们可能会在审核后将其删除。 


在 2024 年上半年,我们对在欧盟国家内举报的广告采取了以下行动:


b) Snap 主动进行的内容审核 
(第 15.1(c) 条)


除了审核根据数字服务法第 16 条提交的通知外,Snap 还主动在 Snapchat 公共平台上(例如 Spotlight、Discover)的内容进行审核。 下面我们提供有关 Snap 主动进行内容审核的信息,包括自动化工具的使用、为内容审核负责人提供培训和协助采取的措施,以及因这些主动内容审核工作而实施的数量和类型限制。


  • Snap 主动审查中使用自动化工具


我们部署自动化工具来主动检测,并在某些情况下在我们的公开内容上对违反我们条款和政策的行为执法。 这包括哈希匹配工具(包括 PhotoDNA 和谷歌 CSAI 匹配)、滥用性语言检测模型(根据已识别并定期更新的滥用关键字和表情符号列表来检测和拒绝内容),以及人工智能/机器学习技术。 我们的自动化工具用于检测违反社区准则(社区准则禁止非法内容)以及推荐资格和广告政策内容指导原则(如适用)的内容。 


在 2024 年上半年,我们所有的主动检测都是使用自动化工具进行的。 当我们的自动化工具检测到可能违反我们政策的嫌疑时,它们会根据政策自动采取行动,或创建人工审核任务。 因此过程而实施限制的数量和类型如下。 


  • Snap 主动实施限制的数量和类型


在 2024 年上半年,Snap 在通过自动化工具主动检测到违反我们社区准则的行为(包括违反欧盟及成员国法律的非法内容和活动)后,采取了以下执法措施:

此外,在 2024 年上半年,关于公共传播平台上的内容,我们通过 Snapchat 的自动化工具主动检测到的违反推荐资格的内容指导原则情况采取了以下措施:

* 正如我们在推荐资格内容指南中所述,反复或严重违反推荐资格内容指南的账户可能会被暂时或永久取消在我们公共播出平台上的推荐资格。我们在积极的审核工作中采取此行动。

此外,在 2024 年上半年,我们在 Snapchat 上通过自动化工具主动检测到违反我们广告政策的行为后采取了以下行动:

  • 针对内容审核负责人员提供培训和协助所采取的措施


我们的内容审核团队遵循内容审核政策,保护 Snapchat 社区的安全。他们接受为期数周的培训,新成员在此期间学习 Snap 的政策、工具以及上报流程。我们的审核团队定期参加与工作流程相关的重训,尤其是在处理政策边界模糊和依赖具体情景的情况时。我们还开展技能提升项目、认证课程和测验,确保所有审核人员掌握最新动态并遵循所有已更新的政策。最后,当紧急内容趋势因时事产生时,我们会快速分发政策说明,以便团队能够根据 Snap 的政策及时处理。


我们为内容审核团队提供大量支持和资源,包括职场健康支持和便捷的心理健康服务。 

c) 通过 Snap 的内部投诉处理(即上诉)系统收到的投诉
(第 15.1(d) 条)


账户因违反社区准则(包括因非法内容和活动)而被安全团队锁定账户的用户可以提出解锁账户申诉来恢复账户。用户还可以对某些内容审核决定提出上诉

在报告期间(2024 年上半年),Snap 处理了以下通过欧盟内部投诉处理系统提交的上诉(涉及帐户锁定和内容级别审核决定):

d) 用于内容审核目的自动化手段的使用 
(第 15.1(e) 和 42.2(c) 条)

  • 质量性描述和目的


如第 3(b) 节所述,我们部署自动化工具来主动检测并在某些情况下在我们的公开内容上执行违反我们条款和政策的行为。 这包括哈希匹配工具(包括 PhotoDNA 和谷歌 CSAI 匹配)、滥用语言检测模型(根据已识别并定期更新的滥用关键字和表情符号列表来检测和拒绝内容),以及人工智能/机器学习技术。 我们的自动化工具用于检测违反社区准则(社区准则禁止非法内容)以及推荐资格和广告政策内容指导原则(如适用)的内容。 

当我们的自动化工具检测到可能违反我们政策的嫌疑时,它们会根据政策自动采取行动,或创建人工审核任务。 

  • 按成员国划分的准确度指标和潜在错误率


我们通过在公共平台上随机挑选自动化工具处理的任务,并提交人工审核团队再次审核来监控自动化审核工具的准确度。 准确率是指在人类审核员重新审核后,这些随机样本中的任务被确认有效的百分比。错误率是 100% 与上述计算的准确率之间的差值。

根据抽样数据,在 2024 年上半年,所有违规类别中使用的自动化手段的准确度指标约为 93%,错误率约为 7%。 

我们通常不记录 Snapchat 上审核内容的语言,因此无法针对成员国每种官方语言提供自动化审核工具的准确度和错误率明细。  作为该信息的代理,我们提供了来自每个成员国自动审核内容的准确率和错误率细分详情。 

  • 保障


我们关注自动化审核工具可能对基本权利造成的影响,并采取防范措施以尽量降低此影响。

我们的自动化内容审核工具在部署到 Snapchat 之前会经过测试。 模型经过离线测试,并通过 A/B 测试进行部署,以确保模型在正式投入生产之前正常运行。 在部分(分阶段)发布期间,我们会执行预发布的质量保证(QA)审查、发布审查和持续的精确质量保证检查。 

在自动化工具发布后,我们会持续评估它们的性能和准确度,并根据需要做出调整。 此过程包含人工审核员重新审查自动化任务样本,以识别出需要调整来提升准确度的模型。 我们还通过每天随机抽样公开故事来监控 Snapchat 上特定危害的发生率,并利用这些信息来识别需要进一步改进的领域。 

我们的政策和系统推动一致和公平的执法,包括我们的自动化工具,并为 Snapchat 用户提供机会通过通知和上诉程序对执行结果进行有效的质疑,该流程维护了我们社区的利益,同时也保护 Snapchat 用户的个人权力。

我们不断努力改进自动化内容审核工具来提高它们的准确度,并支持我们政策的一致和公平执行。

e) 提交给第 21 条庭外争议解决机构的争议
(第 24.1(a) 条)

在报告期间(2024 年上半年),根据数字服务法第 21 条向经过正式认证的庭外争议解决机构提交的争议数量为零(0),并且我们无法提供反映结果、中位完成时间,或 Snap 执行庭外争议解决机构决定的争议份额的细分信息。 

请注意,在 2024 年上半年,我们收到两 (2) 份提交到根据数字服务法第 21 条寻求认证的一个庭外争议解决机构的争议通知。我们未将此类争议包括在上述统计中,因为转发此类争议通知的机构无法根据我们的要求验证其认证状态。

f) 根据第 23 条施加的暂停措施
(第 24.1(b)条 )
  • 根据第 23.1 条暂停:暂停经常提供显然非法内容的帐户 

正如我们在 Snapchat 内容审核、执法和上诉说明中解释的,我们判定主要用于违反社区准则(包括提供显然非法内容)的账户,以及造成严重危害的帐户立即禁用。 对所有其他违反《社群指南》的各种行为,Snap 一般会分三步执行:

  • 第一步:删除违规内容。

  • 第二步:通知 Snapchatter,告知他们违反了《社群指南》,内容已被删除,并告知对重复违规行为将采取进一步的行动,包括禁用帐户。

  • 第三步:我们的团队会对该 Snapchat 帐户记录一次违规。

有关 2024 年上半年,针对欧盟地区帐户在 Snapchat 公共平台上的内容或活动的违规记录实施(即警告)和封禁次数的信息,请参见上文第 3(a) 和 3(b) 节。

  • 根据第 23.2 条暂停处理来自经常提交明显缺乏依据的通知或投诉的个人、实体和投诉人的通知和投诉

根据我们对“明显毫无根据”通知和投诉的内部定义,以及我们对此类频繁提交的通知和投诉的内部标准,根据数字服务法第 23.2 条在 2024 年上半年暂停处理通知和投诉的数量如下:

4. 有关我们内容审核团队的信息 
a) 专门用于内容审核的人力资源,包括用于遵循数字服务法第 16、20 和 22 条要求,并按成员国官方语言分类
(第 42.2(a) 条)


我们的内容审核团队遍布全球,全天候帮助保障 Snapchat 用户的安全。 下面是截至 2023 年 12 月 31 日人工审核资源按审核员的语言专业分类的细目(请注意,有些审核员擅长多种语言):

上表包括截至 2024 年 6 月 30 日,所有致力于内容审核并支持欧盟成员国官方语言的所有人力资源。 在需要额外的语言支持的情况下,我们使用翻译服务。

b) 内容审核员的资格和语言专业知识;提供的培训和支持
(第 42.2(b) 条)


审核员的招聘使用统一的职位描述,包括根据需求的语言要求。语言要求明确候选人应该能够展示该语言的书面和口头流利,并至少有一年入门级职位的工作经验。 候选人必须满足教育和背景要求才能考虑。 候选人还必须证明对他们理解所支持的内容审核国家或地区的当前事件。

有关 Snap 向内容审核员提供的培训和支持的详细信息,请参阅上文中有关的 Snap 向内容审核员提供的培训和支持的信息,这些是数字服务法第 15(1)(c) 条单独要求的,因此在第 3(b) 节的在最后小节中提到标题为:“为内容审核负责人提供培训和支持采取的措施

儿童性剥削和虐待(CSEA)媒体扫描报告


背景

对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEA) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。


我们使用 PhotoDNA 强大的哈希匹配技术和谷歌的儿童性虐待图像(CSAI)匹配技术,分别识别已知的儿童性虐待非法图像和视频,并按照法律要求将其报告给美国国家失踪和被剥削儿童中心(NCMEC)。随后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。


报告

以下数据源于用户相册上传到 Snapchat 的媒体,经过 PhotoDNA 和/或 CSAI 匹配技术的主动扫描结果。

阻止对儿童性剥削是当务之急。 Snap 为此投入了大量资源,并对此类行为采取零容忍态度。  审核 CSE 申诉需要特殊培训,而且由于其内容的图像性质,只有有限的代理人团队处理这些审核。  2023 年秋季期间,Snap 实施了影响某些 CSE 执法的一致性的政策更改,我们通过代理人再培训和严格的质量保证,解决了这些不一致问题。  我们预计下一份透明度报告将展示在缩短 CSE 申诉响应时间和提高初始执法精度方面取得的进展。  

内容审核保障

关于 CSEA 媒体扫描所应用的安全措施已在我们的 DSA 报告中”内容审核保障“章节中列出。


欧盟恐怖主义在线内容透明度报告

发布时间:2024 年 6 月17 日

最后更新日期:2024 年 6 月 17 日

本透明度报告是根据欧盟欧洲议会和欧盟理事会 2021/784 号法规第 7(2) 和 7(3) 条发布的,该条例涉及恐怖主义内容的在线传播(法规)。 该报告涵盖 2023 年 1月 1 日至 12 月 31 日。 


概括信息
  • 第 7(3)(a) 条:有关托管服务提供商在识别、移除或禁止访问恐怖主义内容方面采取措施的信息

  • 第 7(3)(b) 条:关于托管服务提供商为解决曾被移除或因被认为是恐怖内容而禁止访问的在线内容重新出现所采取的措施的信息,尤其是当涉及自动化工具的使用时。


禁止恐怖分子、恐怖组织和暴力极端主义分子使用 Snapchat。 我们的社区准则禁止宣传、推广、颂扬或推进恐怖主义以及其他暴力、犯罪行为。用户可以通过我们的应用内举报菜单和支持网站举报违反社区准则的内容。 我们还采用主动检测来识别在公共平台(如 Spotlight 和 Discover)尚存的违规内容。


无论我们是如何得知违规内容,我们的信任与安全团队都会结合自动化和人工审核,迅速审查确认的内容并做出执法决定。执法措施可能包括删除内容、警告或锁定违规账户,并在必要时向执法机关举报该账户。为了防止恐怖主义或其他暴力极端内容在 Snapchat 上再次出现,除了与执法部门合作外,我们还采取措施屏蔽与违规账户关联的设备,并阻止该用户创建另一个 Snapchat 账户。


有关我们识别和移除恐怖主义内容措施的更多细节,可以在我们关于仇恨内容、恐怖注意和暴力极端主义以及关于内容管理、执行和上诉的说明找到。



举报和执法
  • 第 7(3)(c) 条:在执行移除指令或具体措施后,移除或禁止访问恐怖主义内容的项目数量,根据第 3(7) 条第一项和第 3(8) 条第一项,未移除或未禁止访问恐怖主义内容的项目数量,以及理由


在报告期间,Snap 未收到任何移除指令,也未被要求我们根据法规第 5 条采取任何具体措施。 因此,根据法规我们无需采取执法行动。


下表描述了欧盟及其他地区根据用户报告和主动检测,针对违反我们社区准则与恐怖主义和暴力极端主义内容的内容和帐户采取的执法行动

执法上诉
  • 第 7(3)(d) 条:托管服务提供商根据第 10 条处理的投诉数量和结果

  • 第 7(3)(g) 条:在内容提供商投诉后,托管服务提供商恢复内容或访问的案件数量


由于在上述举报期间根据法规我们无需采取执法行动,因此我们没有根据法规第 10 条处理投诉,也没有进行相关的恢复措施。


以下表格提供了与根据我们的社区准则在欧盟及其他地区涉及恐怖主义和暴力极端内容的上诉和恢复相关的信息。

司法程序和上诉
  • 第 7 条第 3 款(e):由托管服务提供商发起的行政或司法审查程序的数量及其结果。

  • 第 7 条第 3 款(f):托管服务提供商因行政或司法审查程序而被要求恢复内容或访问的案件数量。


如上所述,在报告期间内我们没有根据该法规采取执法措施的需求,因此我们也没有相关的行政或司法审查程序,并且不需要因任何此类司法程序恢复内容。

数字服务法案 (DSA) 风险评估

本报告为履行 Snap 在欧盟 (EU) 第 2022/2065 号法规第 34 和 35 条下的义务而编制,提供了我们对 Snapchat 在线平台的设计、功能及使用方面所存在的系统风险的评估结果。报告还介绍了我们采用的风险评估方法,以及为应对这些风险而采取的缓解措施。


数字服务法案 (DSA) 风险和缓解评估报告 | Snapchat | 2023 年 8 月 (PDF)


数字服务法案 (DSA) 审计和审计实施

本报告为履行 Snap 在欧盟 (EU) 第 2022/2065 号法规第 37 条下的义务而编制,并提供:(i) Snap 对履行欧盟 (EU) 第 2022/2065 号法规第三章规定义务的独立审计结果以及 (ii) 为实施独立审计所提出的可操作建议而采取的措施。

数字服务法案 (DSA) 独立审计报告 | Snapchat | 2024 年 8 月 (PDF)

数字服务法案 (DSA) 审计实施报告 | Snapchat | 2024 年 9 月 (PDF)



欧盟 VSP 行为准则

根据 AVMSD 第 1(1)(aa) 条,Snap 是一家“视频共享平台服务”(“VSP”)提供商。 此行为准则(“准则”)旨在说明 Snap 作为一家 VSP 如何根据《荷兰媒体法》(“DMA”)和欧盟 (EU) 指令 2010/13(经欧盟 (EU) 指令 2018/1808(“视听媒体服务指令”或“AVMSD”)修订)履行其义务。该准则适用于整个欧盟以及欧洲经济区。

欧盟 VSP 行为准则 | Snapchat | 2024 年 12 月 (PDF)