透明度报告
2022 年 1 月 1 日 - 2022 年 6 月 30 日

发布:

2022年11月29日

更新:

2022年11月29日

为了深入了解 Snap 采取的安全举措并洞悉我们平台上的被报告内容的性质和数量,我们每年发布两次透明度报告。我们致力于继续丰富这些报告并提供更多信息,供众多密切关注我们的内容审核、执法实践以及社区福祉的利益相关者查阅。

该报告涵盖 2022 年上半年(1 月 1 日 - 6 月 30 日)。与以往的报告一样,本报告提供了我们收到的针对应用程序内的内容和帐户级别提出报告的全球报告数量,以及我们对这些违反特定类别的全球报告的处理数量;我们如何回应执法部门和政府的要求;我们按国家/地区划分的处理措施。报告还记录了最新的补充内容,包括 Snapchat 违规内容浏览率、潜在商标侵权以及平台上的虚假信息发生率。

作为改进透明度报告的不懈努力的一环,我们正在将几大新要素纳入本报告。在本次及之后的报告中,我们将新增一份报告中出现的术语。我们的目标是围绕此类条款提高透明度,明确指出每个类别包括哪些形式的违规内容以及将处理哪些内容。在此前报告全球范围内虚假信息的做法基础上,我们还首次在国家/地区层面引入虚假信息这一独立类别。

此外,我们正在为打击儿童性剥削与虐待图像 (CSEAI) 的尝试提供更多洞见。今后,我们将分享针对强制删除的所有 CSEAI 内容的见解,披露我们向美国全国失踪和被剥削儿童中心 (NCMEC) 提交的 CSEAI 报告*(即 "CyberTips")总数。

如需详细了解我们打击在线伤害的政策以及继续发展我们的报告实践的计划,请阅读我们最近关于本透明度报告的安全与影响博客

如需在 Snapchat 上查找安全与隐私的其他资源,请查阅页面底部的关于透明度报告选项卡。

内容和帐户违规概览

2022 年 1 月 1 日至 6 月 30 日,我们针对全球范围内违反我们政策的 5,688,970 条内容进行了处理。处理措施包括移除违规内容或终止违规帐户。

在本报告期间,违规内容浏览率 (VVR) 为 0.04%,这意味着在 Snapchat 上每浏览 1 万次 Snap 和故事内容, 有 4 次浏览的是违规内容。

其他违规行为

打击儿童性剥削与虐待

对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEAI) 是重中之重,我们会不断提升自身的能力,来打击 CSEAI 和其他类型的儿童性剥削内容。

我们的信任与安全团队将使用主动技术检测工具,例如 PhotoDNA 强大的散列匹配和 Google 儿童性虐待图像 (CSAI) 匹配,来分别识别已知的儿童性虐待非法图像和视频,并根据法律要求向美国全国失踪和被剥削儿童中心 (NCMEC) 报告。随后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。

2022 年上半年,我们主动检测并处理了此处报告的 94% 的儿童性剥削与虐待内容 - 较上次报告提高了 6%。

*请注意,向 NCMEC 提交的每个报告均可能包含多条内容。向 NCMEC 报告的媒体内容总数等于我们处理的内容总数。

恐怖主义及暴力极端主义内容

本报告期内,我们删除了 73 个违反我们禁止恐怖主义与暴力极端主义内容政策的帐户。

Snap 会移除通过各种渠道报告的含有恐怖主义和暴力极端主义的内容。其中包括鼓励用户通过应用程序内置的报告菜单来报告恐怖主义和暴力极端主义内容,我们还与执法部门密切合作,处理可能出现在 Snap 中的恐怖主义和暴力极端主义内容。

自残和自杀内容

我们非常重视 Snapchatter 的心理健康和福祉,这些影响了并将继续影响我们的很多决定,即该如何建设与众不同的 Snapchat。作为一个专为真实好友打造的交流平台,我们认为 Snapchat 能够发挥独特的作用,让好友在困难时刻互相伸出援手。

当我们的信任与安全团队发现 Snapchatter 悲伤苦恼时,他们可以提供预防自我伤害的资源并施以援手,且在适当情况下通知应急响应人员。我们提供的资源可在全球安全资源清单上找到,这些内容向所有的 Snapchatter 公开提供。

国家/地区概述

本部分简要介绍《社群指南》在抽样地理区域的执行情况。我们的指南适用于 Snapchat 上的所有内容以及全球各地的每个 Snapchatter(无论身在何地)。

如需查阅各国家/地区的相关信息,请下载此CSV 文件: