Snap Values
透明度报告
2023 年 1 月 1 日 - 2023 年 6 月 30 日

发布日期:

2023 年 10 月 25 日

更新:

2023 年 12 月 13 日

为了深入了解 Snap 采取的安全举措并洞悉我们平台上的被报告内容的性质和数量,我们每年发布两次透明度报告。我们致力于持续为那些深切关注我们内容审核、执法实践和社区福祉的众多利益相关者提供更加全面和翔实的报告。

此透明度报告涵盖 2021 年上半年(1 月 1 日 - 6 月 30 日)。与既往报告一致,我们分享了以下全球数据:收到的应用内内容以及帐户级举报数量及应对处置情况(按违规政策类别细分);对各国转发及政府机构请求的响应数据;以及按国家/地区划分的平台治理措施执行明细。

作为持续完善透明度报告的承诺实践,本版本新增了若干新元素。我们已增加了有关广告实践与审核、以及内容和账户申诉的额外数据点。
为了与欧盟《数字服务法》保持一致,我们还增加了有关我们在欧盟成员国运营的新的背景信息,例如该地区内容审核员和每月活跃用户 (MAU) 的人数。 大部分信息皆载于本报告,以及透明度中心专门的欧盟页面。

最后,我们更新了词汇表,添加了《社群指南》说明链接,提供了有关我们平台政策和运营工作的更多背景信息。

有关我们打击网络危害的政策以及不断完善报告机制计划的更多信息,请阅读我们最近关于本透明度报告的《安全与影响》博客文章。

如需在 Snapchat 上查找安全与隐私的其他资源,请查阅页面底部的关于透明度报告选项卡。

请注意,此透明度报告的最新版本仅限英文(美国)版本。

内容和帐户违规概览

从 2023 年 1 月 1 日至 6 月 30 日,Snap 在全球范围内对 6,216,118 条违规内容进行了处理。

在本报告期间,违规观看率 (VVR) 为 0.02%,这意味着在 Snapchat 上每 1 万次 Snap 和故事内容浏览中, 有 2 次违规内容。

*正确且持续地打击虚假信息是一个动态过程,需要了解最新背景并尽职尽责。  为持续提升我们团队在此类别执法的准确性,自 2022 年上半年起,我们选择在“已处置内容”和“已处置独立帐户”这两个类别中,基于对具有统计显著性的虚假信息执法样本进行严格质量审查后所得的估算数据进行报告。 具体而言,我们会从各个国家/地区的虚假信息处置案例中抽取具有统计显著性的样本,并对处置决策进行质量检查。 随后,我们根据这些经过质量检查的执法样本推算出处置比率,并设定 95% 置信区间 (误差范围 ±5%),据此计算透明度报告中所公布的虚假信息处置数据。 

内容和帐户违规分析

我们的整体举报和处理率与过去六个月相比大体持平,但在几个关键类别中存在例外情况。在本周期内,我们对内容与账户的举报及处理总量下降约 3%。

骚扰和欺凌、垃圾信息、武器和虚假信息是波动较大的几个类别。 骚扰和欺凌举报总数增加了约 56%,随之对相关内容与独立账户的处理量也相应增长了约 39%。 我们在实现处理量增长的同时,将处理周期缩短了约 46%,彰显了团队处置此类违规内容的高效运营。 类似地,垃圾信息的总举报量增加了约 65%;随之,内容处理量上升约 110%,独立账户处理量增长约 80%,而我们的团队还将处理周期缩短了约 80%。 在武器类别报告数据中,总举报量下降了约 13%,随之对相关内容与独立账户的处理量也分别减少了约 51% 和 53%。 最后,在虚假信息类别中,总举报量增加了约 14%,然而内容处理量却大幅下降了约 78%,被处置的独立账户数量也减少了约 74%。 这归因于我们对虚假信息举报持续实施的质量保证流程和资源投入,以确保审核团队能精准识别并处理平台上的虚假信息。

总体而言,虽然本期数据与上期大体持平,但我们认为,持续优化用户举报工具仍至关重要。正因如此,我们将致力于改进工具,以帮助用户在发现潜在违规内容时,能更主动、精准地进行举报。

打击儿童性侵害与性虐待

对我们社区内任何成员,特别是未成年人的性侵害,是非法、卑鄙、并且被《社群指南》严行禁止的犯罪行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEAI) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。

我们依法使用主动技术检测工具,比如 PhotoDNA 强大的哈希匹配与谷歌的儿童性侵图像 (CSAI) 比对系统,分别识别已知的非法儿童性虐待图片和视频,并向美国国家失踪与受虐儿童中心 (NCMEC) 举报。 随后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。

2023 年上半年,我们主动检测并处理了此处报告的 98% 的儿童性剥削与虐待内容 - 较上次报告提高了 4%。

**请注意,向 NCMEC 提交的每个举报均可能包含多条内容。向 NCMEC 报告的媒体内容总数等于我们处理的内容总数。

恐怖主义及暴力极端主义内容

在本报告期内(2023 年 1 月 1 日至 6 月 30 日),我们移除了 18 个因违反我们关于禁止恐怖主义和暴力极端内容政策的账户。

Snap 根据多渠道的报告,删除含有恐怖主义和暴力极端主义的内容。我们鼓励用户通过应用程序内置的报告菜单来举报恐怖主义和暴力极端主义内容,我们还与执法部门密切合作,处理可能出现在 Snap 平台上发布的恐怖分子和暴力极端主义内容。

自残和自杀内容

我们非常重视 Snapchat 用户的心理健康和福祉,这一理念影响了并将继续影响我们的很多决定,即该如何建设与众不同的 Snapchat。作为一个专为真实好友打造的交流平台,我们认为 Snapchat 能够发挥独特的作用,让好友在困难时刻互相伸出援手。

当我们的信任与安全团队发现 Snapchat 用户悲伤苦恼时,他们可以提供自我伤害的预防和支持资源,并在适当情况下通知应急响应人员。我们提供的资源可在全球安全资源清单上查找,这些内容向所有的 Snapchat 用户公开。

申诉

从本报告期开始,我们将把因违反我们的政策而被锁定账户用户申诉数量纳入报告范围。我们仅恢复经审核人员确认属于被错误锁定的帐户。 在此期间,我们报告了与毒品相关内容的申诉情况。  在下一份报告中,我们期待发布更多其它违规相关申诉数据。

广告审核

Snap 致力于坚定不移地确保所有广告均完全符合我们的平台政策。 我们坚持以负责任和尊重的方式投放广告,为所有用户打造安全愉悦的广告体验。下面包含我们对广告审核的见解。 请注意,我们可以根据 Snap 的《广告政策》中列举的各种原因移除 Snapchat 上的广告,包括欺诈性内容、成人内容、暴力或令人不安的内容、仇恨言论和知识产权侵权。此外,你现在可以在本透明度报告的导航栏中找到 Snapchat 的广告相簿

国家/地区概述

本部分简要介绍社群指南在抽样地理区域的执行情况。我们的指南适用于 Snapchat 上的所有内容以及全球各地的每个 Snapchatter(无论身在何地)。

如需查阅各国家/地区的相关信息,请下载此CSV 文件: