2025 年 6 月20 日
2025 年 7 月1 日
我们每年发布两次透明度报告,旨在深入了解 Snap 的安全工作。作为安全和透明度承诺的一部分,我们不断完善报告内容,为许多非常关心我们内容审核、执法实践以及 Snapchat 社区安全和幸福感的利益相关者提供更全面的内容和更丰富的信息。
本透明度报告涵盖 2024 年下半年的情况(7 月 1 日至 12 月 31 日)。我们分享以下方面的全球数据:用户报告及 Snap 主动检测;安全团队针对《社群指南》特定违规类别的执行;对执法部门及政府要求的响应;以及对版权和商标侵权通知的处理。我们还通过一系列链接页面提供面向国家/地区的洞察。
如需在 Snapchat 上查找安全和隐私方面的其他资源,请查阅页面底部的关于透明度报告选项卡。
请注意,本透明度报告的最新版本为英文版本。
我们的信任与安全团队为执行《社群指南》而采取的行动概述
我们的安全团队通过主动(使用自动检测工具)以及主动(对报告进行响应)的方式执行《社群指南》,详情请参见本报告以下部分。在本报告期内(2024 年下半年),我们的安全团队采取了以下执行行动:
执行总数
唯一帐户处理总数
10,032,110
5,698,212
按相关《社群指南》违规类型分列的数据(包括从我们发现违规行为(主动发现或收到报告时)到我们对相关内容或帐户采取最终行动的办理时间中位数)如下:
政策原因
执行总数
唯一帐户处理总数
从检测到最终操作的中间周转时间(分钟)
色情内容
3,860,331
2,099,512
2
儿童性剥削
961,359
577,682
23
骚扰和霸凌
2,716,966
2,019,439
7
威胁和暴力
199,920
156,578
8
自我伤害和自杀
15,910
14,445
10
虚假信息
6,539
6,176
1
仇恨言论
8,798
8,575
2
Spam
357,999
248,090
1
毒品
1,113,629
718,952
6
武器
211,860
136,953
1
其他管制物品
247,535
177,643
8
仇恨言论
324,478
272,025
27
恐怖主义和暴力极端主义
6,786
4,010
5
在本报告期内,违规内容浏览率 (VVR) 为 0.01%,这意味着在 Snapchat 上每浏览 1 万次 Snap 和故事内容中,有 1 次浏览了违反《社群指南》的内容。
向我们的信任与安全团队报告的《社群指南》违规行为
2024 年 7 月1 日至 12 月 31 日,针对违反《社群指南》的应用内报告,Snap 的安全团队在全球范围内共采取了 6,346,508 项强制措施,涉及 4,075,838 个独立帐户。 我们的安全团队对这些报告采取执行行动的办理时间中位数为 6 分钟左右。按报告类别分列的数据如下。
内容和帐户报告总数
执行总数
唯一帐户处理总数
19,379,848
6,346,508
4,075,838
政策原因
内容和帐户报告数量
执行总数
Snap 执行报告总数的百分比
唯一帐户处理总数
从检测到最终操作的中间周转时间(分钟)
色情内容
5,251,375
2,042,044
32.20%
1,387,749
4
儿童性剥削
1,224,502
469,389
7.40%
393,384
133
骚扰和霸凌
6,377,555
2,702,024
42.60%
2,009,573
7
威胁和暴力
1,000,713
156,295
2.50%
129,077
8
自我伤害和自杀
307,660
15,149
0.20%
13,885
10
虚假信息
536,886
6,454
0.10%
6,095
1
仇恨言论
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
毒品
418,431
244,451
3.90%
159,452
23
武器
240,767
6,473
0.10%
5,252
1
其他管制物品
606,882
199,255
3.10%
143,560
8
仇恨言论
768,705
314,134
4.90%
263,923
27
恐怖主义和暴力极端主义
197,439
1,201
<0.1%
1,093
4
与上一报告期相比,我们将所有政策类型的周转时间中位数平均缩短了90%。 这一减少很大程度上是由于我们共同努力,扩大了审查能力,并根据伤害严重程度改进了我们对报告的优先次序。在本报告期内,我们还对我们的安全工作进行了几项有针对性的调整,这些调整对本报告的数据产生了影响,包括扩大对违反《社区指南》的用户名和显示名称账户的执行力度、增加对 Snapchat 上社区的报告和保护,以及对其他类型媒体(如语音备忘录)的报告选项,可直接在应用中向我们提供。
与上一报告期相比,这些变化以及其他安全工作与外部力量对某些政策领域的影响尤其明显。这些政策类别包括:与涉嫌儿童性剥削与虐待 (CSEA)、有害虚假信息以及垃圾邮件相关的内容。具体而言:
CSEA:2024 年下半年,我们发现与 CSEA 相关报告减少了 12%,并将响应 CSEA 报告的周转时间中位数缩短了 99%。这些趋势主要是由我们主动检测工作的持续进步推动的,这使我们能够在 CSEA 内容报告给我们之前就将其删除,并且我们改进了流程,以便提高审查 CSEA 报告和采取行动效率。即使进行了这些改进,我们的 CSEA 周转时间仍高于其他政策领域,因为内容需要经过专门流程,包括由经过专门培训的代理团队进行双重审核。
有害的虚假信息:我们观察到与有效虚假信息相关的报告数量增加了 26%,这主要是由政治事件推动的,包括 2024 年 11 月的美国大选。
垃圾邮件:在本报告期内,我们发现,针对可疑垃圾邮件报告的执行总数减少约 50%,强制执行的唯一账户总数减少约 46%,这反映了我们的主动检测和执行工具有所改进。这是我们通过账户信号锁定垃圾邮件,并在平台上更快删除垃圾邮件行为者活动的延续。这项工作在上一报告期内已经开始进行,在此期间,针对垃圾邮件的执行总数和强制执行的唯一账户总数分别减少约 65% 和 60%。
我们努力主动发现《社群指南》违规行为并采取执行行动
我们使用自动化工具主动检测违反《社群指南》的行为,并在某些情况下采取执行行动。这些工具包括哈希匹配技术(包括 PhotoDNA 和 Google 的儿童性虐待图像 (CSAI) 匹配技术)、Google 的内容安全 API,以及其他用于检测滥用文本和媒体的定制技术,有时还会利用人工智能和机器学习技术。
2024年下半年,我们使用自动化检测工具主动检测到违反《社群指南》的行为后,采取了以下行动:
执行总数
唯一帐户处理总数
3,685,602
1,845,125
政策原因
执行总数
唯一帐户处理总数
从检测到最终操作的中间周转时间(分钟)
色情内容
1,818,287
828,590
<1
儿童性剥削
491,970
188,877
1
骚扰和霸凌
14,942
11,234
8
威胁和暴力
43,625
29,599
9
自我伤害和自杀
761
624
9
虚假信息
85
81
10
仇恨言论
8
6
19
Spam
177,150
110,551
<1
毒品
869,178
590,658
5
武器
205,387
133,079
<1
其他管制物品
48,280
37,028
9
仇恨言论
10,344
8,683
10
恐怖主义和暴力极端主义
5,585
2,951
21
Combatting Child Sexual Exploitation & Abuse
对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEA) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。
我们使用主动技术检测工具来帮助识别 CSEA 相关内容。这些工具包括哈希匹配工具(包括 PhotoDNA 和 Google 的 CSAI Match,分别用于识别已知的 CSEA 非法图像和视频)和 Google 内容安全 API(用于识别新的、“从未被哈希”的非法图像)。此外,在某些情况下,我们使用行为信号对其他潜在的非法 CSEA 活动采取执行行动。我们按照法律要求,向美国国家失踪与受虐儿童中心 (NCMEC) 举报 CSEA 相关内容。然后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。
2024 年下半年,我们在 Snapchat 上确认到 CSEA 内容时采取了以下行动(主动发现或收到报告时):
内容处理总数
禁用帐户总数
向 NCMEC 提交的报告总数*
1,228,929
242,306
417,842
*请注意,向 NCMEC 提交的每个报告均可能包含多条内容。向 NCMEC 报告的媒体内容总数等于我们处理的内容总数。
我们努力为需要帮助的 Snapchat 用户提供资源和支持
Snapchat 为有需要的 Snapchat 用户提供资源和支持,帮助朋友们能够在困难时期互相帮助。
当用户搜索与心理健康、焦虑、抑郁、压力、自杀念头、悲伤和霸凌相关的特定主题时,我们的 Here For You 搜索工具会提供专家资源。我们还开发了一个专门针对性勒索和其他性风险与伤害的网页,为身处困境的用户提供支持。我们的全球安全资源列表向所有 Snapchat 用户公开提供,可在我们的隐私、安全和政策中心找到。
当我们的安全团队发现 Snapchat 用户身处困境时,他们能够提供自我伤害预防与支持资源,并根据需要通知紧急服务。我们分享的资源可在全球安全资源列表上找到,并向所有的 Snapchat 用户公开提供。
自杀资源分享总数
64,094
申诉
有些用户提出了申诉,要求我们审核在 2024 年下半年锁定其账户的决定,相关信息如下:
政策原因
上诉总数
恢复总数
维持裁决总数
处理上诉的中间周转时间(日)
总计
493,782
35,243
458,539
5
色情内容
162,363
6,257
156,106
4
儿童性剥削
102,585
15,318
87,267
6
骚扰和霸凌
53,200
442
52,758
7
威胁和暴力
4,238
83
4,155
5
自我伤害和自杀
31
1
30
5
虚假信息
3
0
3
<1
仇恨言论
847
33
814
7
Spam
19,533
5,090
14,443
9
毒品
133,478
7,598
125,880
4
武器
4,678
136
4,542
6
其他管制物品
9,153
168
8,985
6
仇恨言论
3,541
114
3,427
7
恐怖主义和暴力极端主义
132
3
129
9
国家和地区概述
本节概述了我们的安全团队在部分地理区域中,为执行《社群指南》而主动采取的行动,以及对应用内违规报告的响应措施。我们的《社群指南》适用于 Snapchat 上的所有内容,以及面向全球任何地方的所有 Snapchat 用户。
可通过随附的 CSV 文件下载各个国家/地区(包括所有欧盟成员国)的信息。
地区
执行总数
唯一帐户处理总数
北美洲
3,828,389
2,117,048
欧洲
2,807,070
1,735,054
世界其他地区
3,396,651
1,846,110
总计
10,032,110
5,698,212
地区
内容和帐户报告数量
执行总数
唯一帐户处理总数
北美洲
5,916,815
2,229,465
1,391,304
欧洲
5,781,317
2,085,109
1,378,883
世界其他地区
7,681,716
2,031,934
1,319,934
总计
19,379,848
6,346,508
4,090,121
执行总数
唯一帐户处理总数
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
广告审核
Snap 致力于确保所有广告都完全符合我们的广告政策。我们相信以负责任的方式投放广告,为所有 Snapchat 用户创造一个安全的体验。所有广告均须经我们的审查和批准。此外,我们保留移除广告的权利,包括根据用户反馈意见移除广告,因为我们非常重视用户反馈意见。
下文包含我们对在 Snapchat 上发布后被举报的付费广告的审核分析。请注意,我们可以根据 Snap 的《广告政策》中列举的各种原因移除 Snapchat 上的广告,包括欺诈性内容、成人内容、暴力或令人不安的内容、仇恨言论和知识产权侵权。此外,您现在还可以在 Snap 的透明度中心直接通过导航栏访问找到 Snapchat 广告库。
报告的广告总数
删除的广告总数
43,098
17,833