2025 年 12 月 1 日
2025 年 12 月 1 日
我们每年发布两次透明度报告,旨在深入了解 Snap 的安全工作。作为我们对安全与透明度承诺的一部分,我们不断努力使这些报告更加全面和信息丰富,以满足众多关心我们的内容审核、执法方式,以及 Snapchat 社区安全与福祉的利益相关者的需求。
本透明度报告涵盖 2025 年上半年(1 月 1 日 - 6 月 30 日)。 我们分享以下方面的全球数据:用户报告及 Snap 主动检测;安全团队针对《社群指南》特定违规类别的执行;对执法部门及政府要求的响应;以及对版权和商标侵权通知的处理。我们还通过一系列链接页面提供面向国家/地区的洞察。
如需在 Snapchat 上查找安全和隐私方面的其他资源,请查阅页面底部的关于透明度报告选项卡。
请注意,本透明度报告的最新版本为英文版本。
我们的信任与安全团队为执行《社群指南》而采取的行动概述
我们的安全团队通过主动监测(使用自动检测工具)以及响应(对报告进行响应)的方式执行《社群指南》,详情请参见本报告以下部分。在本报告周期(2025 年上半年)内,我们的安全团队采取的处置措施数量如下:
执行总数
唯一帐户处理总数
9,674,414
5,794,201
以下是各类社群指南违规情况的分类说明,包括我们从发现违规(无论是主动发现还是收到举报)到对相关内容或帐户采取最终措施的中位数处理时间:
政策原因
执行总数
唯一帐户处理总数
从检测到最终操作的中位周转时间(分钟)
色情内容
5,461,419
3,233,077
1
儿童性剥削与性虐待
1,095,424
733,106
5
骚扰和霸凌
713,448
594,302
3
威胁和暴力
187,653
146,564
3
自我伤害和自杀
47,643
41,216
5
虚假信息
2,088
2,004
1
假冒行为
7,138
6,881
<1
垃圾信息
267,299
189,344
1
毒品
1,095,765
726,251
7
武器
251,243
173,381
1
其他管制物品
183,236
126,952
4
仇恨言论
343,051
284,817
6
恐怖主义和暴力极端主义
10,970
6,783
2
总执行量数据包括 Snap 在审查 Snapchat 应用内举报后所执行的所有处置措施。 这反映 Snap 安全团队实施的绝大多数处置措施。 该数字不包括因通过我们的支持网站或其他渠道(例如电子邮件)向 Snap 提交的举报所引发的调查而采取的大多数处置措施,也不包括由我们的安全团队主动开展的一些调查所产生的执法措施。上述未纳入统计的处置措施,在 2025 年上半年的总处置量中占比不足 0.5%。
在本报告期内,违规观看率 (VVR) 为 0.01%,这意味着在 Snapchat 上每浏览 1 万次 Snap 和故事内容中,有 1 次浏览了违反《社群指南》的内容。在我们界定为“严重危害行为”的处置措施中,违规观看率为 0.0003%。 按政策原因整理的违规观看率 (VVR) 细分数据在下表中列出。
政策原因
违规观看率 (VVR)
色情内容
0.00482%
儿童性剥削与性虐待
0.00096%
骚扰和霸凌
0.00099%
威胁和暴力
0.00176%
自我伤害和自杀
0.00009%
虚假信息
0.00002%
假冒行为
0.00009%
垃圾信息
0.00060%
毒品
0.00047%
武器
0.00083%
其他管制物品
0.00104%
仇恨言论
0.00025%
恐怖主义和暴力极端主义
0.00002%
向我们的信任与安全团队报告的《社群指南》违规行为
从 2025 年 1 月 1 日 - 6 月 30 日,针对 19,766,324 份关于违反社群指南的应用内举报,Snap 的安全团队在全球范围内总共采取 6,278,446 次处置措施,包括对 4,104,624 个独立帐户的处置。该应用内举报量不包括支持网站和电子邮件的举报,这两类举报占总举报量的比例不足 1%。我们的安全团队对这些报告采取处置措施所花费的时间中位数为 2 分钟左右。 以下是按政策分类的明细。 (注意:在之前的报告中,我们有时将其称为“报告类别。“ 今后我们将使用“政策原因”这一术语,我们认为该词更准确地反映数据的性质 - 因为我们的安全团队会努力根据适当的政策原因执行,而不受举报人标明的举报类别的影响。)
内容和帐户报告总数
执行总数
唯一帐户处理总数
总计
19,766,32
6,278,446
4,104,624
政策原因
内容和帐户报告总数
执行总数
Snap 平台已处置举报量占总举报量的百分比
唯一帐户处理总数
从检测到最终操作的中位周转时间(分钟)
色情内容
7,315,730
3,778,370
60.2%
2,463,464
1
儿童性剥削与性虐待
1,627,097
695,679
11.1%
577,736
10
骚扰与霸凌
4,103,797
700,731
11.2%
584,762
3
威胁和暴力
997,346
147,162
2.3%
120,397
2
自我伤害和自杀
350,775
41,150
0.7%
36,657
3
虚假信息
606,979
2,027
0.0%
1,960
1
假冒行为
745,874
7,086
0.1%
6,837
<1
垃圾信息
1,709,559
122,499
2.0%
94,837
1
毒品
481,830
262,962
4.2%
176,799
5
武器
271,586
39,366
0.6%
32,316
1
其他管制物品
530,449
143,098
2.3%
98,023
3
仇恨言论
817,262
337,263
5.4%
280,682
6
恐怖主义和暴力极端主义
208,040
1,053
0.0%
912
2
在 2025 年上半年,我们继续缩短所有政策类别的处理时间中位数,与上一报告期相比,平均减少 75% 以上,减至 2 分钟。 这一优化在很大程度上归功于我们改进了基于危害严重程度划分的举报审核优先级系统,并强化了自动化审核机制。
在报告期内,我们还对安全措施进行了多项有针对性的改进,对本次报告的数据产生了影响,其中包括强化了针对涉及武器非法活动的相关政策。 我们观察到儿童性剥削类别的举报和执行案件有所增加,这主要源于未成年人的性暗示或敏感内容有所增加,违反了我们的政策,但在美国并不违法,也不需要向美国国家失踪与受虐儿童中心 (NCMEC) 上报。 色情内容相关的处置量出现上升,而骚扰相关处置量则有所下降,这一变化的原因是我们对性骚扰相关内容的类别归属进行了调整,将其从 “骚扰” 类别划入了 “色情内容” 类别。
我们努力主动发现《社群指南》违规行为并采取执行行动
我们使用自动化工具主动检测违反《社群指南》的行为,并在某些情况下采取执行行动。这些工具包括哈希匹配技术(包括 PhotoDNA 和 Google 的儿童性虐待图像 (CSAI))、Google 的内容安全 API,以及其他用于检测非法和违规文本和媒体的专有技术, 有时会利用 AI 和机器学习。 由于用户行为变化、检测功能的改进以及政策的更改,我们的主动检测数量通常会发生波动。
2025 年上半年,我们使用自动检测工具主动检测到违反《社群指南》的行为后,我们采取了以下行动:
执行总数
唯一帐户处理总数
总计
3,395,968
1,709,224
政策原因
执行总数
唯一帐户处理总数
从检测到最终操作的中位周转时间(分钟)
色情内容
1,683,045
887,059
0
儿童性剥削与性虐待
399,756
162,017
2
骚扰和霸凌
12,716
10,412
8
威胁和暴力
40,489
27,662
6
自我伤害和自杀
6,493
4,638
7
虚假信息
61
44
20
假冒行为
52
44
34
垃圾信息
144,800
96,500
0
毒品
832,803
578,738
7
武器
211,877
144,455
0
其他管制物品
40,139
31,408
8
仇恨言论
5,788
4,518
6
恐怖主义和暴力极端主义
9,917
5,899
5
打击儿童性剥削与性虐待行为
对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEA) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。
我们使用主动技术检测工具来帮助识别 CSEA 相关内容。这些工具包括哈希匹配工具(包括 PhotoDNA 和 Google 的 CSAI 匹配技术,分别用于识别 CSEA 的已知非法图像和视频)和 Google 的内容安全 API(用于识别新颖的 “从未被哈希化” 的非法图像)。 此外,在某些情况下,我们使用行为信号对其他潜在的非法 CSEA 活动采取执行行动。我们按照法律要求,向美国国家失踪与受虐儿童中心 (NCMEC) 举报 CSEA 相关内容。然后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。
2025 年上半年,我们在 Snapchat 上确认 CSEA 内容时(无论是主动发现或收到举报)采取了以下行动:
内容处理总数
禁用帐户总数
向 NCMEC 提交的报告总数*
994,337
187,387
321,587
*请注意,向 NCMEC 提交的每个报告均可能包含多条内容。向 NCMEC 报告的媒体内容总数等于我们处理的内容总数。
我们努力为需要帮助的 Snapchat 用户提供资源和支持
Snapchat 为有需要的 Snapchat 用户提供资源和支持,帮助朋友们能够在困难时期互相帮助。
当用户搜索与心理健康、焦虑、抑郁、压力、自杀想法、悲伤和欺凌相关的特定主题时,我们的 Here For You 搜索工具会提供专家资源。 我们还建立了一个专门页面,用于打击以牟利为动机的性勒索以及其他性风险和伤害,帮助那些处于困境中的人。
当我们的安全团队发现有 Snapchat 用户处于危难时,他们能够提供自残预防和支持资源,并在需要时通知紧急服务部门。我们共享的资源已列在全球安全资源列表中,该列表在我们的隐私、安全与政策中心向所有 Snapchat 用户公开提供。
自杀资源分享总数
36,162
申诉
以下是我们收到的用户申诉信息,要求我们重新审核在 2024 年下半年对其帐户因违反社群指南而被锁定的决定:
政策原因
上诉总数
恢复总数
维持裁决总数
处理上诉的中间周转时间(日)
总计
437,855
22,142
415,494
1
色情内容
134,358
6,175
128,035
1
儿童性剥削与虐待*
89,493
4,179
85,314
<1
骚扰和霸凌
42,779
281
42,496
1
威胁和暴力
3,987
77
3,909
1
自我伤害和自杀
145
2
143
1
虚假信息
4
0
4
1
假冒行为
1,063
33
1,030
<1
垃圾信息
13,730
3,140
10,590
1
毒品
128,222
7,749
120,409
1
武器
10,941
314
10,626
1
其他管制物品
9,719
124
9,593
1
仇恨言论
3,310
67
3,242
1
恐怖主义和暴力极端主义
104
1
103
1
国家和地区概述
本节概述了我们的安全团队在部分地理区域中,为执行《社群指南》而主动采取的行动,以及对应用内违规报告的响应措施。我们的《社群指南》适用于 Snapchat 上的所有内容,以及面向全球任何地方的所有 Snapchat 用户。
可通过随附的 CSV 文件下载各个国家/地区(包括所有欧盟成员国)的信息。
Region
执行总数
唯一帐户处理总数
北美洲
3,468,315
2,046,888
欧洲
2,815,474
1,810,223
世界其他地区
3,390,625
1,937,090
总计
9,674,414
5,794,201
Region
内容和帐户报告数量
执行总数
唯一帐户处理总数
北美洲
5,762,412
2,125,819
1,359,763
欧洲
5,961,962
2,144,828
1,440,907
世界其他地区
8,041,950
2,007,799
1,316,070
总计
19,766,32
6,278,446
4,116,740
Region
执行总数
唯一帐户处理总数
北美洲
1,342,496
785,067
欧洲
670,646
422,012
世界其他地区
1,382,826
696,364
总计
3,395,968
1,709,224
广告审核
Snap 致力于确保所有广告都完全符合我们的广告政策。我们相信以负责任的方式投放广告,为所有 Snapchat 用户创造一个安全的体验。所有广告均须经我们的审查和批准。此外,我们保留移除广告的权利,包括根据用户反馈意见移除广告,因为我们非常重视用户反馈意见。
下文包含我们对在 Snapchat 上发布后被举报的付费广告的审核分析。请注意,我们可以根据 Snap 的《广告政策》中列举的各种原因移除 Snapchat 上的广告,包括欺诈性内容、成人内容、暴力或令人不安的内容、仇恨言论和知识产权侵权。此外,您还可以在 values.snap.com 的“透明度”选项卡下找到 Snapchat 广告画廊。
报告的广告总数
删除的广告总数
67,789
16,410

























