Snap Values
透明度报告
2024 年 7 月1 日 – 2024 年 12 月 31 日

发布日期:

2025 年 6 月20 日

更新:

2025 年 7 月1 日

我们每年发布两次透明度报告,旨在深入了解 Snap 的安全工作。作为安全和透明度承诺的一部分,我们不断完善报告内容,为许多非常关心我们内容审核、执法实践以及 Snapchat 社区安全和幸福感的利益相关者提供更全面的内容和更丰富的信息。

本透明度报告涵盖 2024 年下半年的情况(7 月 1 日至 12 月 31 日)。我们分享以下方面的全球数据:用户报告及 Snap 主动检测;安全团队针对《社群指南》特定违规类别的执行;对执法部门及政府要求的响应;以及对版权和商标侵权通知的处理。我们还通过一系列链接页面提供面向国家/地区的洞察。

如需在 Snapchat 上查找安全和隐私方面的其他资源,请查阅页面底部的关于透明度报告选项卡。

请注意,本透明度报告的最新版本为英文版本。

我们的信任与安全团队为执行《社群指南》而采取的行动概述

我们的安全团队通过主动(使用自动检测工具)以及主动(对报告进行响应)的方式执行《社群指南》,详情请参见本报告以下部分。在本报告期内(2024 年下半年),我们的安全团队采取了以下执行行动:

执行总数

唯一帐户处理总数

10,032,110

5,698,212

按相关《社群指南》违规类型分列的数据(包括从我们发现违规行为(主动发现或收到报告时)到我们对相关内容或帐户采取最终行动的办理时间中位数)如下:

政策原因

执行总数

唯一帐户处理总数

从检测到最终操作的中间周转时间(分钟)

色情内容

3,860,331

2,099,512

2

儿童性剥削

961,359

577,682

23

骚扰和霸凌

2,716,966

2,019,439

7

威胁和暴力

199,920

156,578

8

自我伤害和自杀

15,910

14,445

10

虚假信息

6,539

6,176

1

仇恨言论

8,798

8,575

2

Spam

357,999

248,090

1

毒品

1,113,629

718,952

6

武器

211,860

136,953

1

其他管制物品

247,535

177,643

8

仇恨言论

324,478

272,025

27

恐怖主义和暴力极端主义

6,786

4,010

5

在本报告期内,违规内容浏览率 (VVR) 为 0.01%,这意味着在 Snapchat 上每浏览 1 万次 Snap 和故事内容中,有 1 次浏览了违反《社群指南》的内容。

向我们的信任与安全团队报告的《社群指南》违规行为

2024 年 7 月1 日至 12 月 31 日,针对违反《社群指南》的应用内报告,Snap 的安全团队在全球范围内共采取了 6,346,508 项强制措施,涉及 4,075,838 个独立帐户。 我们的安全团队对这些报告采取执行行动的办理时间中位数为 6 分钟左右。按报告类别分列的数据如下。

内容和帐户报告总数

执行总数

唯一帐户处理总数

19,379,848

6,346,508

4,075,838

政策原因

内容和帐户报告数量

执行总数

Snap 执行报告总数的百分比

唯一帐户处理总数

从检测到最终操作的中间周转时间(分钟)

色情内容

5,251,375

2,042,044

32.20%

1,387,749

4

儿童性剥削

1,224,502

469,389

7.40%

393,384

133

骚扰和霸凌

6,377,555

2,702,024

42.60%

2,009,573

7

威胁和暴力

1,000,713

156,295

2.50%

129,077

8

自我伤害和自杀

307,660

15,149

0.20%

13,885

10

虚假信息

536,886

6,454

0.10%

6,095

1

仇恨言论

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

毒品

418,431

244,451

3.90%

159,452

23

武器

240,767

6,473

0.10%

5,252

1

其他管制物品

606,882

199,255

3.10%

143,560

8

仇恨言论

768,705

314,134

4.90%

263,923

27

恐怖主义和暴力极端主义

197,439

1,201

<0.1%

1,093

4

与上一报告期相比,我们将所有政策类型的周转时间中位数平均缩短了90%。 这一减少很大程度上是由于我们共同努力,扩大了审查能力,并根据伤害严重程度改进了我们对报告的优先次序。在本报告期内,我们还对我们的安全工作进行了几项有针对性的调整,这些调整对本报告的数据产生了影响,包括扩大对违反《社区指南》的用户名和显示名称账户的执行力度、增加对 Snapchat 上社区的报告和保护,以及对其他类型媒体(如语音备忘录)的报告选项,可直接在应用中向我们提供。

与上一报告期相比,这些变化以及其他安全工作与外部力量对某些政策领域的影响尤其明显。这些政策类别包括:与涉嫌儿童性剥削与虐待 (CSEA)、有害虚假信息以及垃圾邮件相关的内容。具体而言:

  • CSEA:2024 年下半年,我们发现与 CSEA 相关报告减少了 12%,并将响应 CSEA 报告的周转时间中位数缩短了 99%。这些趋势主要是由我们主动检测工作的持续进步推动的,这使我们能够在 CSEA 内容报告给我们之前就将其删除,并且我们改进了流程,以便提高审查 CSEA 报告和采取行动效率。即使进行了这些改进,我们的 CSEA 周转时间仍高于其他政策领域,因为内容需要经过专门流程,包括由经过专门培训的代理团队进行双重审核。

  • 有害的虚假信息:我们观察到与有效虚假信息相关的报告数量增加了 26%,这主要是由政治事件推动的,包括 2024 年 11 月的美国大选。

  • 垃圾邮件:在本报告期内,我们发现,针对可疑垃圾邮件报告的执行总数减少约 50%,强制执行的唯一账户总数减少约 46%,这反映了我们的主动检测和执行工具有所改进。这是我们通过账户信号锁定垃圾邮件,并在平台上更快删除垃圾邮件行为者活动的延续。这项工作在上一报告期内已经开始进行,在此期间,针对垃圾邮件的执行总数和强制执行的唯一账户总数分别减少约 65% 和 60%。

我们努力主动发现《社群指南》违规行为并采取执行行动

主动发现《社群指南》违规行为并采取执行行动


我们使用自动化工具主动检测违反《社群指南》的行为,并在某些情况下采取执行行动。这些工具包括哈希匹配技术(包括 PhotoDNA 和 Google 的儿童性虐待图像 (CSAI) 匹配技术)、Google 的内容安全 API,以及其他用于检测滥用文本和媒体的定制技术,有时还会利用人工智能和机器学习技术。

2024年下半年,我们使用自动化检测工具主动检测到违反《社群指南》的行为后,采取了以下行动:

执行总数

唯一帐户处理总数

3,685,602

1,845,125

政策原因

执行总数

唯一帐户处理总数

从检测到最终操作的中间周转时间(分钟)

色情内容

1,818,287

828,590

<1

儿童性剥削

491,970

188,877

1

骚扰和霸凌

14,942

11,234

8

威胁和暴力

43,625

29,599

9

自我伤害和自杀

761

624

9

虚假信息

85

81

10

仇恨言论

8

6

19

Spam

177,150

110,551

<1

毒品

869,178

590,658

5

武器

205,387

133,079

<1

其他管制物品

48,280

37,028

9

仇恨言论

10,344

8,683

10

恐怖主义和暴力极端主义

5,585

2,951

21

Combatting Child Sexual Exploitation & Abuse

打击儿童性剥削与虐待

对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEA) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。

我们使用主动技术检测工具来帮助识别 CSEA 相关内容。这些工具包括哈希匹配工具(包括 PhotoDNA 和 Google 的 CSAI Match,分别用于识别已知的 CSEA 非法图像和视频)和 Google 内容安全 API(用于识别新的、“从未被哈希”的非法图像)。此外,在某些情况下,我们使用行为信号对其他潜在的非法 CSEA 活动采取执行行动。我们按照法律要求,向美国国家失踪与受虐儿童中心 (NCMEC) 举报 CSEA 相关内容。然后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。

2024 年下半年,我们在 Snapchat 上确认到 CSEA 内容时采取了以下行动(主动发现或收到报告时):


内容处理总数

禁用帐户总数

向 NCMEC 提交的报告总数*

1,228,929

242,306

417,842

*请注意,向 NCMEC 提交的每个报告均可能包含多条内容。向 NCMEC 报告的媒体内容总数等于我们处理的内容总数。

我们努力为需要帮助的 Snapchat 用户提供资源和支持

Snapchat 为有需要的 Snapchat 用户提供资源和支持,帮助朋友们能够在困难时期互相帮助。

当用户搜索与心理健康、焦虑、抑郁、压力、自杀念头、悲伤和霸凌相关的特定主题时,我们的 Here For You 搜索工具会提供专家资源。我们还开发了一个专门针对性勒索和其他性风险与伤害的网页,为身处困境的用户提供支持。我们的全球安全资源列表向所有 Snapchat 用户公开提供,可在我们的隐私、安全和政策中心找到。
当我们的安全团队发现 Snapchat 用户身处困境时,他们能够提供自我伤害预防与支持资源,并根据需要通知紧急服务。我们分享的资源可在全球安全资源列表上找到,并向所有的 Snapchat 用户公开提供。

自杀资源分享总数

64,094

申诉

有些用户提出了申诉,要求我们审核在 2024 年下半年锁定其账户的决定,相关信息如下:

政策原因

上诉总数

恢复总数

维持裁决总数

处理上诉的中间周转时间(日)

总计

493,782

35,243

458,539

5

色情内容

162,363

6,257

156,106

4

儿童性剥削

102,585

15,318

87,267

6

骚扰和霸凌

53,200

442

52,758

7

威胁和暴力

4,238

83

4,155

5

自我伤害和自杀

31

1

30

5

虚假信息

3

0

3

<1

仇恨言论

847

33

814

7

Spam

19,533

5,090

14,443

9

毒品

133,478

7,598

125,880

4

武器

4,678

136

4,542

6

其他管制物品

9,153

168

8,985

6

仇恨言论

3,541

114

3,427

7

恐怖主义和暴力极端主义

132

3

129

9

国家和地区概述

本节概述了我们的安全团队在部分地理区域中,为执行《社群指南》而主动采取的行动,以及对应用内违规报告的响应措施。我们的《社群指南》适用于 Snapchat 上的所有内容,以及面向全球任何地方的所有 Snapchat 用户。

可通过随附的 CSV 文件下载各个国家/地区(包括所有欧盟成员国)的信息。


我们的安全团队为执行《社群指南》而采取的行动概述

地区

执行总数

唯一帐户处理总数

北美洲

3,828,389

2,117,048

欧洲

2,807,070

1,735,054

世界其他地区

3,396,651

1,846,110

总计

10,032,110

5,698,212

向我们的安全团队报告的《社群指南》违规行为

地区

内容和帐户报告数量

执行总数

唯一帐户处理总数

北美洲

5,916,815

2,229,465

1,391,304

欧洲

5,781,317

2,085,109

1,378,883

世界其他地区

7,681,716

2,031,934

1,319,934

总计

19,379,848

6,346,508

4,090,121

主动发现《社群指南》违规行为并采取执行行动

执行总数

唯一帐户处理总数

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

广告审核

Snap 致力于确保所有广告都完全符合我们的广告政策。我们相信以负责任的方式投放广告,为所有 Snapchat 用户创造一个安全的体验。所有广告均须经我们的审查和批准。此外,我们保留移除广告的权利,包括根据用户反馈意见移除广告,因为我们非常重视用户反馈意见。


下文包含我们对在 Snapchat 上发布后被举报的付费广告的审核分析。请注意,我们可以根据 Snap 的《广告政策》中列举的各种原因移除 Snapchat 上的广告,包括欺诈性内容、成人内容、暴力或令人不安的内容、仇恨言论和知识产权侵权。此外,您现在还可以在 Snap 的透明度中心直接通过导航栏访问找到 Snapchat 广告库

报告的广告总数

删除的广告总数

43,098

17,833