2024 年 12 月 5 日
2024 年 12 月 5 日
我们每年发布两次透明度报告,旨在深入了解 Snap 的安全工作。我们致力于做好安全工作,并不断努力完善这些报告,为许多非常关心我们内容审核、执法实践以及 Snapchat 社区安全和幸福感的利益相关者提供更全面的内容和更丰富的信息。
本透明度报告涵盖的期间为 2024 年上半年(1 月 1 日至 6 月 30 日)。与以往的报告一样,我们公布了以下数据:我们信任与安全团队收到和执行的关于特定类别《社群指南》违规行为的应用内内容和帐户级别报告的全球报告数量;我们如何响应执法机构和政府的要求;以及我们如何应对版权和商标侵权通知。我们还在本页底部链接的文件中提供了针对特定国家/地区的见解。
为履行不断完善透明度报告的持续承诺,我们还将引入新数据,重点介绍我们如何努力主动发现更大范围的《社群指南》违规行为并采取执法行动。我们在本报告中包含了全球和国家/地区两个级别的数据,并将继续这样做。我们还更正了之前报告中的一项标签错误:我们之前的说法是“执行内容总数”,现在更改为“执行总数”,以反映相关列中提供的数据包含了内容级别和帐户级别的执行数据这一事实。
如需详细了解我们打击潜在网络危害的政策,以及继续完善报告实践的计划,请阅读我们最近发布的关于本透明度报告的安全和影响博客。如需在 Snapchat 上查找安全和隐私方面的其他资源,请查阅页面底部的关于透明度报告选项卡。
请注意,本透明度报告的最新版本可以在 EN-US 区域找到。
我们的信任与安全团队为执行《社群指南》而采取的行动概述
我们的信任与安全团队主动(通过使用自动化工具)和被动(对报告作出响应)执行《社群指南》,详情见本报告以下部分。在本报告期内(2024 年上半年),我们的信任与安全团队采取了以下执行行动:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
按相关《社群指南》违规类型分列的数据(包括从我们发现违规行为(主动发现或收到报告时)到我们对相关内容或帐户采取最终行动的办理时间中位数)如下:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
在本报告期内,违规内容浏览率 (VVR) 为 0.01%,这意味着在 Snapchat 上每浏览 1 万次 Snap 和故事内容中,有 1 次浏览了违反《社群指南》的内容。
向我们的信任与安全团队报告的《社群指南》违规行为
2024 年 1 月1 日至 6 月 30 日,为响应应用内的《社群指南》违规行为报告,Snap 的信任与安全团队在全球总共采取了 6,223,618 次执行行动,对 3,842,507 个唯一帐户采取了执行行动。我们的信任与安全团队对这些报告采取执行行动的办理时间中位数为 24 分钟左右。按报告类别分列的数据如下。
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
与之前六个月相比,我们 2024 年上半年的总体报告数量相当稳定。在本周期内,执行总数和强制执行的唯一帐户总数增加约 16%。
在过去 12 个月中,Snap 为用户推出了新的报告机制,这说明了在本报告期(2024 年上半年)内,我们的报告数量和执行数量发生的变化,以及办理时间增加的情况。具体而言:
群聊报告:我们于 2023 年 10 月 13 日推出了群聊报告功能,用户可以报告多人聊天中发生的虐待行为。这一变更影响了我们不同报告类别的指标构成(因为有些潜在危害更可能发生在聊天情境中),提高了报告的可操作性。
帐户报告增强功能:我们还改进了帐户报告功能,发起报告的用户在举报涉嫌由不良行为者操作的帐户时可以提交聊天证据。这一变更为我们评估帐户报告(2024 年 2 月 29 日推出)提供了更充分的证据和情境。
聊天报告,特别是群聊报告,是审核最复杂、最耗时的报告类型,这全面增加了办理时间。
特别是涉嫌儿童性剥削与性虐待 (CSEA)、骚扰与霸凌以及仇恨言论的报告,受到上述两项变更以及整个生态系统转变的影响更大。具体而言:
CSEA:2024 年上半年与 CSEA 相关的报告和执行数量增加。具体而言,用户应用内报告总数增加 64%,执行总数增加 82%,强制执行的唯一帐户总数增加 108%。这些数据增加主要是因为推出了群聊和帐户报告功能。鉴于审核队列的敏感性,我们指定了一支训练有素的代理团队负责审核 CSEA 相关潜在违规行为的报告。由于大量额外报告的涌现,再加上我们的团队需要参加新的培训,办理时间因此增加。展望未来,我们大幅扩大了全球供应商团队的规模,以缩短办理时间,并准确执行潜在 CSEA 报告。我们预计 2024 年下半年的透明度报告将反映这项工作的成果,办理时间将大幅缩短。
骚扰和霸凌:根据报告情况,我们发现聊天中,尤其是群组聊天中,发生骚扰和霸凌的情况过多。我们推出了群聊报告和帐户报告增强功能,帮助我们在评估此类报告类别时采取更全面的行动。此外,从本报告期开始,我们要求用户在提交骚扰和霸凌报告时输入评论。我们会审阅该评论,以了解每项报告的情境。这些变更共同导致执行总数 (+91%)、强制执行的唯一帐户总数 (+82%) 和相应报告的办理时间 (+245 分钟) 大幅增加。
仇恨言论:2024 年上半年,有关仇恨言论的内容报告、执行总数和办理时间增加。具体而言,应用内报告增加 61%,执行总数增加 127%,强制执行的唯一帐户总数增加 125%。这一方面是因为我们改进了聊天报告机制(如前所述),而地缘政治环境(特别是以色列—哈马斯冲突不断持续)进一步加剧了仇恨言论的情况。
在本报告期内,关于可疑垃圾邮件和信息滥用报告的执行总数减少约 65%,强制执行的唯一帐户总数减少约 60%,这反映了我们的主动检测和执行工具有所改进。关于自我伤害和自杀相关内容报告的执行总数也减少了(约 80%),这是因为我们更新了以受害者为中心的处理方法。根据更新后的方法,我们的信任与安全团队将在适当情况下向相关用户发送自助资源,而不是对这些用户采取执行行动。此方法由我们的安全咨询委员会成员(包括一名专门研究互动媒体和互联网疾病的儿科教授和医生)提供。
我们努力主动发现《社群指南》违规行为并采取执行行动
我们部署了自动化工具来主动发现《社群指南》违规行为,并在某些情况下采取执行行动。此类工具包括哈希匹配工具(包括 PhotoDNA 和 Google 的儿童性虐待图像 (CSAI) 匹配)、虐待语言检测工具(根据已经确定并定期更新的虐待关键字和表情符号列表进行检测和执行),以及多模态人工智能/机器学习技术。
2024 年上半年,我们通过自动化工具主动发现《社群指南》违规行为后采取了以下执行行动:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Combatting Child Sexual Exploitation & Abuse
对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。对我们来说,在平台上预防、发现、根除儿童性虐待图像 (CSEA) 是 Snap 的重中之重,我们会不断提升自身的能力,来打击 CSEA 和其他类型的儿童性剥削内容。
我们使用主动技术检测工具(例如 PhotoDNA 强大的哈希匹配和 Google 的儿童性虐待图像 (CSAI) 匹配)分别识别已知的非法 CSEA 图像和视频。此外,在某些情况下,我们使用行为信号对其他潜在的非法 CSEA 活动采取执行行动。我们按照法律要求,向美国国家失踪与受虐儿童中心 (NCMEC) 举报 CSEA 相关内容。随后,NCMEC 将根据需要与国内或国际执法机构进行协调处理。
2024 年上半年,我们在 Snapchat 上检测到 CSEA 内容时采取了以下行动(主动发现或收到报告时):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
我们努力为需要帮助的 Snapchat 用户提供资源和支持
我们非常重视 Snapchat 用户的心理健康和幸福感,这将继续影响我们有关如何建设与众不同的 Snapchat 的决定。作为一个专为真实好友打造的交流平台,我们认为 Snapchat 能够发挥独特的作用,让好友在困难时期互帮互助。这就是我们为需要帮助的 Snapchat 用户开发了资源和支持的原因。
当用户搜索与心理健康、焦虑、抑郁、压力、自杀念头、悲伤和霸凌相关的特定主题时,我们的 Here For You 搜索工具会显示当地专家合作伙伴的资源。我们还开发了一个专门针对性勒索和其他性风险与伤害的网页,为身处困境的用户提供支持。我们的全球安全资源列表向所有 Snapchat 用户公开提供,可在我们的隐私、安全和政策中心找到。
我们的信任与安全团队发现 Snapchat 用户身处困境时,可以提供自我伤害预防与支持资源,并在适当时通知应急响应人员。我们分享的资源可在全球安全资源列表上找到,并向所有的 Snapchat 用户公开提供。
Total Times Suicide Resources Shared
64,094
申诉
有些用户提出了申诉,要求我们审核锁定其帐户的决定,相关信息如下:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
国家和地区概述
本部分简要介绍我们的信任与安全团队在抽样地理区域为执行《社群指南》而采取的行动,包括主动执行和响应应用内违规报告。我们的《社群指南》适用于 Snapchat 上的所有内容,以及全球任何地方的所有 Snapchat 用户。
可通过随附的 CSV 文件下载各个国家/地区(包括所有欧盟成员国)的信息。
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
广告审核
Snap 致力于确保所有广告都完全符合我们的广告政策。我们坚持以负责任和尊重的方式投放广告,为所有用户打造安全愉悦的广告体验。所有广告均须经我们的审查和批准。此外,我们保留移除广告的权利,包括根据用户反馈意见移除广告,因为我们非常重视用户反馈意见。
下文包含我们对在 Snapchat 上发布后被举报的付费广告的审核分析。请注意,我们可以根据 Snap 的《广告政策》中列举的各种原因移除 Snapchat 上的广告,包括欺诈性内容、成人内容、暴力或令人不安的内容、仇恨言论和知识产权侵权。此外,你现在可以在本透明度报告的导航栏中找到 Snapchat 的广告相簿。
Total Ads Reported
Total Ads Removed
43,098
17,833