Privacy and Safety Hub

我们的《2021 年上半年透明度报告》

2022 年 11 月 29 日

今天,我们发布了涵盖 2022 年上半年的最新透明度报告
在 Snap,我们将社群的安全和福祉摆在首位。双年度透明度报告是分享重要信息和问责的重要工具。
自 2015 年透明度报告以来,我们一直在努力提高报告的信息量、可读性和效率。在最近的报告中,我们做了各种补充和改进,帮助社群更好地了解报告,并努力提高报告内容的全面性和信息性。
虚假信息数据全国通用
基于我们之前在全球范围内出现的错报情况,我们第一次引入了“虚假信息”作为全国范围内的独立类别。我们是少数提供全国范围信息的平台之一。半年时间,我们共处理了 4,877 件虚假或误导内容。从设计平台开始,我们就采取了不同的方法防止虚假信息在 Snapchat 上的传播。Snapchat 不允许未经审查的内容传播。当发现内容违反社群规范时,我们的政策是删除内容,立即减少信息共享的风险。我们对付包括虚假信息的内容的做法也很直接:删除它。
随着最近的美国中期选举和全球其他国家的选举持续进行,我们认为在虚假消息的执法过程中获得的国家数据和详情很有价值。在此处了解我们如何防止虚假信息的传播
打击儿童性剥削与虐待
对我们社群的任何成员,特别是未成年人进行性剥削,均属《社群指南》不容忍且禁止的非法行为。我们平台上把预防、发现和消除儿童性剥削和虐待图像 (CSEAI) 摆在首位,不断发展在平台打击此类滥用类型的能力。2022 年上半年,我们主动检测并处理了该报告中 94% 的儿童性剥削与虐待内容 - 较上次报告提高了 6%。
我们也提供最新语言版本和更多打击 CSEAI 的洞察。我们现在分享了我们删除的 CSEA 内容的总数,以及我们的信任和安全团队向美国失踪和受剥削儿童国家中心 (NCMEC) 的报告总数。
介绍政策和数据定义词汇
我们添加了政策和数据定义词汇,将这些内容纳入今后的所有报告。我们使用这份词汇的目的是在词汇上提供透明度,明确概述在每个类别下包含和强制执行的内容。例如,如果读者不确定我们的“威胁和暴力”、“仇恨言论”、“其他常规项目”或其他内容类别的含义,他们可以轻松地查看词汇表了解详情。
主动删除违法内容
查看报告数据时,需要注意总报告和执法的数据只计入了向我们报告的内容。没有包括 Snap 在报告发生前的主动检测和采取的行动。我们在主动检测方面进步明显,有效减少了总报告数、执法数据和关键类别中最新报告的周转时间。我们在接触 Snapchatter 之前发现和删除了增强的自动检测工具,所以被动内容执行减少(例如 Snapchatter 的报告)。
具体而言,自上次报告以来, Snapchatter 举报中的威胁和暴力内容减少了 44%,药物内容减少了 37%,仇恨言论内容减少了 34%。平均而言,我们删除违法内容的中位周转时间提高了 33%,从半分钟提高到了一分多。
Snapchat 多年来不断变化,但我们对透明度和优先重视社群安全和福祉的承诺没有改变。我们会继续担起责任,也会不断汇报我们的进展。