Snap Values
欧盟
2023 年 1 月 1 日 - 2023 年 6 月 30 日

发布日期:

2023 年 10 月 25 日

更新:

2024 年 2 月 7 日

欢迎访问我们的欧盟 (EU) 透明度页面,我们在此发布《数字服务法案》(DSA)、《视听媒体服务指令》(AVMSD) 和《荷兰媒体法案》(DMA) 所要求的欧盟特定信息。  

平均月度活跃接收用户 

截至 2023 年 8 月 1 日,我们在欧盟地区的 Snapchat 应用平均每月活跃用户(“AMAR”)为 1.02 亿。这意味着,在过去 6 个月中,平均有 1.02 亿欧盟注册用户在指定月份内至少打开过一次 Snapchat 应用程序。

该数据按成员国分类如下:

这些数字的计算符合当前的 DSA 规则,并且只能用于 DSA 目的。我们可能会随着时间而改变计算这一数字的方式,包括应对不断变化的监管机构指导和科技。 这也可能与我们出于其他目而发布的其他活跃用户数据所用的计算方法不同。

法定代表人 

Snap Group Limited 已任命 Snap B.V. 为其法定代表人。 您可以在我们的支持网站[此处]或以下位置,通过 dsa-enquiries@snapchat.com 联系 DSA 代表,通过 vsp-enquiries@snapchat.com 联系 AVMSD 和 DMA 的代表:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

如果您是执法机构,请遵循此处概述的步骤。

监管机构

对于 DSA,我们受到欧盟委员会和荷兰消费者和市场管理局 (ACM) 的监管。

对于 AVMSD 和 DMA,我们受到荷兰媒体管理局 (CvdM) 的监管。

DSA 透明度报告

DSA 第 15、24 和 42 条要求 Snap 发布报告,其中应包含有关 Snap 对 Snapchat 服务(视为“在线平台”)( Spotlight、 为您推荐、公共资料、地图、特效镜头和广告)的内容审核的规定信息。自 2023 年 10 月 25 日起,该报告必须每 6 个月发布一次。

Snap 每年发布两次透明度报告,深入介绍 Snap 的安全工作以及我们平台上所举报内容的性质和数量。 2023 年上半年(1 月 1 日 - 6 月 30 日)的最新报告,请访问此处。 该报告载有下列信息:

  • 政府请求,包括信息和内容删除请求; 

  • 内容违规,包括针对非法内容采取的行动和响应时间的中位数; 

  • 申诉,通过我们的内部投诉处理流程接收和处理。

这些章节涉及 DSA 第 15.1 条(a)、(b)和 (d)要求的信息。 请注意,它们尚未包含完整的数据集,因为最新报告涵盖 2023 年上半年,早于 DSA 生效之日。

下文我们将就 2023 年上半年透明度报告未涵盖的方面提供一些额外信息:

内容审核(第 15.1 条(c)和 (e),第 42.2 条)

Snapchat 上所有内容必须遵守我们的 社群指南服务条款,以及配套条款、指南和解释。主动检测机制和对非法或违规内容或账户的举报会发出审查提示,此时,我们的工具系统会处理请求,收集相关元数据,并通过结构化用户界面,将相关内容发送给我们的审核团队。该界面旨在促进审查行动的高效展开。若审核团队在人工审核或自动审核中确定某用户违反了我们的条款,我们可能会删除违规内容或账户,终止或限制相关账户的可见性,和/或通知执法部门,如 Snapchat 审核、 强制执行和申诉解释所述。  若账户因违反社群指南而被我们的安全团队锁定,用户可以提交锁定账户申诉,且用户可以申诉某些内容强制执行

自动化内容审核工具

在我们的公开内容层面上,内容通常会经过自动审核和人工审核,然后才有资格分发给广大受众。关于自动化工具,这些工具包括:

  • 使用机器学习,主动检测非法和违规内容;

  • 散列匹配工具(如 PhotoDNA 和 Google 的 CSAI Match);

  • 辱骂性语言检测,可以根据已识别并定期更新的辱骂性关键词(包括表情符号)列表,拒绝内容。

在我们最新的透明度报告(2023 年上半年)期间,不需要核对这些自动化系统的正式指标/错误率。 然而,我们会定期监控这些系统是否存在问题,并定期评估人工审核决策的准确性。


人工审核

我们的内容审核团队遍布全球,全天候帮助保障 Snapchat 用户的安全。下面是人工审核资源按审核员的语言专业分类的细目(请注意,有些审核员擅长多种语言) ( 截至 2023 年 8 月)

根据我们观察到的内容流入趋势或按语言/国家/地区分列的提交数,上述数字会频繁波动。 在需要额外的语言支持的情况下,我们使用翻译服务。

审核员的招聘使用统一的职位描述,包括根据需求的语言要求。语言要求明确候选人应该能够展示该语言的书面和口头流利,并至少有一年入门级职位的工作经验。 候选人还必须满足学历和背景要求方可纳入考虑范围。 候选人还必须证明对他们理解所支持的内容审核国家或地区的当前事件。

我们的审核团队执行相关政策和管控措施,以保护 Snapchat 社群。 培训将持续数周,在此期间新成员将系统学习 Snap 的政策、工具以及升级处理流程。 完成培训后,每位审核员必须通过资格认证考试才能获得内容审核权限。 我们的审核团队会定期参与其工作流程相关的进阶培训,特别是在处理政策边界模糊和依赖具体情景的情形时。我们还开展技能提升项目、认证课程和测验,确保所有审核人员掌握最新动态并遵循所有已更新的政策。最后,当紧急内容趋势因时事产生时,我们会快速分发政策说明,以便团队能够根据 Snap 的政策及时处理。

我们为内容审核团队(Snap 的“数字应急响应人员”)提供全方位支持和资源,包括在岗健康保障和便捷的心理健康服务。 


内容审核保障机制

我们承认内容审核存在风险,包括言论和集会自由的风险,这些风险可能是由自动化和人工审核偏见以及包括政府、政治选区,或组织有序的个人在内的滥用报告引发的。 Snapchat 通常不是发布政治或激进内容的地方,特别是在我们的公共空间中。 

尽管如此,为了防范这些风险,Snap 进行了适当的测试和培训,并制定了强大、一致的程序来处理非法或违规内容的报告,包括来自执法部门和政府当局的报告。 我们不断评估和改进我们的内容审核算法。 虽然很难检测到对言论自由的潜在危害,但我们没发现任何重大问题,并且我们为用户提供报告错误的途径(如果发生错误)。 

我们的政策和系统促进一致和公平的执法,如上所述,为 Snapchatter 提供机会,通过通知和申诉流程对执法结果提出有意义地争议,该流程旨在维护我们社区的利益,同时保护 Snapchatter 个人权利。

我们不断努力改进我们的执法政策和流程,并在 Snapchat 上打击潜在有害和非法内容和活动方面取得了长足进展。 这反映在我们最新的透明度报告所显示的举报和执法数字的上升趋势中,以及 Snapchat 上违规行为发生率的总体下降中。


可信举报人通知(第 15.1(b) 条)

在我们最新的透明度报告期间(2023 年上半年),未根据《数字安全法案》正式委任任何“可信举报人”。 因此,在此期间,此类可信举报人提交的通知数量为零 (0)。


庭外争议解决(第 24.1(a) 条)

在我们最新的透明度报告期间(2023 年上半年),未根据《数字安全法案》正式指定任何庭外争议解决机构。 因此,在此期间,提交给此类机构的争议数量为零 (0)。


根据第 23 条实施的帐户暂停措施(第 24.1(b) 条)

在我们最新的透明度报告期间(2023 年上半年),不存在因提供明显非法内容、无根据的通知或恶意投诉而根据《数字安全法案》第 23 条要求暂停账户的情况。 因此,此类账户暂停的数量为零 (0)。 Snap 对帐户采取适当的执法行动,正如 Snapchat 审核、执法和申诉说明中所解释的那样,有关 Snap 帐户执法级别的信息,请参阅我们的透明度报告(2023 年上半年)。