分享我们对民间社会团体关于选举诚信问题的回应

2024 年 4 月 22 日

本月早些时候,Snap 与其他大型科技企业收到 200 多家民间社会组织、研究人员和记者来信,敦促我们加大力度保障 2024 年选举诚信。 我们对此倡议深表赞赏,同样致力于确保全世界人民都能参与选举,并竭尽所能帮助保护我们的民主。

考虑到这些问题的重要性,以及我们对数亿通过 Snapchat 与亲朋好友交流并通过我们的内容了解世界的用户负有重大责任,我们认为公开发布回应非常重要。 您可以在下文中阅读我们的信函,并在 此处了解我们今年的选举计划详情。

***

2024 年 4 月 21 日

亲爱的民间社会组织:

在全球选举活动空前活跃的这一年,感谢你们一直以来的警惕和倡议。 我们非常感谢能有机会分享更多关于 Snap 如何在这种环境下履行自身责任,以及这些努力如何体现本公司的长期价值观。 

Snapchat 方法概述

我们对选举相关的平台诚信采取分层式的方法。 高层次的核心要素包括:

  • 专门的产品保障措施;

  • 清晰周密的政策; 

  • 谨慎处理政治广告;

  • 协作、协调的运营;以及

  • 提供可支持 Snapchat 用户的工具和资源。


总之,这些支柱是我们降低选举相关的各种风险的基础,同时也能确保 Snapchat 用户获得有助于参与全球民主进程的工具和信息。 

1. 专门的产品保障措施

从一开始,Snapchat 的设计就与传统社交媒体不同。 Snapchat 不会开放无穷无尽的未经审查内容源,也不允许人们进行此种直播。 

我们很早就认识到,有害数字虚假信息的最大威胁来自于某些数字平台的传播速度和规模。 我们的平台政策和架构限制了未经审查或未经审核的内容肆意扩大传播规模的可能性。 相反,内容在我们预先审核后才可以向大众传播,我们还广泛限制新闻和政治信息的传播,除非这些信息来源于可信的出版商和创作者(包括媒体机构,例如美国的华尔街日报华盛顿邮报、法国的世界报、印度的现在时报)。 

在过去一年中,Snapchat 上推出的生成式 AI 功能也达成了同样的意图。 我们限制人工智能产品生成可能被用于破坏公民进程或欺骗选民的内容或图像的能力。 例如,我们的聊天机器人 My AI 可以提供有关政治事件或社会问题背景的信息,但其程序设计为不会对政治候选人发表意见,也不会鼓励 Snapchat 用户投票支持某一特定结果。 在文本转图片功能中,我们对风险内容类别的生成采取了系统级限制,包括已知政治人物的肖像。 

十多年来,在多个选举周期中,我们的产品架构都发挥了核心作用,为试图扰乱公民进程或破坏信息环境的行为者创造了一个极不友好的环境。 有证据表明,我们的产品架构运行良好。我们的最新数据显示,从 2023 年 1 月 1 日到 6 月 30 日,全球范围内针对有害虚假信息(包括选举诚信风险)的执法总数占执法内容总数的 0.0038%,属于我们平台上危害可能性最低的类别。

2024 年,我们将继续在平台诚信工作中采用产品前瞻性方法,包括我们作为 2024年选举中打击 AI 欺骗使用的技术协议签署方所做的承诺。

2. 清晰周密的政策

作为产品保障措施的补充,我们实施了一系列政策,其作用是在选举等备受瞩目的活动中推进安全和诚信。 例如,我们的《社群指南》明确禁止散播有害的虚假信息、仇恨言论、威胁或暴力呼吁。 

关于与选举有关的有害内容,我们的外部政策非常健全,并参考了信息诚信领域的顶尖研究人员的意见。 这些政策规定了禁止的有害内容具体类别,包括:

  • 程序性干预:与实际选举或公民程序有关的错误信息,例如错误地歪曲重要日期和时间或参与资格要求;

  • 扰乱参与:包括威胁人身安全或传播谣言以阻止参与选举或公民进程的内容;

  • 欺诈或非法参与:鼓励人们谎称自己参与公民进程或非法投出选票或摧毁选票的内容;以及

  • 取消公民程序合法性:旨在以选举结果的虚假或误导性主张为由而取消民主机构合法性的内容。

返回新闻
1 值得注意的是,在 Snapchat 上分享 AI 生成或增强内容并不违反我们的政策,当然我们也不认为这本质上是有害的。 多年来,Snapchat 用户在使用有趣的特效镜头和其他 AR 体验处理图像的过程中找到了乐趣,我们对社区使用 AI 来富有创意地表达自己的方式感到兴奋。 然而,如果内容具有欺骗性(或其他危害),无论 AI 技术在其创建过程中发挥了多大作用,我们理所当然会将其删除。