Snapchat 上的 AI:改进的透明度、安全性和政策

2024 年 4 月 16 日

当 2015 年特效镜头问世时,增强现实 (AR) 技术犹如魔法呈现在我们眼前,一改我们的固有认知。 如今,平均每天有 3 亿 Snapchat 用户使用 AR,我们已经开始期待在日常相机体验中使用这种类型的技术。 

现在,人工智能的最新进展正在开辟无限和惊人的机会,再次彻底改变我们的认知。 

Snapchat 用户已经有很多新颖的方式使用 AI 来表达自己,无论他们是创作原创的生成式 AI 聊天壁纸,个人化设置与好友对话的外观,还是用人工智能驱动的特效镜头,以富有想象力的方式改变自己的形象,还是通过与 My AI 的对话来了解世界。 这项技术能够帮助我们的社区继续释放他们的创造力和想象力,我们对此感到非常兴奋。

AI 透明度

我们相信 Snapchat 用户应该了解他们正在使用的技术类型,无论他们是创造有趣的视觉效果,还是通过与 My AI 的文本对话来学习。

我们在应用中使用上下文图标、符号和标签,在 Snapchat 用户与人工智能技术驱动的功能交互时,为他们提供上下文透明度。例如,当 Snapchat 用户分享一张人工智能生成的梦境图像时,收件人会看到内容介绍,里面包含了更多的信息。 其他功能,例如利用 AI 使 Snap 看起来更显放大的扩展工具,划分为人工智能功能,而创建 Snap 的 Snap 用户会有一个闪光图标。 

我们还会采取严格的人工审查流程,审查所有政治广告,包括彻底检查误导性使用内容(包括人工智能)来创建虚假图像或内容。 

很快,我们将在 AI 生成的图像中添加水印。 当图像导出或保存到相机胶卷时,水印将出现在使用 Snap 生成人工智能工具创建的图像上。 在 Snapchat 上制作的人工智能生成图像的接收者可能会看到一个小鬼徽标,旁边还有广为人知的闪光图标。 添加这些水印将有助于告知观看者,图像是在 Snapchat 上使用 AI 制作。 

标准化安全测试和协议 

我们重视自身的责任,在产品和体验设计中,优先考虑隐私、安全和适龄性。与我们的所有产品一样,人工智能功能始终经过严格审查,以确保符合我们的安全和隐私原则,而且通过长期的学习,我们还开发了更多的保障措施:

红队

人工智能红队是一种越来越常见的策略,用于测试和识别人工智能模型和人工智能功能的潜在缺陷,并实施解决方案以提高人工智能输出的安全性和一致性。

我们一直是生成式图像模型新颖 AI 红队方法的早期采用者,与 HackerOne 合作,历时超过 2,500 小时,以测试我们严格保障措施的功效。 

安全过滤和一致标签

随着我们扩展 Snapchat 上提供的生成式人工智能体验,我们制定了负责任的治理原则,改进了我们的安全缓解措施。 

我们制定了一套安全审查流程,以检测并删除团队设计的 AI 特效镜头体验早期开发阶段可能存在问题的提示。 凡是根据提示生成图像的 AI 特效镜头,在完成定稿并向我们的社区提供之前,都要经过这一过程。 

包容测试

我们希望各行各业的 Snapchat 用户在使用我们应用程序的所有功能时,尤其是我们的人工智能体验,都能获得公平的访问和期望。 

我们以此为出发点,实施额外的测试,尽量减少可能存在偏见的人工智能结果。

持续致力于 AI 扫盲

我们相信,人工智能技术在提高社区表达自我和相互联系的能力方面有着巨大的潜力,我们致力于继续改进这些安全和透明度协议。 

虽然我们所有的人工智能工具(无论是文本还是视觉工具)都是旨在避免产生错误、有害或误导材料,但仍然不可避免错误。 Snapchat 用户能够举报内容,我们感谢这种反馈。 

最后,为了继续履行我们帮助社区更好了解这些工具的承诺,现在我们的支持网站上提供了额外信息和资源。

返回新闻