Snapchat에서의 AI: 향상된 투명성, 안전성 및 정책
2024년 4월 16일
Snapchat에서의 AI: 향상된 투명성, 안전성 및 정책
2024년 4월 16일
2015년 렌즈 출시 때, 증강 현실(AR) 기술은 눈앞에서 마술을 보여주었고, 우리가 가능하다고 생각한 것에 혁신을 일으켰습니다. 우리가 일상적인 카메라 경험에서 이러한 유형의 기술을 당연히 기대하게 된 것처럼, 오늘날 매일 평균 3억 명 이상의 Snapchat 사용자는 AR을 사용하고 있습니다.
이제 AI의 최근 발전은 무한하고 놀라운 가능성을 열어 우리가 가능하다고 생각한 것을 다시 한 번 앞지르고 있습니다.
이미 자신만의 생성형 AI 채팅 배경화면을 생성해서 친구와의 대화 모습을 개인화하거나, AI 기반 렌즈를 사용하여 상상력이 풍부한 방식으로 자신을 변형하거나, My AI와의 대화를 통해 세상에 대해 배우는 등의 영감을 주는 많은 방법으로 Snapchat 사용자는 AI를 사용하여 자신을 표현하고 있습니다. 저희는 커뮤니티가 창의성과 상상력을 계속해서 드러낼 수 있게 하는 이 기술이 지닌 잠재력에 크게 기대하고 있습니다.
AI 투명성
Snapchat 사용자는 My AI와 함께 재미있는 비주얼을 만들거나 텍스트 기반 대화를 통해 학습하는 데 사용하는 기술의 유형에 대한 정보를 제공받아야 한다고 생각합니다.
저희는 앱상의 상황별 아이콘, 기호 및 라벨을 사용하여 AI 기술을 기반으로 하는 기능과 상호 작용 시 Snapchat 사용자에게 상황별 투명성을 제공합니다. 예를 들어 Snapchat 사용자가 AI로 생성된 드림 이미지를 공유할 때 수신자는 자세한 정보가 담긴 컨텍스트 카드를 보게 됩니다. AI를 활용하여 Snap을 더욱 확대되어 보이게 하는 확장 도구 등의 기타 기능은 Snap을 만드는 Snapchat 사용자를 위한 AI 기능으로 분류되며 반짝이는 아이콘으로 표시됩니다.
또한 조심스럽게 인간의 엄격한 검토 과정을 거쳐 모든 정치 광고를 심사하고 있으며, 여기에는 AI를 사용하여 거짓된 이미지 또는 콘텐츠를 생성하는 등의 오해의 소지가 있는 콘텐츠의 사용에 대한 철저한 점검이 포함됩니다.
빠른 시일 내로, AI로 생성된 이미지에 워터마크를 추가할 예정입니다. 이미지를 사진 앨범에 내보내거나 저장하면 Snap의 생성형 AI 도구로 생성한 이미지에 워터마크가 나타납니다. Snapchat에서 만든 AI로 생성된 이미지의 수신자는 잘 알려진 반짝이는 아이콘이 옆에 있는 작은 유령 로고를 확인할 수 있습니다. 이러한 워터마크를 추가하면 이미지를 보는 사람들에게 Snapchat의 AI로 이미지를 만들었다는 사실을 알게 할 수 있습니다.
표준화된 안전성 테스트 및 프로토콜
저희는 개인정보 보호, 안전 및 연령 적합성을 우선순위로 제품 및 경험을 설계할 책임을 진지하게 받아들입니다. 다른 모든 제품과 마찬가지로 AI 기반 기능은 안전 및 개인정보 보호원칙을 준수하기 위해 항상 엄격한 검토를 거쳤으며, 오랜 시간 학습을 통해 다음과 같은 추가 보호 장치를 개발했습니다.
레드티밍
AI 레드티밍은 점점 더 흔히 사용되고 있는 전략으로 AI 모델 및 AI 지원 기능의 잠재적 결함을 테스트 및 식별하고 AI 결과물의 안전성과 일관성을 개선하기 위한 솔루션을 구현합니다.
저희는 생성형 이미지 모델을 위한 새로운 AI 레드티밍 방법을 먼저 도입하여 HackerOne과의 협력을 통해 2,500시간 이상의 작업에서 이 엄격한 보호 장치의 효과를 테스트했습니다.
안전 필터링 및 일관된 라벨링
Snapchat에서 사용할 수 있는 생성형 AI 지원 경험을 확장함에 따라 책임감 있는 거버넌스 원칙을 확립하고 안전성 완화 기능도 개선했습니다.
저희는 팀이 스타일링한 AI 렌즈 경험의 개발 초기 단계에서 잠재적으로 문제가 될 수 있는 프롬프트를 감지하고 제거하는 안전성 검토 프로세스를 만들었습니다. 프롬프트를 통해 이미지를 생성하는 모든 AI 렌즈는 이 과정을 거쳐 마무리되고 커뮤니티에 공개됩니다.
포괄적 테스트
모든 Snapchat 사용자가 앱 내의 모든 기능, 특히 AI 기반 경험을 사용할 때 공평한 접근성과 기대치를 갖기를 바랍니다.
이를 염두에 두고 저희는 편향될 가능성이 있는 AI 결과를 최소화하기 위해 추가적인 테스트를 구현하고 있습니다.
AI 리터러시에 대한 지속적인 약속
저희는 AI 기술이 자신을 표현하고 서로 연결하는 커뮤니티의 능력을 강화할 수 있는 엄청난 잠재력을 지녔다고 믿고 있으며, 이러한 안전성 및 투명성 프로토콜을 개선하기 위해 지속적으로 노력하고 있습니다.
텍스트 기반과 시각 모두에서 저희의 모든 AI 도구는 부정확하거나 유해하거나 오해의 소지가 있는 자료를 생성하지 않도록 설계되었지만, 여전히 실수가 발생할 수 있습니다. Snapchat 사용자는 콘텐츠를 신고할 수 있으며, 이러한 의견에 감사드립니다.
마지막으로, 커뮤니티가 이러한 도구를 더 잘 이해할 수 있도록 하는 지속적인 노력의 일환으로 이제 저희는 고객지원 사이트에서 추가 정보와 리소스를 제공합니다.