2024년 4월 25일
2024년 4월 25일
Snap은 자사의 안전 관리 활동과 플랫폼에서 신고된 콘텐츠의 유형 및 규모에 대한 이해를 높이기 위해, 연 2회 투명성 보고서를 발간하고 있습니다. 당사는 이러한 보고서를 보다 포괄적이고 유익한 형태로 발전시켜, 커뮤니티의 안전과 건강, 콘텐츠 관리 및 법 집행 절차에 관심을 갖는 여러 이해관계자들에게 유용한 정보를 지속적으로 제공하기 위해 노력하고 있습니다.
본 투명성 보고서는 2023년 하반기(7월 1일~12월 31일) 기간을 다루고 있습니다. 이전 보고서와 마찬가지로, 당사는 전 세계적으로 접수된 앱 내 콘텐츠 및 계정 관련 신고 건수와 특정 범주의 정책 위반 사항에 대해 공유하며, 또한 법 집행 기관 및 정부의 요청에 대한 대응 방식, 그리고 국가별 조치 현황에 대한 데이터를 공유합니다.
또한 투명성 보고서를 지속적으로 개선하기 위한 노력의 일환으로, 이번 보고서에서는 몇 가지 새로운 항목을 추가하였습니다.
첫째, 테러 및 폭력적 극단주의, 아동 성착취 및 학대(CSEA) 관련 콘텐츠 및 계정에 대한 신고와 조치를 포함하도록 주요 표의 범위를 확장하였습니다. 이전 보고서에서는 해당 위반과 관련한 계정 삭제 내역을 별도의 섹션에서 다루었었습니다. 다만, CSEA에 대한 사전 예방 및 사후 대응 활동과 NCMEC에 제출하는 보고서는 여전히 별도의 섹션에서 다룰 예정입니다.
둘째, 이의제기 관련 정보를 확장하여, 커뮤니티 가이드라인별 조치에 대한 총 이의제기 건수와 복원 건수를 공개하였습니다.
마지막으로, 유럽연합 섹션을 확장하여 Snap의 EU 내 활동에 대한 투명성을 한층 강화하였습니다. 특히, 최신 DSA 투명성 보고서와 CSEA 미디어 스캐닝 관련 추가 지표를 새로 공개하였습니다.
온라인 유해 행위 척결을 위한 당사 정책과, 보고 체계 개선 계획에 대한 자세한 내용은 본 투명성 보고서와 관련된 당사의 Safety & Impact 블로그를 참고하시기 바랍니다. 또한 Snapchat의 안전 및 개인정보 보호 관련 추가 자료는 페이지 하단의 투명성 보고서 소개 탭에서 확인할 수 있습니다.
본 투명성 보고서의 최신 버전은 en-US 버전에서 확인할 수 있습니다.
콘텐츠 및 계정 위반 개요
2023년 7월 1일부터 12월 31일까지, Snap은 전 세계적으로 신고되어 커뮤니티 가이드라인을 위반한 것으로 확인된 콘텐츠 5,376,714건에 대해 조치를 취했습니다.
보고 기간 동안 위반 조회율(VVR)은 0.01%로, 이는 Snapchat의 정책을 위반한 콘텐츠가 Snap 및 스토리 조회수 10,000건당 1건 수준임을 의미합니다. 신고 콘텐츠에 대한 조치에 소요되는 시간의 중앙값은 약 10분이었습니다.
콘텐츠 및 계정 위반 분석
전반적인 신고 및 조치 비율은 이전 6개월 대비 유사한 수준을 유지하였습니다. 이번 주기 동안 콘텐츠 및 계정 관련 전체 신고 건수가 약 10% 증가하였습니다.
이 기간 중 이스라엘과 하마스 간의 분쟁이 발생함에 따라, 정책 위반 콘텐츠 수가 일시적으로 증가했습니다. 증오 발언 관련 신고 건수는 약 61% 증가하였으며, 증오 발언 콘텐츠에 대한 조치 건수는 약 97%, 조치된 고유 계정수는 약 124% 증가하였습니다. 테러 및 폭력적 극단주의 관련 신고 및 조치 건수도 증가했으나, 해당 항목은 플랫폼 전체 콘텐츠 조치 건수의 0.1% 미만을 차지합니다. 전 세계적으로 분쟁이 발생함에 따라, 당사의 신뢰 및 안전팀은, Snapchat의 안전을 유지하기 위해 지속적으로 경계를 강화하고 있습니다. 또한 당사는 테러 및 폭력적 극단주의 정책 위반과 관련하여 총 신고 건수, 조치된 콘텐츠 수, 조치된 고유 계정 수를 국가별 및 글로벌 단위로 공개하도록 투명성 보고서의 범위를 확대하였습니다.
아동 성 착취 및 학대 방지
저희 커뮤니티의 모든 구성원, 특히 미성년자에 대한 성적 착취는 불법적이고 혐오스러운 행위이며 커뮤니티 가이드라인에 의해 금지됩니다. Snap은 플랫폼에서 아동 성적 착취 및 학대(CSEA)를 예방하고 탐지하며 근절하는 것을 최우선 과제로 삼고 있으며, 다른 범죄를 퇴치할 수 있는 역량도 지속적으로 강화하고 있습니다.
Snap은 불법 아동 성 착취 이미지와 동영상을 식별하기 위해 PhotoDNA의 강력한 해시 매칭 기술과 Google의 CSAI(Child Sexual Abuse Imagery) MATCH 등 능동 기술 기반 탐지 도구를 활용하고 있으며, 탐지된 자료는 법에 따라 미국 실종학대아동방지센터(NCMEC)에 신고합니다. 그런 다음 NCMEC는 필요한 경우 국내/국제법 집행기관과 협력합니다.
2023년 하반기 동안 당사는 신고된 전체 아동 성 착취 및 학대 위반 사례 중 59%를 사전에 능동적으로 감지하고 조치하였습니다. 이는 이전 기간 대비 총 39% 감소한 수치로, Snapchat 사용자들의 신고 기능 개선으로 인해 잠재적 CSEA 콘텐츠에 대한 가시성이 제고된 결과입니다.
*NCMEC에 제출하는 각각의 제출물에는 여러 콘텐츠가 포함될 수 있습니다. NCMEC에 제출된 모든 개별 미디어 수는 당사가 조치한 총 콘텐츠 수와 동일합니다. 또한 본 수치에는 NCMEC에 제출 후 철회된 신고 건수는 제외되어 있습니다.
자해 및 자살 콘텐츠
저희는 Snapchat 사용자의 정신 건강과 웰빙에 깊은 관심을 갖고 있으며, 이는 Snapchat을 새로운 방식으로 구축하겠다는 결정에 반영되었습니다. 앞으로도 계속 그렇게 할 것입니다. Snapchat은 실제 친구 간의 소통을 위해 설계된 플랫폼으로서, 어려운 상황에 처한 이용자들이 서로를 도울 수 있도록 지원하는 고유한 역할을 수행할 수 있다고 믿습니다.
당사의 신뢰 및 안전팀은 고통 받고 있는 Snapchat 사용자를 인지할 경우, 자해 예방 및 지원 관련 자료를 제공하고, 필요시 긴급 대응 요원에게 알릴 수 있습니다. Snap이 제공하는 자료는 글로벌 안전 자료 리스트에서 확인할 수 있으며, 모든 Snapchat 사용자에게 공개되어 있습니다.
이의 제기
이전 보고서에서는 이의 제기 관련 지표를 소개하였으며, 사용자가 본인 계정에 대한 초기 콘텐츠 심사 결정에 대해 재검토를 요청한 횟수를 강조했습니다. 이번 보고서에서는 계정 수준의 위반 사항에 대해 정책 범주의 전체 영역을 포괄하도록 이의 제기 범위를 확대했습니다.
* 아동 성 착취와 관련된 콘텐츠나 활동의 확산을 방지하는 것이 최우선 과제입니다. Snap은 이 목표 달성을 위해 상당한 자원을 투자하고 있으며 아동 성 착취 행위를 절대 용납하지 않습니다. CSE(아동 성 착취) 이의 제기를 검토하려면 특별 교육이 필요하며, 콘텐츠의 노골적인 특성으로 인해 이러한 검토를 처리하는 전담 인력의 수가 제한되어 있습니다. Snap은 2023년 가을에 일부 CSE 시행의 일관성에 영향을 미치는 정책 변경을 시행했으며, 전담 인력 재교육과 엄격한 품질 보증을 통해 이러한 불일치를 해결했습니다. Snap의 다음 투명성 보고서에서는 CSE 이의 제기에 대한 응답 시간을 개선하고 초기 집행의 정확성을 향상시키는 과정이 드러날 것으로 기대합니다.
광고 조정
Snap은 모든 광고가 당사의 광고 정책을 완벽하게 준수하도록 최선을 다하고 있습니다. 저희는 모든 사용자에게 안전하고 즐거운 경험을 제공하기 위해 책임감 있고 신중한 방식으로 광고를 운영하고 있습니다. 아래에는 Snapchat 유료 광고에 대한 당사의 검토 기준에 대한 설명이 포함되어 있습니다. Snapchat의 광고 정책에 명시된 대로 사기성 콘텐츠, 성인용 콘텐츠, 폭력적이거나 불쾌한 콘텐츠, 혐오 발언, 지적 재산권 침해와 같은 다양한 이유로 Snapchat에서 광고가 삭제될 수 있습니다. 또한 이제 이 투명성 보고서의 탐색 표시줄에서 Snapchat의 광고 갤러리를 찾을 수 있습니다.
지역 및 국가 개요
이 부문에서는 샘플 지역에서 Snpa의 커뮤니티 가이드라인 시행에 대해 간략히 살펴봅니다. 당사의 가이드라인은 장소에 관계없이 전 세계 Snapchat의 모든 콘텐츠 및 사용자에게 적용됩니다.
모든 EU 회원국을 포함한 개별 국가의 정보는 첨부된 CSV 파일에서 다운로드할 수 있습니다.

























