Snap Values
아동 성 착취 및 학대(CSEA) 미디어 스캔 보고서

공개일: 2026년 1월 30일

최종 업데이트: 2026년 1월 30일 


본 보고서는 2025년 1월 1일부터 2025년 12월 31일까지의 기간을 대상으로 합니다.


배경

커뮤니티의 모든 구성원, 특히 미성년자에 대한 성적 착취는 불법적이고 혐오스러운 행위이며 커뮤니티 가이드라인에 의해 금지됩니다. Snap은 플랫폼에서 아동 성적 착취 및 학대(CSEA)를 예방하고 탐지하며 근절하는 것을 최우선 과제로 삼고 있으며, 다른 범죄를 퇴치할 수 있는 역량도 지속적으로 강화하고 있습니다.


저희가 사용하는 기술에는 (a) PhotoDNA의 강력한 해시 매칭과 Google의 아동 성 착취 이미지(CSAI) 매칭이 각각 알려진 불법 CSEA 이미지와 동영상을 식별하고, (b) Google의 콘텐츠 안전 API를 통해 '이전에 해시된 적이 없는' 새로운 CSEA 이미지를 식별합니다. 저희는 법률에 따라 미국 국립 아동 실종 및 학대 방지 센터(NCMEC)에 CSEA 이미지를 보고합니다. NCMEC는 필요에 따라 미국 및 기타 국가의 법 집행 기관과 협력합니다.


보고서

아래 차트에는 2025년 한 해 동안 EU 사용자를 대상으로 한 CSEA 이미지의 사전 탐지 및 그에 대한 집행 조치 데이터가 포함되어 있습니다. (참고: 2025년 사전 예방적 검사를 통해 도출된 집행 결과 중 일부는 본 보고서 작성 시점 기준으로 여전히 항소 가능성이 있어, 하기 항소 및 복원 데이터에 반영되지 않습니다.)


EU 데이터 

합계

사전 예방 스캐닝을 통해 CSEA 이미지 가능성이 있는 것으로 확인된 총 콘텐츠 수 

189,057

Snap의 CSEA 관련 정책 위반으로 인한 전체 집행 조치 건수

61,774

총 이의신청 수

12,246

검토된 총 이의신청 건수

12,246

이의신청 후 번복된 총 조치 수

1,012

이의 제기 후 번복된 집행 조치 비율(번복된 총 집행 조치 건수 / 검토된 총 이의신청 건수)

8.26%

감지된 CSEA 보존 기간

730일

1. 이 카테고리는 아동 성 착취를 금지하는 Snap의 커뮤니티 가이드라인 위반에 대한 제재 조치를 보고합니다. Snap 커뮤니티 가이드라인의 다른 위반 사항으로 인해 사전에 탐지된 콘텐츠는 여기에 보고되지 않습니다.

2.   시행 당시 유효했던 당사의 정책에 따라 해당 정책이 잘못되었다고 판단되거나, 원래는 올바르게 시행되었지만 이의 제기 검토 시점에 해당 정책이 변경된 경우 시행을 번복할 수 있습니다.

콘텐츠 조정 보호 조치

CSEA 미디어 스캐닝에 적용되는 보호 조치는 위의 EU DSA 투명성 보고서에 명시되어 있습니다.