2024년 10월 25일
2024년 11월 29일
디지털 서비스법(DSA), 시청각 미디어 서비스 지침(AVMSD), 네덜란드 미디어법(DMA) 및 테러 콘텐츠 온라인 규정(TCO)에서 요구하는 EU 특정 정보가 게시되는 유럽 연합(EU) 투명성 페이지에 오신 것을 환영합니다. 이러한 투명성 보고서의 최신 버전은 en-US 지역 설정에서 찾을 수 있습니다.
Snap Group Limited는 DSA의 목적을 위해 Snap B.V.를 법적 대리인으로 임명했습니다. 고객지원 사이트[여기]를 통해 DSA와 관련해서는 dsa-enquiries [at] snapchat.com, AVMSD 및 DMA와 관련해서는 vsp-enquiries [at] snapchat.com, TCO와 관련해서는 tco-enquiries [at] snapchat.com에서, 또는 다음 주소로 담당자에게 연락할 수 있습니다.
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
법 집행 기관인 경우 여기에 설명된 단계를 따르십시오.
저희에게 연락할 때 영어 또는 네덜란드어로 연락하십시오.
DSA의 경우, 저희는 유럽 위원회와 네덜란드 소비자 시장당국(ACM)의 규제를 받습니다. AVMSD 및 DMA의 경우에는 네덜란드 미디어위원회(CvdM)의 규제를 받습니다. TCO의 경우, 저희는 온라인 테러 콘텐츠 및 아동 성적 학대 자료(ATKM) 예방 관련 네덜란드 당국의 규제를 받습니다.
마지막 업데이트 날짜: 2024년 10월 25일
당사는 유럽 연합(EU)의 디지털 서비스법(규정 (EU) 2022/2065) (이하 'DSA')의 제15조, 24조 및 42조에 명시된 투명성 보고 요구 사항에 따라 Snapchat에 대한 당사의 콘텐츠 조정 노력과 관련하여 이 보고서를 게시합니다. 별도로 명시되지 않는 한, 이 보고서에 포함된 정보는 2024년 1월 1일부터 2024년 6월 30일까지의 보고 기간(2024년 상반기)에 대한 것이며, DSA가 규제하는 Snapchat의 기능에 대한 콘텐츠 조정에 대해 다룹니다.
당사는 신고 개선을 위해 지속적으로 노력합니다. 이 보고 기간(2024년 상반기)에 대해, 당사는 새롭고 차별화된 표를 사용하여 보고서 구조를 변경함으로써 콘텐츠 조정 노력에 대한 통찰력을 개선했습니다.
2024년 8월 1일 기준, EU에서 Snapchat 앱의 월간 평균 활성 수신자 수('AMAR')는 9,240만 명입니다. 이는 2024년 9월 30일까지 6개월 이상 동안 평균적으로 9,249만 명의 등록된 사용자가 모든 달에 한 번 이상 Snapchat 앱을 열었음을 의미합니다.
이 수치는 다음과 같이 회원국별로 분류됩니다.
이러한 수치는 현재 DSA 요구 사항을 충족하도록 계산되었으며, DSA 목적으로만 사용해야 합니다. 당사는 변화하는 내부 정책, 규제 기관 지침 및 기술에 대한 대응을 포함하여 시간이 지남에 따라 이 수치를 계산하는 방법을 변경했으며, 수치는 기간 간에 비교하도록 의도되지 않았습니다. 이는 다른 목적으로 게시하는 다른 활성 사용자 수치에 사용된 계산과 다를 수 있습니다.
이 보고 기간(2024년 상반기) 동안 당사는 DSA 제9조에 따라 발행된 것을 포함하여, EU 회원국 당국으로부터 특별히 식별된 불법 콘텐츠에 대한 조치를 취하라는 명령을 전혀 받지 않았습니다.
이 수치가 0이므로, 당사는 관련 불법 콘텐츠에 대한 유형당 분석 또는 명령을 발행하는 회원국 또는 수신을 확인하거나 명령에 영향을 미치는 중간 시간을 제공할 수 없습니다.
이 보고 기간(2024년 상반기) 동안 당사는 DSA 제10조에 따라 발행된 사용자 데이터를 포함하여 EU 회원국 당국으로부터 공개하라는 명령을 다음과 같이 수신했습니다.
이러한 명령 수신을 관련 당국에 통보하여 정보를 제공하는 데 소요되는 평균 시간은 0분이었습니다. 당사는 수신을 확인하는 자동 응답을 제공합니다.
이러한 명령을 시행하여 정보를 제공하는 데 걸리는 평균 시간은 약 7일이었습니다. 이러한 지표는 Snap이 명령을 수신한 날부터 Snap이 문제가 완전히 해결되었다고 간주하는 날까지의 기간을 반영하며, 개별 사례에서는 해당 회원국 당국이 Snap의 명령 처리에 필요한 설명 요청에 얼마나 빨리 응답하는지에 따라 부분적으로 달라질 수 있습니다.
참고로, 당사는 해당 정보가 일반적으로 제공되지 않기 때문에 관련 불법 콘텐츠 유형별로 범주화된 정보를 제공하기 위해 위의 명령 내역을 제공하지 않습니다.
Snapchat의 모든 콘텐츠는 커뮤니티 가이드라인과 서비스 약관을 준수해야 합니다. 특정 콘텐츠는 추가 가이드라인 및 정책을 준수해야 합니다. 예를 들어, 공공 방송 수면에서 더 넓은 층의 방문자에게 알고리즘 추천을 받기 위해 제출된 콘텐츠는 추천 자격에 대한 콘텐츠 가이드라인에서 제공하는 추가적인 높은 기준을 충족해야 하며, 광고는 광고 정책을 준수해야 합니다.
당사는 기술 및 인간의 검토를 사용하여 이러한 정책을 시행합니다. 또한, 당사는 Snapchat 사용자가 불법 콘텐츠 및 활동을 포함한 위반 사항을 신고할 수 있는 메커니즘을 앱에서 직접 또는 당사 웹사이트를 통해 제공합니다. 사전 예방 탐지 메커니즘 및 보고를 통해 검토를 촉구할 수 있으며, 이후 자동화된 도구와 인간 조정자의 조합을 활용하여 당사 정책에 따라 적절한 조치를 취할 수 있습니다.
당사는 아래 2024년 상반기 내 공공 수면에서의 콘텐츠 조정에 대한 추가 정보를 제공합니다,
DSA 제16조에 따라 Snap은 사용자와 비사용자가 Snapchat에 불법 콘텐츠로 간주되는 특정 정보 항목을 Snap에 통보할 수 있는 메커니즘을 마련했습니다. 이러한 조치들은 Snapchat 앱 또는 당사 웹사이트에서 직접 특정 콘텐츠 또는 계정을 신고함으로써 수행할 수 있습니다.
보고 기간(2024년 상반기) 동안, 당사는 EU의 DSA 제16조에 따라 제출된 다음 통지를 수신했습니다.
당사는 이러한 통지가 처리된 방법(예: 인간의 검토를 포함한 프로세스를 통해 또는 자동화된 수단을 통한 프로세스)을 반영하는 분석 내역을 아래에 제공합니다.
인앱 또는 웹사이트를 통해 통지를 제출할 때, 보고자는 옵션 메뉴에서 커뮤니티 가이드라인(예: 증오 발언, 마약 사용 또는 판매)에 명시된 위반에 행위를 반영한 특정 보고 사유를 선택할 수 있습니다. 당사의 커뮤니티 가이드라인에서는 EU에서 불법인 콘텐츠 및 활동을 금지합니다. 따라서, 보고 사유는 EU 내 불법 콘텐츠의 범주를 주로 반영합니다. 그러나 EU의 보고자가 보고 메뉴에서 구체적으로 언급되지 않은 이유로 인해 보고하려는 콘텐츠 또는 계정이 불법이라고 생각하는 경우, '기타 불법 콘텐츠'로 보고할 수 있으며, 보고하는 내용이 불법이라고 생각하는 이유를 설명할 수 있는 기회가 주어집니다.
검토 후 보고된 콘텐츠 또는 계정이 커뮤니티 가이드라인(불법 사유 포함)을 위반했다고 판단되는 경우, 당사는 (i) 위반 콘텐츠를 제거하고, (ii) 관련 계정 소유자에게 경고하고 계정에 대한 스트라이크를 적용합니다. 또한/또는 (iii) Snapchat 조정, 집행 및 이의 제기 설명에 자세히 설명된 대로 관련 계정을 잠글 수 있습니다.
당사는 2024년 상반기에 EU의 DSA 제16조에 따라 제출된 통지를 수신하여 다음과 같은 집행 조치를 취했습니다.
2024년 상반기에 당사가 조치를 취한 '기타 불법 콘텐츠'에 대한 모든 보고서는 커뮤니티 가이드라인에 따라 궁극적으로 시행되었습니다. 이는 커뮤니티 가이드라인에서 관련 콘텐츠 또는 활동을 금지했기 때문입니다. 따라서 당사는 위 표에서 커뮤니티 가이드라인 위반에 대한 관련 범주에 따라 이러한 집행을 분류했습니다.
위의 집행 외에도 당사는 다른 적용 가능한 Snap 정책 및 가이드라인에 따라 당사에 통보된 콘텐츠에 대해 조치를 취할 수 있습니다.
공공 방송 수면에서의 콘텐츠와 관련하여, 보고된 콘텐츠가 추천 자격에 대한 콘텐츠 가이드라인의 높은 기준을 충족하지 않는다고 판단되는 경우, 당사는 알고리즘 추천에 대한 콘텐츠를 거부할 수 있으며(콘텐츠가 추천 자격에 대한 기준을 충족하지 못하는 경우), 민감한 대중을 제외하도록 콘텐츠 배포를 제한할 수 있습니다(콘텐츠가 추천 자격에 대한 기준을 충족하지만 민감하거나 암시하는 경우).
당사는 2024년 상반기에 EU에서 당사에 보고된 Snapchat의 공공 방송 수면에서의 콘텐츠와 관련하여 추천 자격에 대한 콘텐츠 가이드라인에 따라 다음과 같은 조치를 취했습니다.
보고된 광고가 당사의 광고 정책을 위반한다고 판단되는 경우, 당사는 검토 후 이를 제거할 수 있습니다.
당사는 2024년 상반기에 EU에서 당사에 보고한 광고와 관련하여 다음과 같은 조치를 취했습니다.
DSA 제16조에 따라 제출된 통지를 검토하는 것 외에도, Snap은 자체 이니셔티브에 따라 Snapchat의 공공 표면에 있는 콘텐츠(예: 스포트라이트, 둘러보기)를 조정합니다. 당사는 자동화된 도구의 사용, 콘텐츠 조정 담당자에게 교육 및 관리를 제공하기 위해 취해진 조치, 이러한 사전 예방 콘텐츠 조정 노력의 결과에 따른 제한의 수 및 유형을 포함하여, Snap의 자체 이니셔티브에 관여된 콘텐츠 조정에 대한 정보를 아래에 제공합니다.
Snap의 자체 이니셔티브 조정에서 자동화된 도구 사용
당사는 자동화된 도구를 배포하여 공개 콘텐츠 페이지에서 당사의 약관 및 정책 위반을 사전에 감지하고 경우에 따라 시행합니다. 여기에는 해시 매칭 도구(PhotoDNA 및 Google CSAI Match 포함), 악용 언어 감지 모델(식별되고 정기적으로 업데이트되는 악용 키워드 및 이모티콘 목록을 기반으로 콘텐츠를 감지하고 거부), 인공 지능/기계 학습 기술이 포함됩니다. 자동화된 도구는 커뮤니티 가이드라인(기타 조치로 불법 콘텐츠를 금지하는 것)의 위반을 감지하고, 해당하는 경우 추천 자격에 대한 콘텐츠 가이드라인 및 광고 정책 위반을 감지하도록 설계되었습니다.
2024년 상반기에 당사의 모든 사전 예방적 탐지는 자동화된 도구를 사용하여 수행되었습니다. 자동화된 도구가 정책에 대한 잠재적 위반을 감지하면 당사 정책에 따라 자동으로 조치를 취하거나 인간의 검토 작업을 생성합니다. 이 프로세스의 결과에 따른 제한의 수 및 유형은 아래에 설명되어 있습니다.
Snap의 자체 이니셔티브에 따른 제한의 수 및 유형
Snap은 2024년 상반기에 자동화된 도구의 사용을 통해 커뮤니티 가이드라인 위반(불법 콘텐츠 및 EU 및 회원국 법률에 따른 활동에 대한 위반 포함)을 사전 탐지한 후 집행 조치를 취했습니다.
또한, 공공 방송 수면에서의 콘텐츠와 관련하여, 당사는 2024년 상반기에 자동화 도구를 사용하여 Snapchat에서 추천 자격에 대한 콘텐츠 가이드라인 위반을 사전 탐지한 후 다음과 같은 조치를 취했습니다.
* 추천 자격에 대한 콘텐츠 가이드라인에 명시된 바와 같이, 추천 자격에 대한 콘텐츠 가이드라인을 반복적으로 또는 심하게 위반하는 계정은 공공 방송 수면에 대한 추천으로부터 일시적으로 또는 영구적으로 박탈될 수 있습니다. 당사는 사전 예방 조정 노력의 맥락에서 이 조치를 적용합니다.
또한, 당사는 2024년 상반기에 Snapchat에서 자동화된 도구를 사용하여 광고 정책 위반을 사전 탐지한 후 다음과 같은 조치를 취했습니다.
콘텐츠 조정 담당자에게 교육 및 지원을 제공하기 위해 취한 조치
당사의 콘텐츠 조정 팀은 Snapchat 커뮤니티를 보호하는 데 도움이 되도록 콘텐츠 조정 정책을 적용합니다. 이러한 교육은 여러 주에 걸쳐 진행되며, 새 팀 구성원은 Snap의 정책, 도구 및 에스컬레이션 절차에 대해 교육을 받습니다. 당사의 조정 팀은 특히 정책 경계 및 맥락에 따른 사례를 접할 때 워크플로와 관련된 재교육 교육에 정기적으로 참여합니다. 또한 당사는 업스킬링 프로그램, 인증 세션 및 퀴즈를 통해, 모든 조정자의 지식이 최신 상태이고 이들이 업데이트된 정책을 준수하는지 확인합니다. 마지막으로, 현재 이벤트를 기반으로 긴급 콘텐츠 트렌드가 나타나면 당사는 정책 설명을 신속하게 보급하여 Snap의 정책에 따라 대응할 수 있도록 합니다.
당사는 콘텐츠 조정 팀에 실무 복지 지원 및 정신 건강 서비스에 대한 쉬운 액세스를 포함하여, 상당한 지원과 리소스를 제공합니다.
커뮤니티 가이드라인 위반(불법 콘텐츠 및 활동 포함)에 대해 당사의 안전 팀이 계정을 잠근 사용자는 잠겨진 계정에 대한 이의 제기를 제출할 수 있습니다. 사용자는 또한 특정 콘텐츠 조정 결정에 대해 항소할 수 있습니다.
보고 기간(2024년 상반기) 동안 Snap은 EU의 내부 불만 처리 시스템을 통해 제출된, 다음 항소를 처리했습니다(계정 잠금 및 콘텐츠 수준 조정 결정에 대한 항소 포함).
정성적 설명 및 목적
섹션 3(b)에서 설명한 바와 같이, 당사는 자동화된 도구를 배포하여 공개 콘텐츠 페이지에서 당사의 약관 및 정책 위반을 탐지하고 일부의 경우 시행합니다. 여기에는 해시 매칭 도구(PhotoDNA 및 Google CSAI Match 포함), 악용 언어 감지 모델(식별되고 정기적으로 업데이트되는 악용 키워드 및 이모티콘 목록을 기반으로 콘텐츠를 감지하고 거부), 인공 지능/기계 학습 기술이 포함됩니다. 자동화된 도구는 커뮤니티 가이드라인(기타 조치로 불법 콘텐츠를 금지하는 것)의 위반을 감지하고, 해당하는 경우 추천 자격에 대한 콘텐츠 가이드라인 및 광고 정책 위반을 감지하도록 설계되었습니다.
자동화된 도구가 정책에 대한 잠재적 위반을 감지하면 당사 정책에 따라 자동으로 조치를 취하거나 인간의 검토 작업을 생성합니다.
회원국별로 분류된 정확도 및 오류 발생 비율의 지표
당사는 공공 수면에서 자동화된 도구에 의해 처리된 작업에 대한 무작위 샘플을 선택하고 인간 조정 팀이 재검토하기 위해 제출함으로써 자동화된 조정 도구의 정확성을 모니터링합니다. 정확도는 무작위 표본에서 나온 작업 중 인간 검토자가 재검토했을 때 유지한 작업의 비율입니다. 오류 비율은 위에서 설명한 대로 계산된 100%와 정확도 간의 차이입니다.
샘플링을 기반으로 2024년 상반기에 모든 위반 범주에 걸쳐 사용되는 자동화 수단의 정확성과 가능한 오류 발생 비율의 지표는 약 93%, 오류 비율은 약 7%였습니다.
당사는 일반적으로 Snapchat에서 당사가 조정하는 콘텐츠의 언어를 추적하지 않습니다. 따라서, 회원국의 각 공식 언어에 대한 자동 조정 도구에 대한 정확성 및 오류 비율의 내역을 제공할 수 없습니다. 이러한 정보의 대행으로 당사는 각 회원국에서 발생하는 자동 조정 콘텐츠에 대한 정확성 및 오류 비율의 내역을 아래에 제공합니다.
보호 조치
당사는 기본 권리에 대한 자동 조정 도구로 인한 잠재적 영향의 가능성을 염두에 두며, 그러한 영향을 최소화하기 위한 보호 조치를 배포합니다.
당사의 자동화된 콘텐츠 조정 도구는 Snapchat에 배포되기 전에 테스트됩니다. 모델들은 성능에 대해 오프라인으로 테스트되고 A/B 테스트를 통해 배포되어, 생산 단계로 완전히 진입하기 전에 적절한 기능을 발휘하는지 확인합니다. 당사는 부분적(단계적) 롤아웃 중에 출시 전 품질 보장(QA) 검토, 출시 검토, 지속적 정밀 품질 보장(QA 점검을 수행합니다.
자동화된 도구 출시 이후 당사는 해당 성능과 정확성을 지속적으로 평가하고, 필요에 따라 조정합니다. 이 프로세스에는 인간 조정자가 수행한 자동화 작업 샘플의 재검토가 포함되어 정확성을 높이기 위해 조정이 필요한 모델을 식별합니다. 또한, 당사는 공개 스토리를 무작위로 일일 샘플링하여 Snapchat에 대한 특정 피해의 유행을 모니터링하며, 이 정보를 활용하여 추가 개선 영역을 식별합니다.
당사의 정책과 시스템은 자동화 도구를 사용하는 것을 포함하여 일관되고 공정한 집행을 장려하며, Snapchat 사용자에게 통지 및 항소 절차를 통해 집행 결과에 대해 의미 있게 이의를 제기할 수 있는 기회를 제공합니다. 이는 커뮤니티의 이익을 보호하는 동시에 개별 Snapchat 사용자의 권리를 보호하는 것을 목표로 합니다.
당사는 자동화된 콘텐츠 조정 도구를 지속적으로 개선하여 정확성을 개선하고 정책의 일관되고 공정한 집행을 지원하기 위해 노력합니다.
신고 기간(2024년 상반기)의 경우, DSA 제21조에 따라 공식적으로 인증된 법원 외 분쟁 해결 기관에 제출된 분쟁 건수는 0건이었습니다. 또한, 당사는 Snap이 법원 밖 분쟁 해결 기관의 결정을 구현한 경우 결과, 중간 완료 시간 또는 분쟁의 비중을 반영하는 세부 정보를 제공할 수 없습니다.
2024년 하반기, 당사는 DSA 제21조에 따라 재판 외 분쟁 해결 기관으로서 인증을 요구하는 기관에 제출된 분쟁 신고 2건을 접수했습니다. 이러한 분쟁 통지를 전송한 기관이 당사의 요청 시 인증 상태를 확인할 수 없었기 때문에 위 횟수에 이러한 분쟁을 포함하지 않았습니다.
제23.1조에 따른 정지: 명백한 불법 콘텐츠를 자주 제공하는 계정의 정지
Snapchat 조정, 집행 및 이의 제기 설명에 설명된 바와 같이, 당사가 판단하는 계정은 커뮤니티 가이드라인을 위반하는 데 주로 사용되며(명백한 불법 콘텐츠 제공 포함), 심각한 피해를 미친 계정은 즉시 비활성화됩니다. 다른 커뮤니티 가이드라인 위반에 대해 Snap은 세 단계로 구성된 집행 절차를 일반적으로 적용합니다.
1단계: 위반 콘텐츠가 제거됩니다.
2단계: Snapchat 사용자가 커뮤니티 가이드라인을 위반했으며, 콘텐츠가 삭제되었으며, 반복적으로 위반하면 계정 비활성화를 포함한 추가 집행 조치가 발생한다는 알림을 받습니다.
3단계: 저희 팀은 Snapchat 사용자의 계정에 대한 스트라이크를 기록합니다.
Snapchat의 공공 수면에 대한 콘텐츠 또는 활동과 관련하여 EU 내 계정에 대한 2024년 하반기에 부과된 스트라이크(즉, 경고) 수와 잠금 수에 관한 정보는 위의 섹션 3(a)와 3(b)에서 확인할 수 있습니다.
제23.2조에 따른 정지 : 명백한 근거가 없는 신고 또는 불만 사항을 자주 제출하는 개인, 단체 및 불만 제기자의 통지 및 불만 처리의 정지
'명백한 근거 없음' 통지 및 불만에 대한 당사의 내부 정의, 그리고 그러한 통지 및 불만에 대한 빈번한 제출으로 간주되는 것에 대한 당사의 내부 임계값을 적용하면, DSA 제23.2조에 따라 2024년 하반기에 부과된 통지 및 불만 처리의 정지 수는 다음과 같습니다.
당사의 콘텐츠 조정 팀은 전 세계에서 운영되므로 연중무휴 24시간 Snapchat 사용자의 안전을 유지할 수 있습니다. 아래에서 2024년 6월 30일 기준 조정자의 언어 전문 분야(일부 조정자는 여러 언어 전공)별로 인적 조정 리소스 내역을 확인할 수 있습니다.
위 표에는 2024년 6월 30일 현재 EU 회원국의 공식 언어를 지원하는 콘텐츠 조정에 전념하는 모든 인적 자원이 포함됩니다. 추가 언어 지원이 필요한 상황에서는 번역 서비스를 사용합니다.
조정자는 언어 요구 사항(필요성에 따라 다름)을 포함하는 표준 직무 설명을 사용하여 모집됩니다. 언어 요구 사항의 경우, 후보자는 해당 언어에 대한 문어 및 구어 유창성을 입증할 수 있어야 하며, 초급 직책에 대해 최소 1년 이상의 업무 경험이 있어야 합니다. 후보자는 고려되기 위해 교육 및 배경 요구 사항을 충족해야 합니다. 또한 후보자는 지원할 콘텐츠 조정 국가 또는 지역의 현재 이벤트에 대한 이해를 입증해야 합니다.
Snap이 콘텐츠 조정자에게 제공하는 교육 및 지원에 대한 정보는 위를 참조하십시오. 이는 DSA 제15조(1)(c)에 따라 별도로 요구되므로 제3(b)에 포함되어 있으며, 최종 하위 섹션에는 '콘텐츠 조정 담당자에게 교육 및 지원을 제공하기 위해 취한 조치'라는 제목으로 되어 있습니다.
배경
저희 커뮤니티의 모든 구성원, 특히 미성년자에 대한 성적 착취는 불법적이고 혐오스러운 행위이며 커뮤니티 가이드라인에 의해 금지됩니다. 저희 플랫폼에서 아동 성적 착취 및 학대(CSEA)를 예방, 탐지, 근절하는 것이 Snap의 최우선 과제이며, 당사는 이외에도 다른 범죄를 퇴치하는 역량을 지속적으로 발전시키고 있습니다.
당사는 PhotoDNA의 강력한 해시 매칭과 Google의 아동 성적 학대 이미지(CSAI) 매치를 사용하여 아동 성적 학대에 대해 알려진 불법 이미지와 동영상을 각각 식별하고, 법률에서 요구하는 대로 미국 국립 실종 및 착취 아동 센터(NCMEC)에 신고합니다. 그런 다음 NCMEC는 필요한 경우 국내/국제법 집행기관과 협력합니다.
보고서
아래 데이터는 Snapchat에 사용자의 카메라 롤에 의해 업로드된 미디어의 PhotoDNA 및/또는 CSAI Match를 사용한 사전 스캔의 결과를 기반으로 합니다.
아동 성 착취를 막는 것은 최우선 사항입니다. Snap은 이를 위해 상당한 자원을 투자하고 있으며 아동 성 착취 행위를 절대 용납하지 않습니다. CSE 이의 제기를 검토하려면 특별 교육이 필요하며, 콘텐츠의 노골적인 특성으로 인해 이러한 검토를 처리하는 상담원의 수가 제한되어 있습니다. Snap은 2023년 가을에 특정 CSE 시행의 일관성에 영향을 미치는 정책 변경을 시행했으며, 상담원 재교육과 엄격한 품질 보증을 통해 이러한 불일치를 해결했습니다. 다음 투명성 보고서에서는 CSE 이의 제기에 대한 응답 시간을 개선하고 초기 집행의 정확성을 향상시키는 과정이 드러날 것으로 기대합니다.
콘텐츠 조정 보호 조치
CSEA 미디어 스캔에 적용된 보호 조치는 DSA 보고서에 따른 위의 '콘텐츠 조정 보호 조치' 섹션에 명시되어 있습니다.
게시 날짜: 2024년 6월 17일
최종 업데이트 날짜: 2024년 6월 17일
본 투명성 보고서는 유럽 의회 및 EU 이사회 규정 2021/784의 제7조(2) 및 제7조(3)에 따라 게시되며, 온라인상에서의 테러 콘텐츠 배포(이하 '규정')에 대해 다룹니다. 보고 기간은 2023년 1월 1일부터 12월 31일까지입니다.
제7조(3)(a): 테러 콘텐츠를 식별하고 제거하거나 접근을 차단하는 것과 관련된 호스팅 서비스 제공자의 조치에 대한 정보
제7조(3)(b): 테러 콘텐츠로 간주되어 이전에 제거되었거나 접근이 차단된 자료가 온라인에서 다시 나타나는 것을 방지하기 위한 호스팅 서비스 제공자의 조치에 대한 정보, 특히 자동화 도구가 사용된 경우
테러리스트, 테러 조직 및 폭력적 극단주의자의 Snapchat 사용을 금지합니다. 테러 또는 기타 폭력적 범죄 행위를 옹호, 조장, 미화하거나 부추기는 콘텐츠는 커뮤니티 가이드라인에 따라 금지됩니다. 사용자는 인앱 신고 메뉴 및 지원 사이트를 통해 커뮤니티 가이드라인을 위반하는 콘텐츠를 신고할 수 있습니다. 또한 스포트라이트 및 둘러보기와 같은 공개 영역에서의 위반 콘텐츠를 식별하기 위해 사전 감지 기술을 사용합니다.
위반 콘텐츠를 인식하는 방법과 관계없이, 신뢰 및 안전 팀은 자동화 및 사람의 검토를 결합하여 식별된 콘텐츠를 신속하게 검토하고 집행 결정을 내립니다. 집행 조치에는 콘텐츠 제거, 위반 계정 경고 또는 잠금이 포함될 수 있으며, 타당한 경우 해당 계정을 법 집행 기관에 신고하는 것이 포함될 수 있습니다. 법 집행 기관과 협력하는 것 외에, 테러 또는 기타 폭력적 극단주의 콘텐츠가 Snapchat에서 다시 나타나는 것을 방지하기 위해, 위반 계정과 연동된 디바이스를 차단하고 사용자가 다른 Snapchat 계정을 생성하지 못하도록 조치를 취합니다.
테러 콘텐츠를 식별하고 제거하기 위한 조치에 대한 추가 세부 정보는 증오 콘텐츠, 테러 및 폭력적 극단주의에 대한 설명 자료, 그리고 조정, 집행 및 이의 제기에 대한 설명 자료에서 찾을 수 있습니다.
제7조(3)(c): 제거 명령 또는 특정 조치에 따라 삭제되거나 접근이 비활성화된 테러 콘텐츠의 항목 수, 그리고 제3조(7)의 첫 번째 하위 항목 및 제3조(8)의 첫 번째 하위 항목에 따라 콘텐츠가 제거되지 않았거나 접근이 차단되지 않은 경우의 제거 명령의 수와 그 근거
보고 기간 동안 Snap은 제거 명령을 받지 않았으며, 규정 제5조에 따라 특정 조치를 이행할 의무도 없었습니다. 따라서 규정에 따라 집행 조치를 취할 필요가 없었습니다.
다음 표에서는 테러 및 폭력적 극단주의 콘텐츠와 관련된 커뮤니티 가이드라인을 위반한 콘텐츠 및 계정에 대해, EU 및 전 세계에서 사용자 신고 및 사전 예방적 탐지를 기반으로 취한 집행 조치를 설명합니다.
제7조(3)(d): 제10조에 따라 호스팅 서비스 제공자가 처리한 불만의 수 및 결과
제7조(3)(g): 콘텐츠 제공자의 불만에 따라 호스팅 서비스 제공자가 콘텐츠를 복원하거나 액세스한 경우의 수
위에서 언급한 보고 기간 동안 규정에 따라 요구되는 집행 조치가 없었기 때문에, 당사는 규정 제10조에 따라 불만 처리하지 않았으며, 복원을 다시 실시하지 않았습니다.
다음 표에는 커뮤니티 가이드라인에 따라 시행된 테러와 폭력적 극단주의 콘텐츠와 관련된 EU 및 전 세계의 다른 지역에서 이의 제기 및 복원에 관련된 정보가 포함되어 있습니다.
제7조(3)(e): 호스팅 서비스 제공자가 제기한 행정 또는 사법 검토 절차의 수 및 결과
제7조(3)(f): 행정 또는 사법 검토 절차의 결과로 호스팅 서비스 제공자가 콘텐츠를 복원하거나 액세스해야 하는 경우의 수
보고 기간 동안 규정에 따라 요구되는 집행 조치가 없었기 때문에, 위에서 언급한 바와 같이, 당사는 행정 또는 사법 검토 절차를 통합하지 않았으며, 그러한 절차의 결과로 콘텐츠를 복원할 필요가 없었습니다.
본 보고서는 Snap이 유럽 연합의 규정 2022/2065 제34조 및 제35조에 따른 의무를 준수하기 위해 작성된 것으로, Snapchat 온라인 플랫폼의 설계와 기능 및 사용에 따른 시스템 위험에 대한 평가 결과와 이러한 위험을 처리하는 데 사용되는 방법론, 이를 해결하기 위해 마련된 대응 방안에 대한 내용이 포함됩니다.
DSA 위험 및 대응 방안 평가 보고서 | Snapchat | 2023년 8월(PDF)
본 보고서는 Snap이 유럽 연합의 규정 2022/2065 제37조에 따른 의무를 준수하기 위해 작성된 것으로, (i) 유럽 연합의 규정 2022/2065 제3장에 명시된 의무에 대한 Snap의 준수 여부를 독립적으로 감사한 결과 및 (ii) 해당 독립 감사에서 제시한 운영 권고 사항을 이행하기 위한 조치에 대한 내용이 기술되어 있습니다.
DSA 독립 감사 보고서 | Snapchat | 2024년 8월(PDF)
DSA 감사 이행 보고서 | Snapchat | 2024년 9월(PDF)
EU VSP 실무 규약
Snap은 AVMSD 제1조 (1)(aa)에 따른 "비디오 공유 플랫폼 서비스"('VSP') 제공자입니다. 본 실무 규약(이하 '규약')은 Snap이 네덜란드 미디어법('DMA') 및 지침(EU) 2010/13(지침(EU) 2018/1808('시청각 미디어 서비스 지침' 또는 'AVMSD')에 따라 개정) 아래의 VSP에 따른 의무를 준수하는 방법에 관해 설명하기 위해 작성되었습니다. 이 규약은 유럽 연합 및 유럽 경제 지역 전체에 적용됩니다.