Snap Values
유럽연합
2023년 7월 1일 ~ 2023년 12월 31일

발행:

2024년 4월 25일

업데이트:

2024년 8월 29일

디지털 서비스법(DSA), 시청각 미디어 서비스 지침(AVMSD), 네덜란드 미디어법(DMA) 및 테러 콘텐츠 온라인 규정(TCO)에서 요구하는 EU 특정 정보가 게시되는 유럽 연합(EU) 투명성 페이지에 오신 것을 환영합니다. 이러한 투명성 보고서의 최신 버전은 en-US 지역 설정에서 찾을 수 있습니다.

법적 대리인 

Snap Group Limited는 DSA의 목적을 위해 Snap B.V.를 법적 대리인으로 임명했습니다. 고객지원 사이트[여기]를 통해 DSA와 관련해서는 dsa-enquiries [at] snapchat.com, AVMSD 및 DMA와 관련해서는 vsp-enquiries [at] snapchat.com, TCO와 관련해서는 tco-enquiries [at] snapchat.com에서, 또는 다음 주소로 담당자에게 연락할 수 있습니다.

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

법 집행 기관인 경우 여기에 설명된 단계를 따르십시오.

저희에게 연락할 때 영어 또는 네덜란드어로 연락하십시오.

규제 기관

DSA의 경우, 저희는 유럽 위원회와 네덜란드 소비자 시장당국(ACM)의 규제를 받습니다. AVMSD 및 DMA의 경우에는 네덜란드 미디어위원회(CvdM)의 규제를 받습니다. TCO의 경우, 저희는 온라인 테러 콘텐츠 및 아동 성적 학대 자료(ATKM) 예방 관련 네덜란드 당국의 규제를 받습니다.

DSA 투명성 보고서

Snap은 DSA 제15조, 24조 및 42조에 따라 '온라인 플랫폼'(예: 스포트라이트, For You, 공개 프로필, 지도, 렌즈 및 광고)으로 간주되는 Snapchat의 서비스에 대한 Snap의 콘텐츠 조정과 관련된 소정의 정보가 포함된 보고서를 게시해야 합니다. 이 보고서는 2023년 10월 25일부터 6개월마다 발행해야 합니다.

Snap은 매년 두 번 투명성 보고서를 발행하여 Snap의 안전 노력과 플랫폼에 보고된 콘텐츠의 특성과 양에 대한 인사이트를 제공합니다. 2023년 하반기(7월 1일 ~ 12월 31일)에 대한 최신 보고서는 여기에서 찾을 수 있습니다(2024년 8월 1일 기준 월간 평균 활성 수신자 수치에 대한 업데이트는 페이지 하단 참조). 디지털 서비스법에 대한 구체적인 측정 지표는 이 페이지에서 찾을 수 있습니다.

월간 평균 활성 수신자 
(DSA 조항 24.2 및 42.3)

2023년 12월 31일 기준, EU에서 Snapchat 앱의 월간 평균 활성 수신자 수(“AMAR”)는 9,090만 명입니다. 이는 지난 6개월 동안 평균적으로 EU에 있는 9,090만 명의 등록된 사용자가 모든 달에 한 번 이상 Snapchat 앱을 열었음을 의미합니다.

이 수치는 다음과 같이 회원국별로 분류됩니다.

이러한 수치는 현재 DSA 규정을 충족하도록 계산되었으며, DSA 목적으로만 사용해야 합니다. 당사는 변화하는 내부 정책, 규제 기관 지침 및 기술에 대한 대응을 포함하여 시간이 지남에 따라 이 수치를 계산하는 방법을 변경했으며, 수치는 기간 간에 비교하도록 의도되지 않았습니다. 이는 다른 목적으로 게시하는 다른 활성 사용자 수치에 사용된 계산과 다를 수 있습니다.


회원국 당국 요청
(DSA 제15.1조(a))

삭제 요청 

이 기간 동안 DSA 제9조에 따라 EU 회원국으로부터 0건의 삭제 요청이 접수되었습니다. 

정보 요청 

이 기간 동안 EU 회원국으로부터 다음과 같은 정보 요청이 접수되었습니다.

정보 요청 접수 사실을 당국에 통보하는 데 소요되는 시간의 중앙값은 0분입니다. 당사는 접수 확인 자동 응답을 제공합니다. 정보 요청 처리에 소요되는 시간의 중앙값은 약 10일입니다. 이 지표는 Snap이 정보 요청(IR)을 접수한 시점부터 해당 요청이 완전히 해결되었다고 판단하는 시점까지의 기간을 반영합니다. 경우에 따라 이 절차의 소요 시간은 법 집행 기관이 요청 처리에 필요한 Snap의 확인 요청에 얼마나 신속하게 응답하는지에 따라 부분적으로 달라질 수 있습니다.

콘텐츠 검토 


Snapchat의 모든 콘텐츠는 커뮤니티 가이드라인이용 약관, 그리고 관련 약관, 가이드라인 및 설명을 준수해야 합니다. 사전 감지 메커니즘과 불법 또는 위반 콘텐츠나 계정에 대한 신고는 검토로 이어지며, 이때 당사의 도구 시스템은 요청을 처리하고, 관련 메타데이터를 수집하며, 효과적이고 효율적인 검토 작업을 용이하게 하도록 설계된 구조화된 사용자 인터페이스를 통해 조정 팀에 관련 콘텐츠를 전달합니다. 당사의 조정 팀이 사람의 검토 또는 자동화된 수단을 통해 사용자가 약관을 위반했다고 판단할 때, 당사는 위반 콘텐츠 또는 계정을 제거하고, 관련 계정의 공개를 종료 또는 제한하며, 또는 제한과 동시에 Snapchat 조정, 집행 및 이의 제기 설명에서 설명한 대로 법 집행 기관에 통보할 수 있습니다. 커뮤니티 가이드라인 위반으로 당사의 안전 팀이 계정을 잠근 사용자는 잠긴 계정 이의 제기를 제출할 수 있으며, 사용자는 특정 콘텐츠 단속에 대해 이의를 제기할 수 있습니다.

콘텐츠 및 계정 신고(DSA 15.1(b)조)

Snap은 사용자 및 비사용자가 플랫폼에서 커뮤니티 가이드라인 및 이용 약관을 위반하는 콘텐츠 및 계정(DSA 제16조에 따라 불법이라고 간주되는 콘텐츠 및 계정 포함)을 Snap에 신고할 수 있는 메커니즘을 마련했습니다.  이러한 신고 메커니즘은 앱 자체(즉 해당 콘텐츠에서 직접 신고) 및 웹사이트에서 이용할 수 있습니다.

해당 기간 동안 EU에서 접수된 콘텐츠 및 계정 신고는 다음과 같습니다.

In H2’23, we handled 664,896 notices solely via automated means. All of these were enforced against our Community Guidelines because our Community Guidelines encapsulate illegal content. 

In addition to user-generated content and accounts, we moderate advertisements if they violate our platform policies. Below are the total ads that were reported and removed in the EU. 

신뢰받는 신고자 신고(제15.1(b)조)

최신 투명성 보고서 기간(2023년 하반기) 동안 DSA에 따라 공식적으로 임명된 신뢰받는 신고자는 없었습니다. 그 결과, 이 기간 동안 이러한 신뢰받는 신고자가 제출한 신고 건수는 0건이었습니다.

선제적 콘텐츠 조정(제15.1(c)조)

해당 기간 동안 Snap은 자체적으로 콘텐츠 조정을 시행한 후, EU에서 다음 콘텐츠 및 계정에 대해 조치를 취했습니다.

Snap의 모든 자체 조정 노력은 인력 또는 자동화된 도구를 활용하여 이루어집니다. 공개 콘텐츠 화면에서 콘텐츠는 일반적으로 자동 조정 및 사람의 검토 모두를 거쳐 광범위한 사용자에게 배포할 수 있습니다. 자동화된 도구와 관련하여 다음과 같은 기능이 있습니다.

  • 머신 러닝을 사용하여 불법 및 위반 콘텐츠를 사전 감지,

  • 해시 매칭 도구(예: PhotoDNA 및 Google의 CSAI Match),

  • 파악되고 정기적으로 업데이트되는 이모티콘을 포함한 욕설 키워드 목록을 기반으로 콘텐츠를 거부하는 욕설 감지 기능.


이의 제기(제15.1(d)조)

해당 기간 동안 Snap은 내부 불만 처리 시스템을 통해 EU에서 다음 콘텐츠 및 계정의 이의 제기를 처리했습니다.


* 아동 성 착취를 막는 것은 최우선 사항입니다. Snap은 이를 위해 상당한 자원을 투자하고 있으며 아동 성 착취 행위를 절대 용납하지 않습니다. CSE 이의 제기를 검토하려면 특별 교육이 필요하며, 콘텐츠의 노골적인 특성으로 인해 이러한 검토를 처리하는 상담원의 수가 제한되어 있습니다. Snap은 2023년 가을에 특정 CSE 시행의 일관성에 영향을 미치는 정책 변경을 시행했으며, 상담원 재교육과 엄격한 품질 보증을 통해 이러한 불일치를 해결했습니다. 다음 투명성 보고서에서는 CSE 이의 제기에 대한 응답 시간을 개선하고 초기 집행의 정확성을 향상시키는 과정이 드러날 것으로 기대합니다.

콘텐츠 조정을 위해 자동화된 수단(15.1조(e))

공개 콘텐츠 화면에서 콘텐츠는 일반적으로 자동 조정 및 사람의 검토 모두를 거쳐 광범위한 사용자에게 배포할 수 있습니다. 자동화된 도구와 관련하여 다음과 같은 기능이 있습니다.

  • 머신 러닝을 사용하여 불법 및 위반 콘텐츠를 사전 감지,

  • 해시 매칭 도구(PhotoDNA 및 Google의 CSAI 매치 등),

  • 확인된, 그리고 정기적으로 업데이트 되는 욕설 키워드 및 이모티콘의 목록을 기반으로 콘텐츠를 거부하는 욕설 감지.


모든 유해 콘텐츠에 대한 자동화 조정 기술의 정확도는 약 96.61%, 오류율은 약 3.39%였습니다.


콘텐츠 조정 보호 장치(15.1조(e))

저희는 자동 및 인간 중재자의 편견과 정부, 정치적 지지층 또는 잘 조직된 개인을 포함한 악의적인 보고로 인해 발생할 수 있는 표현 및 집회의 자유에 대한 위험을 포함하여 콘텐츠 조정과 관련된 위험이 있음을 인식합니다. Snapchat은 일반적으로 정치적이거나 행동주의적인 콘텐츠를 위한 장소가 아니며, 특히 공공 장소에서는 더욱 그렇습니다.


그럼에도 불구하고 이러한 위험으로부터 보호하기 위해 Snap은 테스트와 교육을 실시하고 법 집행 기관 및 정부 기관을 포함하여 불법 또는 위반 콘텐츠에 대한 신고를 처리하기 위한 강력하고 일관된 절차를 갖추고 있습니다. 저희는 콘텐츠 조정 알고리즘을 지속적으로 평가하고 발전시킵니다. 표현의 자유에 대한 잠재적인 피해를 감지하기 어렵지만 심각한 문제에 대해 인식하지 못한 실수가 발생할 경우 사용자가 이를 신고할 수 있는 방법을 제공합니다.


저희의 정책과 시스템은 일관되고 공정한 집행을 장려하며 위에서 설명한 바와 같이 Snapchat 사용자 개인의 권리를 보호하는 동시에 커뮤니티의 이익을 보호하는 것을 목표로 하는 통지 및 이의 제기 절차를 통해 Snapchat 사용자에게 집행 결과에 대해 유의미한 이의를 제기할 수 있는 기회를 제공합니다.

저희는 시행 정책과 프로세스를 개선하기 위해 지속적으로 노력하고 있으며 Snapchat에서 잠재적으로 유해하고 불법적인 콘텐츠와 활동을 퇴치하는 데 큰 진전을 이루었습니다. 이는 최신 투명성 보고서에 표시된 신고 및 집행 수치의 상승 추세와 전반적인 Snapchat 위반 발생률의 감소에 반영됩니다.


법정 밖 합의(24.1조(a))

최신 투명성 보고서 기간(2023년 하반기)에는 DSA에 따라 공식적으로 지정된 법정 밖 분쟁 해결 기관이 없었습니다. 그 결과 해당 기간 동안 해당 기관에 제출된 분쟁 건수는 0건이었으며 결과, 해결을 위한 평균 처리 시간 및 해당 기관의 결정을 이행한 분쟁 비율을 제공할 수 없습니다.



계정 정지(24.1조(b))

2023년 하반기에는 제23조에 따라 계정이 정지된 사례는 없습니다. Snap의 신뢰 및 안전팀은 사용자 계정이 명백히 근거 없는 통지나 불만 사항을 자주 제출할 가능성을 제한하는 절차를 갖추고 있습니다. 이러한 절차에는 중복 신고 생성을 제한하고 이메일 필터를 사용하여 명백히 근거 없는 신고를 자주 제출하는 사용자가 계속해서 신고를 제출하지 못하도록 방지하는 작업이 포함됩니다. Snap은 Snapchat 조정, 집행 및 이의 제기 설명에 설명된 대로 계정에 대해 적절한 집행 조치를 취하며 Snap의 계정 집행 수준에 관한 정보는 투명성 보고서(2023년 하반기)에서 확인할 수 있습니다. 이러한 조치는 계속해서 검토 및 반복될 것입니다.


중재자 리소스, 전문 지식 및 지원(42.2조)

당사의 콘텐츠 조정 팀은 전 세계에서 운영되므로 연중무휴 24시간 Snapchat 사용자의 안전을 유지할 수 있습니다. 아래에서 2023년 12월 31일 기준 조정자의 언어 전문 분야(일부 조정자는 여러 언어 전공)별로 인적 조정 리소스 내역을 확인할 수 있습니다.

위 표에는 2023년 12월 31일 기준 EU 회원국 언어를 지원하는 모든 조정자의 정보가 포함되어 있습니다. 추가 언어 지원이 필요한 상황에서는 번역 서비스를 사용합니다.

조정자는 언어 요구 사항(필요성에 따라 다름)을 포함하는 표준 직무 설명을 사용하여 모집됩니다. 언어 요구 사항의 경우, 후보자는 해당 언어에 대한 문어 및 구어 유창성을 입증할 수 있어야 하며, 초급 직책에 대해 최소 1년 이상의 업무 경험이 있어야 합니다. 후보자는 고려되기 위해 교육 및 배경 요구 사항을 충족해야 합니다. 또한 후보자는 담당할 콘텐츠 조정 국가 또는 지역의 현안에 대한 이해도를 입증해야 합니다.

당사의 조정팀은 Snapchat 커뮤니티를 보호하기 위해 당사의 정책 및 집행 조치를 적용합니다. 교육은 수 주에 걸쳐 진행되며, 신규 팀원들은 Snap의 정책, 도구 및 에스컬레이션 절차에 대해 교육을 받습니다. 교육 완료 후, 각 조정자는 자격 인증 시험에 합격해야 콘텐츠 검토 권한이 부여됩니다. 당사의 조정팀은 업무 흐름과 관련된 재교육에 정기적으로 참여하며, 특히 정책 경계선에 있거나 상황에 따라 달라지는 사례를 접하는 경우 더욱 그렇습니다. 또한 당사는 업스킬링 프로그램, 인증 세션 및 퀴즈를 통해, 모든 조정자의 지식이 최신 상태이고 이들이 업데이트된 정책을 준수하는지 확인합니다. 마지막으로, 현재 이벤트를 기반으로 긴급 콘텐츠 트렌드가 나타나면 당사는 정책 설명을 신속하게 배포하여 Snap의 정책에 따라 대응할 수 있도록 합니다.

당사는 Snap의 "디지털 응급 대응 요원"인 콘텐츠 조정팀에 현장 건강 지원 및 정신 건강 서비스에 대한 손쉬운 접근을 비롯한 상당한 지원과 리소스를 제공합니다. 

아동 성 착취 및 학대(CSEA) 미디어 스캔 보고서


배경

커뮤니티의 모든 구성원, 특히 미성년자에 대한 성적 착취는 불법적이고 혐오스러운 행위이며 커뮤니티 가이드라인에 의해 금지됩니다. Snap은 플랫폼에서 아동 성적 착취 및 학대(CSEA)를 예방하고 탐지하며 근절하는 것을 최우선 과제로 삼고 있으며, 다른 범죄를 퇴치할 수 있는 역량도 지속적으로 강화하고 있습니다.


당사는 PhotoDNA의 강력한 해시 매칭과 Google의 아동 성적 학대 이미지(CSAI) 매치를 사용하여 아동 성적 학대에 대해 알려진 불법 이미지와 동영상을 각각 식별하고, 법률에서 요구하는 대로 미국 국립 실종 및 착취 아동 센터(NCMEC)에 신고합니다. 그런 다음 NCMEC는 필요한 경우 국내/국제법 집행기관과 협력합니다.


보고서

아래 데이터는 Snapchat에 사용자의 카메라 롤에 의해 업로드된 미디어의 PhotoDNA 및/또는 CSAI Match를 사용한 사전 스캔의 결과를 기반으로 합니다.

아동 성 착취를 막는 것은 최우선 사항입니다. Snap은 이를 위해 상당한 자원을 투자하고 있으며 아동 성 착취 행위를 절대 용납하지 않습니다. CSE 이의 제기를 검토하려면 특별 교육이 필요하며, 콘텐츠의 노골적인 특성으로 인해 이러한 검토를 처리하는 상담원의 수가 제한되어 있습니다. Snap은 2023년 가을에 특정 CSE 시행의 일관성에 영향을 미치는 정책 변경을 시행했으며, 상담원 재교육과 엄격한 품질 보증을 통해 이러한 불일치를 해결했습니다. 다음 투명성 보고서에서는 CSE 이의 제기에 대한 응답 시간을 개선하고 초기 집행의 정확성을 향상시키는 과정이 드러날 것으로 기대합니다.

콘텐츠 조정 보호 조치

CSEA 미디어 스캔에 적용된 보호 조치는 DSA 보고서에 따른 위의 '콘텐츠 조정 보호 조치' 섹션에 명시되어 있습니다.


유럽 연합 테러 콘텐츠 온라인 투명성 보고서

게시 날짜: 2024년 6월 17일

최종 업데이트 날짜: 2024년 6월 17일

본 투명성 보고서는 유럽 의회 및 EU 이사회 규정 2021/784의 제7조(2) 및 제7조(3)에 따라 게시되며, 온라인상에서의 테러 콘텐츠 배포(이하 '규정')에 대해 다룹니다. 보고 기간은 2023년 1월 1일부터 12월 31일까지입니다.


일반 정보
  • 제7조(3)(a): 테러 콘텐츠를 식별하고 제거하거나 접근을 차단하는 것과 관련된 호스팅 서비스 제공자의 조치에 대한 정보

  • 제7조(3)(b): 테러 콘텐츠로 간주되어 이전에 제거되었거나 접근이 차단된 자료가 온라인에서 다시 나타나는 것을 방지하기 위한 호스팅 서비스 제공자의 조치에 대한 정보, 특히 자동화 도구가 사용된 경우


테러리스트, 테러 조직 및 폭력적 극단주의자의 Snapchat 사용을 금지합니다. 테러 또는 기타 폭력적 범죄 행위를 옹호, 조장, 미화하거나 부추기는 콘텐츠는 커뮤니티 가이드라인에 따라 금지됩니다. 사용자는 인앱 신고 메뉴 및 지원 사이트를 통해 커뮤니티 가이드라인을 위반하는 콘텐츠를 신고할 수 있습니다. 또한 스포트라이트 및 둘러보기와 같은 공개 영역에서의 위반 콘텐츠를 식별하기 위해 사전 감지 기술을 사용합니다.


위반 콘텐츠를 인식하는 방법과 관계없이, 신뢰 및 안전 팀은 자동화 및 사람의 검토를 결합하여 식별된 콘텐츠를 신속하게 검토하고 집행 결정을 내립니다. 집행 조치에는 콘텐츠 제거, 위반 계정 경고 또는 잠금이 포함될 수 있으며, 타당한 경우 해당 계정을 법 집행 기관에 신고하는 것이 포함될 수 있습니다. 법 집행 기관과 협력하는 것 외에, 테러 또는 기타 폭력적 극단주의 콘텐츠가 Snapchat에서 다시 나타나는 것을 방지하기 위해, 위반 계정과 연동된 디바이스를 차단하고 사용자가 다른 Snapchat 계정을 생성하지 못하도록 조치를 취합니다.


테러 콘텐츠를 식별하고 제거하기 위한 조치에 대한 추가 세부 정보는 증오 콘텐츠, 테러 및 폭력적 극단주의에 대한 설명 자료, 그리고 조정, 집행 및 이의 제기에 대한 설명 자료에서 찾을 수 있습니다.



보고 및 집행
  • 제7조(3)(c): 제거 명령 또는 특정 조치에 따라 삭제되거나 접근이 비활성화된 테러 콘텐츠의 항목 수, 그리고 제3조(7)의 첫 번째 하위 항목 및 제3조(8)의 첫 번째 하위 항목에 따라 콘텐츠가 제거되지 않았거나 접근이 차단되지 않은 경우의 제거 명령의 수와 그 근거


보고 기간 동안 Snap은 제거 명령을 받지 않았으며, 규정 제5조에 따라 특정 조치를 이행할 의무도 없었습니다. 따라서 규정에 따라 집행 조치를 취할 필요가 없었습니다.


다음 표에서는 테러 및 폭력적 극단주의 콘텐츠와 관련된 커뮤니티 가이드라인을 위반한 콘텐츠 및 계정에 대해, EU 및 전 세계에서 사용자 신고 및 사전 예방적 탐지를 기반으로 취한 집행 조치를 설명합니다.

집행 이의 제기
  • 제7조(3)(d): 제10조에 따라 호스팅 서비스 제공자가 처리한 불만의 수 및 결과

  • 제7조(3)(g): 콘텐츠 제공자의 불만에 따라 호스팅 서비스 제공자가 콘텐츠를 복원하거나 액세스한 경우의 수


위에서 언급한 보고 기간 동안 규정에 따라 요구되는 집행 조치가 없었기 때문에, 당사는 규정 제10조에 따라 불만 처리하지 않았으며, 복원을 다시 실시하지 않았습니다.


다음 표에는 커뮤니티 가이드라인에 따라 시행된 테러와 폭력적 극단주의 콘텐츠와 관련된 EU 및 전 세계의 다른 지역에서 이의 제기 및 복원에 관련된 정보가 포함되어 있습니다.

Judicial Proceedings & Appeals
  • Article 7(3)(e): the number and the outcome of administrative or judicial review proceedings brought by the hosting service provider

  • Article 7(3)(f): the number of cases in which the hosting service provider was required to reinstate content or access thereto as a result of administrative or judicial review proceedings


As we had no enforcement actions required under the Regulation during the reporting period, as noted above, we had no associated administrative or judicial review proceedings, and we were not required to reinstate content as a result of any such proceedings.

EU DSA: 월간 평균 활성 수신자(2024년 8월)
(DSA 조항 24.2 및 42.3)

2024년 8월 1일 기준, EU에서 Snapchat 앱의 월간 평균 활성 수신자 수('AMAR')는 9,240만 명입니다. 이는 지난 6개월 동안 평균적으로 EU에 있는 9,240만 명의 등록된 사용자가 모든 달에 한 번 이상 Snapchat 앱을 열었음을 의미합니다.

이 수치는 다음과 같이 회원국별로 분류됩니다.