2021년 전반기 투명성 보고서
2021년 11월 22일
2021년 전반기 투명성 보고서
2021년 11월 22일
오늘, 저희는 올해 1월 1일부터 6월 30일 기간의 2021년 전반기 투명성 보고서를 공개합니다. 최근 보고서와 마찬가지로, 이번 분기별 보고서에서는 해당 기간 동안 전 세계에서 일어난 커뮤니티 가이드라인 위반에 관한 데이터, 저희에게 신고되어 특정한 위반 카테고리에 대해 제재한 콘텐츠 개수, 법률 집행 기관 및 정부의 요청에 대응한 방법, 국가별로 수행한 제재, Snapchat 콘텐츠의 위반 조회율, 플랫폼에 게시된 허위 정보에 관한 데이터를 공유합니다.
이번 기간에 저희는 운영 관행 및 효과에 대한 정보를 더욱 자세히 제공하기 위해 평균 처리 시간을 시간 단위에서 분 단위로 변경하여 제공하는 등 보고 방식을 여러 측면에서 업데이트했습니다.
Snapchat 카메라를 통해 매일 평균 50억 개가 넘는 Snap이 생성됩니다. 2021년 1월 1일부터 6월 30일까지 저희는 전 세계에서 저희 가이드라인을 위반한 6,629,165개의 콘텐츠를 제재하였습니다. 이 기간 동안 저희의 위반 조회율(VVR)은 0.10%였습니다. 즉, 10,000건의 Snap 콘텐츠 조회 중 10개에 가이드라인을 위반하는 콘텐츠가 포함되어 있었습니다. 또한 위반 신고, 특히 성적으로 노골적인 콘텐츠, 괴롭힘 및 학대, 불법 또는 가짜 약물, 기타 규제 대상 상품 등에 대한 대응 시간을 크게 개선했습니다.
아동에 대한 성적 학대 자료를 근절하기 위한 노력
커뮤니티의 안전은 최우선 과제입니다. 실제 친구와 소통하기 위해 탄생한 플랫폼으로서 저희는 의도적으로 Snapchat에서 낯선 사람이 나이가 어린 사용자를 찾기 어렵게 설계했습니다. 예를 들어 Snapchat 사용자는 서로의 친구 목록을 볼 수 없으며, 기본적으로 이미 친구가 아닌 사람의 메시지를 받지 못하게 설정되어 있습니다.
저희는 커뮤니티의 구성원, 특히 미성년자를 대상으로 감행하는 학대 행위를 좌시하지 않습니다. 이는 불법적이고, 용납할 수 없으며, 저희 커뮤니티 가이드라인에서 금지합니다. 저희는 플랫폼에서 아동에 대한 성적 학대 자료(CSAM) 및 기타 유형의 아동 성착취 콘텐츠를 포함한 악용 행위를 예방, 탐지, 제거하는 역량을 강화함으로써 이러한 위반 행위를 근절하기 위해 최선을 다하고 있습니다.
저희의 신뢰 및 안전 팀은 PhotoDNA와 아동 성학대 이미지(CSAI) 일치 기술 등 사전 예방적인 감지 툴을 활용하여 알려진 불법적인 CSAM 이미지 및 동영상을 식별하고 이를 국립 실종 및 착취 아동센터(NCMEC)에 신고합니다. 이에 따라 NCMEC는 국내 또는 국제 법률 집행 기관과 협력합니다.
2021년 상반기에 저희가 전 세계적으로 제재한 계정 중 5.43%에 CSAM이 포함되어 있었습니다. 이 중 저희는 CSAM 위반건의 70%를 사전에 발견하고 조치했습니다. 이렇게 강화된 사전 예방적 감지 기능과 조직적인 스팸 공격을 전파하는 CSAM의 증가가 겹치면서, 이번 보고 기간 동안 이 카테고리에서 눈에 띄는 증가가 보였습니다.
저희는 Snapchat 사용자에게 낯선 사람과 연락할 경우 발생할 수 있는 위험을 알리고 모든 종류의 우려 또는 학대 행위를 저희의 신뢰 및 안전 팀에 알리는 앱 내 신고 방법을 교육하였습니다. 또한 도움이 되는 앱 내 기능은 물론 안전 전문가와의 제휴도 계속 확대해 왔습니다. 또한 저희는 Trusted Flagger 프로그램에 계속 파트너를 추가해 왔습니다. 이 프로그램은 검증된 안전 전문가가 즉각적인 생명에 대한 위협 또는 CSAM이 연루된 사건 등 위급 상황의 악화를 신고하는 창구로서 기밀 채널을 제공합니다. 또한, 이러한 파트너와 긴밀히 협력하여 안전 교육, 웰빙 리소스 및 기타 신고 안내를 제공하며, 해당 파트너는 Snapchat 커뮤니티를 효과적으로 지원하는 것을 도울 수 있습니다.
허위 정보 확산에 대한 Snap의 접근 방식
이 투명성 보고서에서 다루는 기간은 대중이 정확하고 신뢰할 수 있는 정보에 액세스하는 것이 얼마나 중요한지를 더욱 강조합니다. 저희는 민주주의 절차, 공중 보건, 코로나-19 등과 관련된 허위 정보의 확산으로부터 Snapchat 사용자 커뮤니티를 보호하기 위한 새로운 수단을 정기적으로 평가하고 이에 투자합니다.
저희는 2021년 상반기에 저희의 허위 정보 가이드라인을 위반한 행위에 대한 조치로 총 2,597개의 계정 및 콘텐츠를 제재했습니다. 이는 지난 보고서에 해당하는 기간에 비해 거의 절반으로 줄어든 수치입니다. 위반 콘텐츠가 방대하게 배포되는 문제를 방지하기 위해 둘러보기 및 스포트라이트에 대한 콘텐츠를 사전에 심사하기 때문에, 이러한 위반 행위의 대부분은 비공개 Snap 및 스토리에서 발생하며, 이러한 위반 행위의 대부분은 저희의 활성 심사 노력과 Snapchat 사용자의 신고에 따라 알려졌습니다.
유해한 콘텐츠와 관련하여, Snapchat은 항상 정책과 집행에 대한 생각만으로는 충분하지 않으며 플랫폼의 근본적인 아키텍처와 제품 디자인을 고려해야 한다고 생각했습니다. Snapchat은 처음부터 누구나 심사 없이 누구에게나 무엇이든 배포할 권리가 있는 공개 뉴스피드가 아닌 친한 친구와 대화하는 주요 용도를 지원할 목적으로 기존 소셜 미디어 플랫폼과는 다른 방식으로 구축되었습니다. Snapchat은 바이럴 현상을 제한하도록 설계되어 사람들의 악의적인 본능에 호소하는 콘텐츠에 인센티브를 주지 않으며, 이에 따라 불법적이거나 해로운 콘텐츠 유포와 관련된 우려를 제한합니다.
또한 이러한 접근 방식은 극단주의적인 콘텐츠의 확산을 예방하는 저희의 노력에도 적용됩니다. 이 보고 기간 동안 저희는 테러리스트 및 극단주의자 콘텐츠 금지를 위반한 계정 5개를 삭제했는데, 이는 지난 보고보다 약간 감소한 수치입니다. Snap은 플랫폼에서의 악의적인 행위의 잠재적인 발생을 줄이기 위해 이러한 방면의 진척 상황을 정기적으로 모니터링합니다. 저희의 플랫폼 아키텍처 및 그룹 채팅 기능 설계 방식은 모두 유해한 콘텐츠의 확산 및 조직 결성 기회를 제한하는 데 도움이 됩니다. 저희는 그룹 채팅을 제공하지만 규모를 제한하며, 알고리즘으로 추천하지 않고, 특정 그룹의 멤버가 아니라면 플랫폼에서 볼 수 없습니다.
이 기간 동안 저희는 커뮤니티에 사실에 기반한 코로나-19 관련 공공 안전 정보를 사전에 계속 홍보했습니다. 둘러보기 편집 파트너가 제공하는 소식, 공지 사항(PSA), 공공 보건 공무원, 에이전시, 의료 전문가와의 질문/답변, 증강 현실 렌즈 및 필터 등 크리에이티브 툴을 홍보 수단으로 활용했으며, 이는 모두 Snapchat 사용자에게 전문 공공 보건 가이드를 알릴 목적으로 설계되었습니다. 올해 초에는 미국의 젊은이들이 백신을 맞을 수 있게 되면서 백악관과 협력하여 Snapchat 사용자가 일반적인 질문에 답할 수 있도록 돕는 새로운 활동을 시작하였으며, 6월에는 영국의 National Health Service와 협업하여 유사한 활동을 진행했습니다.
앞으로 저희는 온라인 안전, 투명성, 다분야 책임 등에 대해 깊이 고민하는 많은 이해관계자들에게 더욱 포괄적이고 도움이 되는 방향으로 투명성 보고서를 발전시키기 위해 계속 최선을 다할 것을 약속합니다. 저희는 해로운 콘텐츠와 악의적인 행위자를 근절하기 위한 포괄적인 노력을 강화하는 방법을 지속적으로 평가하고 있으며, 정기적으로 개선하는 데 도움이 되는 많은 보안 및 안전 파트너와 협력자 여러분께 감사하고 있습니다.