Nuestro informe de transparencia para el primer semestre de 2021
22 de noviembre de 2021
Nuestro informe de transparencia para el primer semestre de 2021
22 de noviembre de 2021
Hoy publicamos nuestro informe de transparencia correspondiente al primer semestre de 2021, que abarca el período comprendido entre el 1 de enero y el 30 de junio de este año. Al igual que con los informes recientes, esta entrega comparte datos sobre violaciones a nuestros lineamientos de la comunidad a nivel mundial durante el período; el número de informes de contenido que recibimos y que se aplican contra categorías específicas de violaciones; cómo hemos respondido a solicitudes de los gobiernos y las fuerzas policiales; nuestros esfuerzos de cumplimiento desglosados por país; la tasa de contenido que infringe las políticas (VVR) de Snapchat; y las incidencias de información falsa en la plataforma.
Añadimos varias actualizaciones a nuestros informes de este período, que incluyen anotar nuestro tiempo de respuesta promedio en minutos en vez de horas para proporcionar más detalles sobre nuestras prácticas y eficacia operativas.
Todos los días, en promedio, se crean más de cinco mil millones de Snaps a través de la cámara de Snapchat. Del 1.º de enero al 30 de junio de 2021, penalizamos 6,629,165 piezas de contenido a escala mundial que infringieron nuestras políticas. Durante este período, nuestra tasa de violación que infringe las políticas (VVR, por sus siglas en inglés) fue de 0.10 por ciento, lo que significa que de cada 10 000 vistas de contenido en Snap, 10 se trataban de contenido que violaba nuestras Directrices. Además, mejoramos significativamente nuestro tiempo de respuesta a reportes de violaciones, en particular para contenido sexualmente explícito, acoso y bullying, drogas ilegales y falsificadas, y otros productos regulados.
Nuestro trabajo para combatir material alusivo al abuso sexual de menores
La seguridad de nuestra comunidad es una prioridad superior. Como plataforma creada para comunicarse con amigos reales, Snapchat se diseñó intencionalmente para que fuese más difícil para los extraños encontrarse con jóvenes. Por ejemplo, los usuarios de Snapchat no pueden ver las listas de amigos de los demás, y de forma predeterminada, no pueden recibir un mensaje de alguien que no sea uno de sus amigos.
Tenemos cero tolerancia hacia el abuso dirigido a cualquier miembro de nuestra comunidad, especialmente a menores, que es ilegal, inaceptable y está prohibido por nuestros lineamientos de la comunidad. Trabajamos diligentemente para combatir estas violaciones mediante la evolución de nuestras capacidades para prevenir, detectar y erradicar el abuso en nuestra plataforma, que incluye material de abuso sexual infantil (CSAM) y otros tipos de contenido de explotación sexual infantil.
Nuestros equipos de confianza y seguridad utilizan herramientas de detección proactiva, como tecnología de PhotoDNA y Child Sexual Abuse Imagery (CSAI) para identificar imágenes y videos ilegales conocidos de CSAM y reportarlos al Centro Nacional de Niños Desaparecidos y Explotados (NCMEC). NCMEC entonces, a su vez, se coordina con las fuerzas de seguridad nacionales o internacionales.
En el primer semestre de 2021, el 5.43 por ciento de la cantidad total de cuentas en las cuales se aplicaron las normas tenían contenido CSAM. De esto, detectamos y actuamos de manera proactiva sobre el 70% de las violaciones de CSAM. Esta mayor capacidad de detección proactiva, combinada con un aumento en los ataques de spam coordinados de difusión de CSAM, dio lugar a un notable aumento de esta categoría para este período cubierto.
Hemos continuado ampliando nuestras asociaciones con expertos en materia de seguridad, y nuestras funciones en la app para ayudar a educar a los Snapchatters sobre los riesgos del contacto con extraños y cómo usar los informes dentro de la app para alertar a nuestros equipos de Confianza y seguridad acerca de cualquier tipo de preocupación o abuso. Además, hemos seguido añadiendo socios a nuestro Programa de Informantes de confianza, el cual proporciona a los expertos en seguridad bajo supervisión un canal confidencial para denunciar escalamientos de emergencia, como una amenaza inminente a la vida o un caso que involucre contenido CSAM. Trabajamos estrechamente con estos socios para proporcionar educación de seguridad, recursos de bienestar y otros apoyos para reportar de manera efectiva y que así puedan apoyar a la comunidad de Snapchat.
Nuestro enfoque respecto a la difusión de información falsa
El período de tiempo que este informe de transparencia abarca subraya lo fundamental que es garantizar que el público tenga acceso a información precisa y creíble. Regularmente evaluamos e invertimos en nuevos medios para proteger a nuestra comunidad de Snapchatters de la difusión de información falsa relacionada con procesos democráticos, salud pública y COVID-19.
En el primer semestre de 2021, a nivel mundial, se regularizó un total combinado de 2597 cuentas y piezas de contenido por violaciones de nuestros lineamientos de información falsa, casi la mitad del número de violaciones del período anterior al informe. Dado que el contenido en Discover y Spotlight se modera proactivamente para evitar la distribución de contenido violento a escala, la mayoría de estas violaciones vinieron de Snaps e historias privadas, y la gran parte de estas violaciones se nos dieron a conocer a través de nuestros propios esfuerzos de moderación activa, así como informes de Snapchatters.
Siempre hemos creído que cuando se trata de contenido dañino, no es suficiente solo pensar en las políticas y la aplicación de las normas, las plataformas deben considerar su arquitectura fundamental y diseño de producto. Desde el principio, Snapchat fue construido de manera diferente a las plataformas de redes sociales tradicionales, para apoyar nuestra ideología primaria de hablar con amigos cercanos, en lugar de tener un listado de noticias donde cualquiera tiene el derecho de distribuir cualquier cosa a cualquier persona. El diseño de Snapchat limita la viralidad, lo cual elimina incentivos para hacer contenido que atraiga a los peores instintos de las personas, lo cual limita las preocupaciones asociadas con la difusión de contenido ilegal y dañino.
Este enfoque también lleva a nuestro trabajo la tarea de evitar la difusión de contenido extremista. Durante el período de reportes retiramos cinco cuentas por las violaciones de nuestra prohibición de contenido extremista terrorista, una ligera disminución del último ciclo de informes. En Snap, monitoreamos regularmente los desarrollos en este espacio, buscando mitigar cualquier vector potencial para el abuso en nuestra plataforma. Tanto nuestra arquitectura de plataforma como el diseño de funcionalidad de nuestro chat de grupo ayudan a limitar la difusión de contenido dañino y las oportunidades de organizarse. Ofrecemos chats grupales, aunque con inclusión de usuarios limitada, sin recomendación de nuestros algoritmos y no pueden ser descubiertos en nuestra plataforma para cualquier persona que no sea miembro de ese grupo en particular.
Durante este período, continuamos promocionando proactivamente la información de seguridad pública sobre COVID-19 a nuestra comunidad, incluso a través de la cobertura proporcionada por los colaboradores editoriales en Discover, a través de anuncios de servicio público (PSA), así como mediante controles de calidad efectuados por funcionarios de salud pública, agencias y expertos médicos y a través de herramientas creativas tales como Lentes de realidad aumentada y filtros: todo diseñado para recordar a los Snapchatters de la orientación de salud pública experta. A principios de este año, a medida que las vacunas estaban disponibles para los jóvenes en los Estados Unidos, lanzamos una nueva iniciativa con la Casa Blanca para ayudar a los Snapchatters a responder a preguntas comunes y, en julio, nos asociamos con el servicio nacional de salud del Reino Unido en un esfuerzo similar.
En el futuro, asumimos el compromiso de seguir realizando esfuerzos para que nuestros informes de transparencia sean más completos y útiles para los diversos actores que se preocupan profundamente por la seguridad en línea, la transparencia y la responsabilidad multisectorial. Estamos evaluando constantemente la forma en que podemos fortalecer nuestros esfuerzos integrales a fin de combatir el contenido dañino y los actores con malas intenciones, y estamos agradecidos con los muchos socios y colaboradores de seguridad que regularmente nos ayudan a mejorar.