Informe de Transparencia
1 de enero de 2023 - 30 de junio de 2023
Publicado:
25 de octubre de 2023
Actualizado:
13 de diciembre de 2023

Para brindar información sobre los esfuerzos de seguridad de Snap y la naturaleza y el volumen del contenido informado en nuestra plataforma, publicamos informes de transparencia dos veces al año. Estamos comprometidos a continuar haciendo que estos informes sean más completos e informativos para las muchas partes interesadas que de veras se preocupan por nuestras prácticas de moderación de contenido y cumplimiento de la ley, así como del bienestar de nuestra comunidad. 
Este Informe de transparencia abarca el primer semestre de 2023 (del 1 de enero al 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el número de denuncias relativas a contenidos y cuentas que hemos recibido y sancionado en todas las categorías específicas de infracciones de políticas; cómo hemos respondido a las solicitudes de las autoridades policiales y gubernamentales; y nuestras acciones de cumplimiento desglosadas por país.

Como parte de nuestro compromiso constante de mejorar continuamente nuestros informes de transparencia, presentamos algunos elementos nuevos con esta versión. Hemos añadido datos adicionales respecto a nuestras prácticas de publicidad y moderación, así como a las apelaciones sobre contenidos y cuentas. En línea con la Ley de Servicios Digitales de la UE, también hemos añadido nueva información contextual sobre nuestras operaciones en los Estados miembros de la UE, como el número de moderadores de contenido y de usuarios activos mensuales (UAM) en la región. Gran parte de esta información se puede encontrar a lo largo de todo el informe y en la página dedicada a la Unión Europea de nuestro Centro de Transparencia.
Por último, hemos actualizado nuestro Glosario con enlaces a explicaciones de las Pautas para la comunidad, que proporcionan un contexto adicional en torno a nuestra política de plataforma y esfuerzos operativos. 
Para obtener más información sobre nuestras políticas para combatir daños en línea y nuestros planes para continuar desarrollando nuestras prácticas de información, lee nuestro reciente artículo en el blog de Seguridad e impacto sobre este Informe de transparencia. 
Si quieres encontrar recursos adicionales para la seguridad y la privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia que se encuentra en la parte inferior de la página.
Ten en cuenta que la versión más actualizada de este Informe de transparencia se puede encontrar en la configuración regional en-US.

Resumen de las vulneraciones de contenidos y cuentas

Del 1 de enero al 30 de junio de 2023, Snap aplicó medidas contra 6 216 118 contenidos en todo el mundo que infringían nuestras políticas.
Durante el semestre que abarca el informe, hemos observado una Tasa de Visualización Infractora (VVR, por sus siglas en inglés) del 0,02 %, lo que significa que de cada 10 000 visualizaciones en Snaps e historias en Snapchat, 2 incluían contenidos que infringían nuestras políticas.

Análisis de infracciones de cuentas y contenidos

Nuestros índices generales de denuncias y medidas de aplicación de normas se mantuvieron bastante similares a los de los seis meses anteriores, con algunas excepciones en categorías clave. Este ciclo se produjo una disminución de aproximadamente un 3 % en denuncias y medidas de aplicación de normas sobre contenido y cuentas.
Las categorías con las fluctuaciones más notables fueron Acoso y bullying, Spam, Armas e Información falsa. El Acoso y bullying registró un aumento de ~56% en el total de denuncias y el subsiguiente aumento del ~39% en medidas de aplicación de normas respecto a contenidos y cuentas únicas. A estos aumentos en las medidas de aplicación de normas se sumó una disminución del ~46% en el tiempo de respuesta, lo que pone de relieve las eficiencias operativas que logró nuestro equipo al aplicar medidas contra este tipo de contenidos infractores. Del mismo modo, observamos un aumento del ~65% en el total de denuncias de spam, con un aumento del ~110% en medidas de aplicación de normas sobre contenidos y un aumento del ~80% en medidas relativas a cuentas únicas, a la vez que nuestros equipos redujeron el tiempo de respuesta en un ~80%. Nuestra categoría de Armas registró una disminución de ~13% en el total de denuncias, una disminución de ~51% en medidas de aplicación de normas sobre contenidos y una reducción de ~53% en medidas de aplicación de normas sobre cuentas únicas. Por último, nuestra categoría de Información falsa registró un aumento del ~14% en el total de denuncias, pero una disminución del ~78% en las medidas de aplicación de normas sobre contenidos y una disminución del ~74% en las medidas de aplicación de normas sobre cuentas únicas. Esto puede atribuirse al proceso constante de Garantía de calidad (QA) y a la dotación de recursos que destinamos a atender denuncias de información falsa, para garantizar que nuestros equipos de moderación capten y procesen con precisión la información falsa en la plataforma.
En general, aunque observamos cifras similares a las del último período, creemos que es importante seguir mejorando las herramientas que utiliza nuestra comunidad para denunciar de forma activa y precisa posibles infracciones a medida que van apareciendo en la plataforma.

Lucha contra la explotación y el abuso sexual a menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar las Imágenes de Abuso y Explotación Sexual Infantil (CSEAI, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.
Utilizamos herramientas de detección de tecnología activa, como la rigurosa búsqueda de correspondencia de PhotoDNA y la correspondencia de Imágenes de abuso sexual infantil (CSAI, según sus siglas en inglés) de Google para identificar imágenes ilegales y vídeos de abuso sexual infantil, respectivamente, e denunciarlos ante el Centro Nacional para Menores Desaparecidos o Explotados (NCMEC), según lo exija la legislación. Luego, el NCMEC, por su parte, coordina con el cumplimiento de la legislación nacional o internacional, según se requiera.
En la primera mitad de 2023, detectamos y actuamos de manera proactiva en el 98% del total de infracciones por maltrato y explotación sexual infantil denunciadas aquí, un aumento del 4% respecto a nuestro informe anterior.
**Ten en cuenta que cada envío al NCMEC puede contener varios contenidos. El total de piezas de medios individuales enviadas al NCMEC es igual a nuestro contenido total del que se tomaron medidas.

Contenido de autolesión y suicidio

Nos preocupamos profundamente por la salud mental y el bienestar de los usuarios de Snapchat, que informaron, y continúan informando, nuestras decisiones para construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un papel único en el empoderamiento de los amigos para que se ayuden mutuamente en tiempos difíciles.
Cuando nuestro equipo de confianza y seguridad reconoce a un Snapfan en una situación de angustia, tienen la opción de enviarle recursos de prevención y de apoyo, y de notificar al personal de emergencias cuando sea apropiado. Los recursos que compartimos se encuentran disponibles en nuestra lista global de recursos de seguridad, y estos están disponibles públicamente para todos los Snapfans.

Apelaciones

A partir de este informe en adelante, comenzamos a informar sobre el número de apelaciones de usuarios cuyas cuentas fueron bloqueadas por infracción de nuestras políticas. Solo restablecemos cuentas que nuestros moderadores determinen que estaban bloqueadas incorrectamente. Durante este período, estamos informando sobre apelaciones relacionadas con contenidos sobre drogas.  En nuestro próximo informe, esperamos publicar más datos relacionados con las apelaciones derivadas de otras infracciones de nuestras políticas.
**Ten en cuenta que cada envío al NCMEC puede contener varios contenidos. El total de piezas de medios individuales enviadas al NCMEC es igual a nuestro contenido total del que se tomaron medidas.

Moderación de anuncios

Snap se compromete a garantizar firmemente que todos los anuncios cumplan plenamente las políticas de nuestra plataforma. Creemos en un enfoque responsable y respetuoso con la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. A continuación incluimos información sobre nuestra moderación de la publicidad. Ten en cuenta que los anuncios de Snapchat pueden eliminarse por diversos motivos, tal y como se indica en las Políticas de publicidad de Snap, entre ellos, contenidos engañosos, contenidos para adultos, contenidos violentos o perturbadores, incitación al odio e infracción de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia. 

Perspectiva general del país

En esta sección se ofrece una visión general de la aplicación de Pautas para la comunidad en una muestra de regiones geográficas. Nuestras Pautas se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.
Se puede descargar la información por país a través del archivo CSV adjunto: