Snap Values
Informe de transparencia
1 de julio de 2024 – 31 de diciembre de 2024

Publicado:

20 de junio de 2025

Actualizado:

1 de julio de 2025

Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este Informe de transparencia abarca el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de cumplimiento de nuestros equipos de Seguridad en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos; y cómo respondemos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos información específica por país en una serie de páginas vinculadas.

Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.

Ten en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Nuestros equipos de Seguridad hacen cumplir nuestros Lineamientos de la comunidad tanto proactivamente (a través del uso de herramientas de detección automatizadas) como reactivamente (en respuesta a los informes), como se detalla más específicamente en las siguientes secciones de este informe. En este ciclo de informes (2° semestre de 2024), nuestros equipos de Seguridad tomaron la siguiente cantidad de medidas de cumplimiento:

Total de cumplimientos

Total de cuentas únicas penalizadas

10,032,110

5,698,212

A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el "tiempo de respuesta" promedio entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:

Razón de la política

Total de cumplimientos

Total de cuentas únicas penalizadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

3,860,331

2,099,512

2

Explotación sexual infantil

961,359

577,682

23

Acoso y bullying

2,716,966

2,019,439

7

Amenazas y violencia

199,920

156,578

8

Autolesiones y suicidio

15,910

14,445

10

Información falsa

6,539

6,176

1

Suplantación de Identidad

8,798

8,575

2

Spam

357,999

248,090

1

Drogas

1,113,629

718,952

6

Armas

211,860

136,953

1

Otros bienes regulados

247,535

177,643

8

Discurso de odio

324,478

272,025

27

Terrorismo y extremismo violento

6,786

4,010

5

Durante el período del informe, vimos una Tasa de visualizaciones violatorias (VVR, por su sigla en inglés) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros Lineamientos de la comunidad.

Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Entre el 1 de julio y el 31 de diciembre de 2024, en respuesta a los informes en la app de infracciones a nuestros lineamientos de la comunidad, los equipos de Seguridad de Snap tomaron un total de 6,346,508 medidas de cumplimiento a nivel mundial, incluidas medidas de cumplimiento aplicadas a 4,075,838 cuentas únicas. El tiempo promedio para que los equipos de Seguridad tomaran medidas de cumplimiento en respuesta a esos informes fue de aproximadamente 6 minutos. Se ofrece a continuación un desglose por categoría de informe.

Informes de cuentas y contenido totales

Total de cumplimientos

Total de cuentas únicas penalizadas

19,379,848

6,346,508

4,075,838

Razón de la política

Informes de cuentas y contenido

Total de cumplimientos

% del total de informes aplicados por Snap

Total de cuentas únicas penalizadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

5,251,375

2,042,044

32.20 %

1,387,749

4

Explotación sexual infantil

1,224,502

469,389

7.40 %

393,384

133

Acoso y bullying

6,377,555

2,702,024

42.60 %

2,009,573

7

Amenazas y violencia

1,000,713

156,295

2.50 %

129,077

8

Autolesiones y suicidio

307,660

15,149

0.20 %

13,885

10

Información falsa

536,886

6,454

0.10 %

6,095

1

Suplantación de Identidad

678,717

8,790

0.10 %

8,569

2

Spam

1,770,216

180,849

2.80 %

140,267

1

Drogas

418,431

244,451

3.90 %

159,452

23

Armas

240,767

6,473

0.10 %

5,252

1

Otros bienes regulados

606,882

199,255

3.10 %

143,560

8

Discurso de odio

768,705

314,134

4.90 %

263,923

27

Terrorismo y extremismo violento

197,439

1,201

<0.1 %

1,093

4

En comparación con el período de informe anterior, redujimos los tiempos de respuesta promedio en todas las categorías de políticas en un promedio del 90 %. Esta reducción se debió en gran parte a un esfuerzo concertado para expandir nuestra capacidad de revisión, así como para mejorar nuestra priorización de los informes según la gravedad del daño. También hicimos varios cambios específicos en nuestros esfuerzos de seguridad en el período de informe, lo que tuvo un impacto en los datos informados aquí, incluida la expansión de nuestros esfuerzos para hacer cumplir las cuentas cuyos nombres y nombres de usuario infringen nuestros lineamientos de la comunidad, la introducción de más informes y protecciones para las Comunidades en Snapchat y la introducción de opciones de informe para tipos adicionales de medios, como notas de voz, directamente a nosotros en la app. 

Estos cambios, así como otros esfuerzos de seguridad y fuerzas externas, afectaron particularmente ciertas áreas de políticas en comparación con el período de informe anterior. Estas categorías de políticas incluyen: contenido relacionado con sospechas de Explotación y abuso sexual infantil (CSEA), Información falsa y dañina y Spam. Específicamente:

  • CSEA: En la segunda mitad de 2024, observamos una disminución del 12 % en los informes relacionados con CSEA y redujimos nuestro tiempo de respuesta promedio para responder al contenido de CSEA informado en un 99 %. Estas tendencias se deben en gran parte a los avances continuos en nuestros esfuerzos de detección proactiva, lo que nos permitió eliminar el contenido de CSEA antes de que nos fuera informado y las mejoras que hemos hecho en nuestros procesos para revisar y tomar medidas sobre los informes de CSEA de manera más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es más alto que en otras áreas de políticas porque el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo selecto de agentes especialmente capacitados.

  • Información falsa y dañina: Observamos un aumento del 26 % en el volumen comunicado de informes relacionados con Información falsa y dañina, impulsado principalmente por eventos políticos, incluidas las elecciones de los Estados Unidos de noviembre de 2024.

  • Spam: En este período de informe vimos una disminución de aproximadamente el 50 % en las medidas de cumplimiento totales y una disminución de aproximadamente el 46 % en el total de cuentas únicas con medidas de cumplimiento, en respuesta a los informes de sospecha de spam, lo que refleja mejoras en nuestras herramientas de detección proactiva y cumplimiento de las normas. Esta es una continuación de nuestros esfuerzos para abordar al spam a través de señales de la cuenta y eliminar los actores de spam más pronto en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último período de informe, durante el cual las medidas de cumplimiento totales y el total de cuentas únicas con medidas de cumplimiento en relación con las normas de Spam disminuyeron en aproximadamente un 65 % y un 60 %, respectivamente.

Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad

Detección y aplicación proactiva de nuestros lineamientos de la comunidad


Usamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestros Lineamientos de la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluyendo PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google), la API de Seguridad de Contenido de Google y otra tecnología personalizada diseñada para detectar texto y medios abusivos,  a veces aprovechando la inteligencia artificial y el aprendizaje automático. 

En la segunda mitad de 2024, tomamos las siguientes medidas de cumplimiento después de detectar proactivamente las infracciones de nuestros Lineamientos de la comunidad usando herramientas de detección automatizadas:

Total de cumplimientos

Total de cuentas únicas penalizadas

3,685,602

1,845,125

Razón de la política

Total de cumplimientos

Total de cuentas únicas penalizadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

1,818,287

828,590

<1

Explotación sexual infantil

491,970

188,877

1

Acoso y bullying

14,942

11,234

8

Amenazas y violencia

43,625

29,599

9

Autolesiones y suicidio

761

624

9

Información falsa

85

81

10

Suplantación de Identidad

8

6

19

Spam

177,150

110,551

<1

Drogas

869,178

590,658

5

Armas

205,387

133,079

<1

Otros bienes regulados

48,280

37,028

9

Discurso de odio

10,344

8,683

10

Terrorismo y extremismo violento

5,585

2,951

21

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Usamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen el mecanismo de coincidencia de hash (incluidos PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de Contenido de Google (para identificar imágenes ilegales nuevas y "nunca antes hasheadas"). Además, en algunos casos, usamos señales de comportamiento para combatir otras actividades sospechosas de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.

En la segunda mitad de 2024, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):


Total de contenido regulado

Total de cuentas inhabilitadas

Envíos totales al NCMEC*

1,228,929

242,306

417,842

*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individuales enviado al NCMEC es igual a nuestro contenido total regulado.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten

Snapchat permite que los amigos se ayuden mutuamente en momentos difíciles al proporcionar recursos y apoyo para los Snapchatters que los necesiten. 

Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, ansiedad, depresión, estrés, pensamientos suicidas, dolor y bullying. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la sextorsión económica y otros relacionados con la sexualidad, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente a todos los Snapchatters en nuestro centro de privacidad, seguridad y política. 
Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, cuentan con los elementos necesarios para proporcionar recursos de apoyo y prevención de autolesiones, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que están a disposición de todos los Snapchatters.

Total de veces que se han compartido recursos relacionados con el suicidio

64,094

Apelaciones

A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta en la segunda mitad de 2024:

Razón de la política

Total de apelaciones

Total de reincorporaciones

Total de decisiones confirmadas

Tiempo medio de respuesta (días) para procesar las apelaciones

TOTAL

493,782

35,243

458,539

5

Contenido sexual

162,363

6,257

156,106

4

Explotación sexual infantil

102,585

15,318

87,267

6

Acoso y bullying

53,200

442

52,758

7

Amenazas y violencia

4,238

83

4,155

5

Autolesiones y suicidio

31

1

30

5

Información falsa

3

0

3

<1

Suplantación de Identidad

847

33

814

7

Spam

19,533

5,090

14,443

9

Drogas

133,478

7,598

125,880

4

Armas

4,678

136

4,542

6

Otros bienes regulados

9,153

168

8,985

6

Discurso de odio

3,541

114

3,427

7

Terrorismo y extremismo violento

132

3

129

9

Descripción regional y por país

Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestros Lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la app, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.

La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.


Resumen de las acciones de nuestros equipos de seguridad para hacer cumplir nuestros Lineamientos de la comunidad 

Región

Total de cumplimientos

Total de cuentas únicas penalizadas

América del Norte

3,828,389

2,117,048

Europa

2,807,070

1,735,054

Resto del mundo

3,396,651

1,846,110

Total

10,032,110

5,698,212

Infracciones a los Lineamientos de la comunidad denunciadas a nuestros equipos de Seguridad

Región

Informes de cuentas y contenido

Total de cumplimientos

Total de cuentas únicas penalizadas

América del Norte

5,916,815

2,229,465

1,391,304

Europa

5,781,317

2,085,109

1,378,883

Resto del mundo

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Detección proactiva y aplicación de nuestros lineamientos de la comunidad

Total de cumplimientos

Total de cuentas únicas penalizadas

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a la retroalimentación de los usuarios, que tomamos en serio. 


A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en el centro de transparencia de Snap, accesible directamente a través de la barra de navegación.

Total de anuncios reportados

Total de anuncios eliminados

43,098

17,833