Snap Values
Informe de transparencia
1 de enero de 2025 - 30 de junio de 2025

Publicado:

1 de diciembre de 2025

Actualizado:

1 de diciembre de 2025

Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, nuestro enfoque con respecto al cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este informe de transparencia abarca la primera mitad de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de cumplimiento de nuestros equipos de Seguridad en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos; y cómo respondemos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos información específica por país en una serie de páginas vinculadas.

Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los informes de transparencia en la parte inferior de la página.

Ten en cuenta que la versión más actualizada de este informe de transparencia es la versión en inglés.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Nuestros equipos de Seguridad hacen cumplir nuestros lineamientos de la comunidad tanto proactivamente (a través del uso de herramientas de detección automatizadas) como reactivamente (en respuesta a los informes), como se detalla más específicamente en las siguientes secciones de este informe. En este ciclo de reportes (primer semestre de 2025), nuestros equipos de Seguridad impusieron la siguiente cantidad de sanciones:

Total de sanciones

Total de cuentas únicas sancionadas

9,674,414

5,794,201

A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el "tiempo de respuesta promedio" entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que realizamos la acción final sobre el contenido o la cuenta relevante:

Motivo de política

Total de sanciones

Total de cuentas únicas sancionadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

5,461,419

3,233,077

1

Explotación y abuso sexual infantil

1,095,424

733,106

5

Acoso y bullying

713,448

594,302

3

Amenazas y violencia

187,653

146,564

3

Autolesiones y suicidio

47,643

41,216

5

Información falsa

2,088

2,004

1

Suplantación de identidad

7,138

6,881

<1

Spam

267,299

189,344

1

Drogas

1,095,765

726,251

7

Armas

251,243

173,381

1

Otros bienes regulados

183,236

126,952

4

Discurso de odio

343,051

284,817

6

Terrorismo y extremismo violento

10,970

6,783

2

Los datos del total de sanciones incluyen las medidas tomadas por Snap después de revisar los reportes dentro de la app enviados a través de Snapchat.  Esto representa la gran mayoría de las sanciones impuestas por los equipos de Seguridad de Snap. Esta cifra excluye la mayoría de las sanciones impuestas como resultado de investigaciones basadas en reportes enviados a Snap a través de nuestro sitio de soporte u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de algunas investigaciones proactivas realizadas por nuestros equipos de Seguridad. Estas sanciones excluidas representaron menos del 0.5 % del volumen de sanciones en el primer semestre de 2025.

Durante el período del informe, vimos una Tasa de visualizaciones violatorias (VVR, por su sigla en inglés) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros Lineamientos de la comunidad. Entre las sanciones por lo que consideramos "daños graves", hubo un VVR del 0.0003 %. En la siguiente tabla se muestra un desglose de VVR por motivos de política.

Motivo de política

VVR

Contenido sexual

0.00482 %

Explotación y abuso sexual infantil

0.00096 %

Acoso y bullying

0.00099 %

Amenazas y violencia

0.00176 %

Autolesiones y suicidio

0.00009 %

Información falsa

0.00002 %

Suplantación de identidad

0.00009 %

Spam

0.00060 %

Drogas

0.00047 %

Armas

0.00083 %

Otros bienes regulados

0.00104 %

Discurso de odio

0.00025 %

Terrorismo y extremismo violento

0.00002 %

Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Entre el 1 de enero y el 30 de junio de 2025, en respuesta a los 19,766,324 reportes dentro de la app por infracciones a nuestros lineamientos de la comunidad, los equipos de Seguridad de Snap impusieron un total de 6,278,446 sanciones en todo el mundo, incluidas sanciones contra 4,104,624 cuentas únicas.  Este volumen de reportes dentro de la app excluye los reportes del sitio de soporte y por correo electrónico, que representan menos del 1 % del volumen total de reportes.  El tiempo promedio para que los equipos de Seguridad impusieran sanciones en respuesta a esos reportes fue de aproximadamente 2 minutos. A continuación se muestra un desglose por motivos de política. (Nota: En reportes anteriores, a veces nos referíamos a esto como la "categoría de reportes".  En el futuro, usaremos el término "motivo de política" que creemos que refleja con mayor precisión la naturaleza de los datos, porque nuestros equipos de Seguridad se esfuerzan por imponer sanciones de acuerdo con el motivo de política apropiado, independientemente de la categoría de reporte identificada por la persona que envía el reporte).


Total de reportes de cuentas y contenido

Total de sanciones

Total de cuentas únicas sancionadas

Total

19,766,324

6,278,446

4,104,624

Motivo de política

Total de reportes de cuentas y contenido

Total de sanciones

Porcentaje del total de reportes sancionados por Snap

Total de cuentas únicas sancionadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

7,315,730

3,778,370

60.2 %

2,463,464

1

Explotación y abuso sexual infantil

1,627,097

695,679

11.1 %

577,736

10

Acoso y bullying

4,103,797

700,731

11.2 %

584,762

3

Amenazas y violencia

997,346

147,162

2.3 %

120,397

2

Autolesiones y suicidio

350,775

41,150

0.7 %

36,657

3

Información falsa

606,979

2,027

0.0 %

1,960

1

Suplantación de identidad

745,874

7,086

0.1 %

6,837

<1

Spam

1,709,559

122,499

2.0 %

94,837

1

Drogas

481,830

262,962

4.2 %

176,799

5

Armas

271,586

39,366

0.6 %

32,316

1

Otros bienes regulados

530,449

143,098

2.3 %

98,023

3

Discurso de odio

817,262

337,263

5.4 %

280,682

6

Terrorismo y extremismo violento

208,040

1,053

0.0 %

912

2

En la primera mitad de 2025, continuamos reduciendo los tiempos de respuesta promedio en todas las categorías de políticas, reduciéndolos en un promedio de más del 75 % en comparación con el período de informe anterior, a 2 minutos. Esta reducción se debió en gran parte a un esfuerzo continuo y concertado para mejorar nuestra priorización de los reportes para su revisión en función de la gravedad del daño y la revisión automatizada.

También hicimos varios cambios específicos en nuestros esfuerzos de seguridad en el período de informe, que tuvieron un impacto en los datos reportados aquí, incluido el fortalecimiento de nuestras políticas sobre la actividad ilícita que involucra armas. Observamos un aumento de los reportes y sanciones en la categoría de Explotación sexual infantil, que se debió principalmente a un aumento de contenido sexualizado o sensible que involucra a menores que infringe nuestras políticas, pero no es ilegal en EE. UU. ni está sujeto a reportes al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC). El aumento del volumen relacionado con el contenido sexual (y la disminución del volumen relacionado con el acoso) fue impulsado por nuestra reclasificación del contenido asociado con el acoso sexual, que pasó de la categoría de acoso a la de contenido sexual.

Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad

Detección y aplicación proactiva de nuestros lineamientos de la comunidad


Usamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestros Lineamientos de la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluidas PhotoDNA e imágenes de abuso sexual infantil de Google (CSAI)), la API de Seguridad de Contenido de Google y otra tecnología propia diseñada para detectar texto y medios ilegales y infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestros números de detección proactiva fluctúan rutinariamente como resultado de cambios en el comportamiento de los usuarios, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.

En la primera mitad de 2025, tomamos impusimos las siguientes sanciones después de detectar proactivamente las infracciones de nuestros lineamientos de la comunidad usando herramientas de detección automatizadas:


Total de sanciones

Total de cuentas únicas sancionadas

Total

3,395,968

1,709,224

Motivo de política

Total de sanciones

Total de cuentas únicas sancionadas

Tiempo de respuesta medio (minutos) desde la detección hasta la acción final

Contenido sexual

1,683,045

887,059

0

Explotación y abuso sexual infantil

399,756

162,017

2

Acoso y bullying

12,716

10,412

8

Amenazas y violencia

40,489

27,662

6

Autolesiones y suicidio

6,493

4,638

7

Información falsa

61

44

20

Suplantación de identidad

52

44

34

Spam

144,800

96,500

0

Drogas

832,803

578,738

7

Armas

211,877

144,455

0

Otros bienes regulados

40,139

31,408

8

Discurso de odio

5,788

4,518

6

Terrorismo y extremismo violento

9,917

5,899

5

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Usamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen el mecanismo de coincidencia de hash (incluidos PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de Contenido de Google (para identificar imágenes ilegales nuevas y "nunca antes hasheadas"). Además, en algunos casos, usamos señales de comportamiento para combatir otras actividades sospechosas de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.

En la primera mitad de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):

Total de contenido regulado

Total de cuentas inhabilitadas

Envíos totales al NCMEC*

994,337

187,387

321,587

*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individuales enviado al NCMEC es igual a nuestro contenido total regulado.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten

Snapchat permite que los amigos se ayuden mutuamente en momentos difíciles al proporcionar recursos y apoyo para los Snapchatters que los necesiten. 

Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, ansiedad, depresión, estrés, pensamientos suicidas, dolor y bullying. También hemos desarrollado una página dedicada a combatir la extorsión sexual por motivos financieros y otros riesgos y daños sexuales, en un esfuerzo por apoyar a las personas en peligro.

Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, están equipados para proporcionar recursos de apoyo y prevención de autolesiones, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que está disponible públicamente para todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.

Total de veces que se han compartido recursos relacionados con el suicidio

36,162

Apelaciones

A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta por infracciones a los lineamientos de la comunidad en la primera mitad de 2025:

Motivo de política

Total de apelaciones

Total de reincorporaciones

Total de decisiones confirmadas

Tiempo medio de respuesta (días) para procesar las apelaciones

Total

437,855

22,142

415,494

1

Contenido sexual

134,358

6,175

128,035

1

Explotación y abuso sexual infantil

89,493

4,179

85,314

<1

Acoso y bullying

42,779

281

42,496

1

Amenazas y violencia

3,987

77

3,909

1

Autolesiones y suicidio

145

2

143

1

Información falsa

4

0

4

1

Suplantación de identidad

1,063

33

1,030

<1

Spam

13,730

3,140

10,590

1

Drogas

128,222

7,749

120,409

1

Armas

10,941

314

10,626

1

Otros bienes regulados

9,719

124

9,593

1

Discurso de odio

3,310

67

3,242

1

Terrorismo y extremismo violento

104

1

103

1

Descripción regional y por país

Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestros Lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la app, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.

La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.



Resumen de acciones de nuestros equipos de Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Región

Total de sanciones

Total de cuentas únicas sancionadas

América del Norte

3,468,315

2,046,888

Europa

2,815,474

1,810,223

Resto del mundo

3,390,625

1,937,090

Total

9,674,414

5,794,201

Infracciones a los Lineamientos de la comunidad denunciadas a nuestros equipos de Seguridad

Región

Reportes de cuentas y contenido

Total de sanciones

Total de cuentas únicas sancionadas

América del Norte

5,762,412

2,125,819

1,359,763

Europa

5,961,962

2,144,828

1,440,907

Resto del mundo

8,041,950

2,007,799

1,316,070

Total

19,766,324

6,278,446

4,116,740

Detección proactiva y aplicación de nuestros Lineamientos de la comunidad

Región

Total de sanciones

Total de cuentas únicas sancionadas

América del Norte

1,342,496

785,067

Europa

670,646

422,012

Resto del mundo

1,382,826

696,364

Total

3,395,968

1,709,224

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a la retroalimentación de los usuarios, que tomamos en serio. 


A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Además, puedes encontrar la galería de anuncios de Snapchat en values.snap.com, dentro de la pestaña "Transparencia".

Total de anuncios reportados

Total de anuncios eliminados

67,789

16,410