Snap Values
Informe de transparencia
1 de enero de 2025 – 30 de junio de 2025

Publicado:

1 de diciembre de 2025

Actualizado:

1 de diciembre de 2025

Publicamos este informe de transparencia dos veces al año para dar a conocer los esfuerzos de Snap en materia de seguridad. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestra moderación de contenidos, nuestro enfoque en cuanto al cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este informe de transparencia abarca el primer semestre de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre las denuncias de los usuarios y la detección proactiva por parte de Snap; las medidas de nuestros equipos de seguridad en las categorías específicas de infracciones de las Pautas para la comunidad; cómo hemos respondido a las solicitudes de las fuerzas de seguridad y de los gobiernos; y cómo hemos respondido a las notificaciones de infracción de los derechos de autor y de marcas registradas. También proporcionamos información específica de cada país en una serie de páginas

Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia al final de la página.

Ten en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.

Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad

Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad de forma proactiva (a través del uso de herramientas de detección automatizada) y de forma reactiva (en respuesta a las denuncias), como se detalla en las siguientes secciones de este informe. En este ciclo de evaluación (primer semestre de 2025), nuestros equipos de seguridad tomaron las siguientes medidas de cumplimiento:

Total de medidas tomadas

Total de cuentas únicas intervenidas

9 674 414

5 794 201

A continuación figura un desglose por tipo de infracción de las Pautas para la comunidad, incluido el tiempo medio transcurrido entre el momento en que detectamos el incumplimiento (de forma proactiva o tras recibir una denuncia) y el momento en que tomamos medidas definitivas sobre el contenido o la cuenta en cuestión:

Motivo de la política

Total de medidas tomadas

Total de cuentas únicas intervenidas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

5 461 419

3 233 077

1

Explotación y abuso sexual de menores

1 095 424

733 106

5

Acoso y hostigamiento

713 448

594 302

3

Amenazas y violencia

187 653

146 564

3

Autolesiones y suicidio

47 643

41 216

5

Información falsa

2088

2004

1

Suplantación de identidad

7138

6881

<1

Spam

267 299

189 344

1

Drogas

1 095 765

726 251

7

Armas

251 243

173 381

1

Otros bienes regulados

183 236

126 952

4

Discurso de odio

343 051

284 817

6

Terrorismo y extremismo violento

10 970

6783

2

Los datos del total de medidas de cumplimiento incluyen las medidas de cumplimiento tomadas por Snap tras de la revisión de denuncias en la aplicación enviadas a través de Snapchat.  Esto representa la gran mayoría de las medidas de cumplimiento adoptadas por los equipos de seguridad de Snap. Este número excluye la mayoría de las medidas de cumplimiento tomadas como resultado de investigaciones basadas en denuncias enviadas a Snap a través de nuestro Sitio de ayuda u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de ciertas investigaciones proactivas realizadas por nuestros equipos de seguridad. Estas medidas de cumplimiento excluidas representaron menos del 0,5 % del volumen de cumplimiento en la primera mitad de 2025.

Durante el periodo del informe, hemos visto una tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historias en Snapchat, una incluía contenido que infringía nuestras Pautas para la comunidad. Entre las medidas de cumplimiento para lo que consideramos «Daños graves», se observó una VVR del 0,0003 %. En la tabla a continuación se proporciona un desglose de las VVR según motivo previsto en las políticas.

Motivo de la política

Tasa de visualización de contenido infractor (VVR)

Contenido sexual

0,00482 %

Explotación y abuso sexual de menores

0,00096 %

Acoso y hostigamiento

0,00099 %

Amenazas y violencia

0,00176 %

Autolesiones y suicidio

0,00009 %

Información falsa

0,00002 %

Suplantación de identidad

0,00009 %

Spam

0,00060 %

Drogas

0,00047 %

Armas

0,00083 %

Otros bienes regulados

0,00104 %

Discurso de odio

0,00025 %

Terrorismo y extremismo violento

0,00002 %

Infracciones de las Pautas para la comunidad comunicadas a nuestros Equipos de confianza y seguridad

Del 1 de enero al 30 de junio de 2025, en respuesta a las denuncias de Pautas para la comunidad, los equipos de Seguridad de Snap han tomado un total de 6 278 446 medidas de cumplimiento a nivel mundial, incluidas las medidas de cumplimiento contra 4 104 624 cuentas únicas.  Este volumen de denuncias en la aplicación no incluye las denuncias a través del sitio de ayuda y por correo electrónico, que representan menos del 1 % del volumen total de denuncias.  El tiempo medio que tardaron nuestros equipos de Seguridad en tomar medidas de cumplimiento en respuesta a esos informes fue de unos 2 minutos. A continuación se proporciona un desglose por motivos contemplados en las políticas. (Nota: en informes anteriores, a veces nos referimos a esto como la «categoría de denuncia») En el futuro, utilizaremos el término «motivo contemplado en las políticas»  que nos parece que refleja con mayor precisión la naturaleza de los datos, porque nuestros equipos de seguridad se esfuerzan por adoptar medidas de cumplimiento con arreglo al motivo pertinente contemplado en las políticas, independientemente de la categoría de denuncia identificada por la persona que envía la denuncia).


Total de denuncias contra contenidos y cuentas

Total de medidas tomadas

Total de cuentas únicas intervenidas

Total

19 766 324

6 278 446

4 104 624

Motivo de la política

Total de denuncias contra contenidos y cuentas

Total de medidas tomadas

Porcentaje del total de denuncias sobre las que Snap ha intervenido

Total de cuentas únicas intervenidas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

7 315 730

3 778 370

60,2 %

2 463 464

1

Explotación y abuso sexual de menores

1 627 097

695 679

11.1 %

577 736

10

Acoso y hostigamiento

4 103 797

700 731

11.2 %

584 762

3

Amenazas y violencia

997 346

147 162

2.3 %

120 397

2

Autolesiones y suicidio

350 775

41 150

0,7 %

36 657

3

Información falsa

606 979

2027

0,0 %

1960

1

Suplantación de identidad

745 874

7086

0,1 %

6837

<1

Spam

1 709 559

122 499

2,0 %

94 837

1

Drogas

481 830

262 962

4.2 %

176 799

5

Armas

271 586

39 366

0,6 %

32 316

1

Otros bienes regulados

530 449

143 098

2.3 %

98 023

3

Discurso de odio

817 262

337 263

5,4 %

280 682

6

Terrorismo y extremismo violento

208 040

1053

0,0 %

912

2

En el primer semestre de 2025, seguimos reduciendo los tiempos de respuesta medios en todas las categorías de políticas, lo que significa que se redujeron en una media de más del 75 % en comparación con el período de evaluación anterior, hasta llegar a 2 minutos. Esta reducción es debida en gran parte a un esfuerzo coordinado continuo para mejorar nuestra priorización de la revisión de denuncias según la gravedad de los daños y las revisiones automatizadas.

También realizamos varios cambios específicos en nuestras iniciativas de seguridad durante el período de evaluación, lo que tuvo un impacto en los datos contenidos en el presente informe, incluido el fortalecimiento de nuestras políticas sobre actividades ilícitas con armas. Observamos un aumento en el número de denuncias y medidas de cumplimiento en la categoría de explotación sexual de menores, impulsado principalmente por un aumento en el contenido sexualizado o sensible que involucra a menores, que infringe nuestras políticas pero no es ilegal en los EE. UU. ni está sujeto a denuncia ante el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). El aumento de volumen relativo a Contenido sexual (y la disminución del volumen relativo al Acoso) se debe a nuestra reclasificación del contenido asociado al Acoso sexual como Contenido sexual en vez de como Acoso.

Nuestros esfuerzos para detectar y hacer cumplir de forma proactiva las infracciones de nuestras Pautas para la comunidad

Detección proactiva y aplicación de nuestras Pautas para la comunidad


Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas en contra de las infracciones de nuestras Pautas para la comunidad. Estas herramientas incluyen la tecnología de coincidencia de valores hash (incluyendo PhotoDNA e Iimágenes de explotación y abuso sexual a menores —CSAI, según sus siglas en inglés— de Google), la API de seguridad de contenidos de Google y otras tecnologías exclusivas diseñadas para detectar textos y redes ilegales e infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestras cifras de detección proactiva fluctúan habitualmente a resultas de cambios en el comportamiento de los usuarios, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.

En el primer semestre de 2025, hemos tomado las siguientes medidas de cumplimiento después de detectar de forma proactiva infracciones de nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:


Total de medidas tomadas

Total de cuentas únicas intervenidas

Total

3 395 968

1 709 224

Motivo de la política

Total de medidas tomadas

Total de cuentas únicas intervenidas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

1 683 045

887 059

0

Explotación y abuso sexual de menores

399 756

162 017

2

Acoso y hostigamiento

12 716

10 412

8

Amenazas y violencia

40 489

27 662

6

Autolesiones y suicidio

6493

4638

7

Información falsa

61

44

20

Suplantación de identidad

52

44

34

Spam

144 800

96 500

0

Drogas

832 803

578 738

7

Armas

211 877

144 455

0

Otros bienes regulados

40 139

31 408

8

Discurso de odio

5788

4518

6

Terrorismo y extremismo violento

9917

5899

5

Cómo combatir la explotación y el abuso sexual de menores

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las CSEA (imágenes de explotación y abuso sexual a menores, en inglés) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de valores hash (incluyendo PhotoDNA y CSAI Match de Google, para identificar imágenes ilegales conocidas y videos de CSEA —siglas en inglés para «imágenes de explotación y abuso sexual a menores»—, respectivamente) y la API de seguridad de contenidos de Google (para identificar imágenes ilegales nuevas «nunca antes codificadas con hash»). Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir otras actividades sospechosas de CSEA. Informamos de los contenidos relacionados con la CSEA al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), tal como exige la ley. El NCMEC se coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.

En el primer semestre de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya fuera de forma proactiva o mediante denuncia previa):

Total de contenido intervenido

Total de cuentas deshabilitadas

Envíos totales al NCMEC*

994 337

187 387

321 587

*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de contenidos particulares de medios enviados al NCMEC es igual a nuestro total de contenido regulado.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters en necesidad

Snapchat permite a los amigos ayudarse mutuamente en los momentos difíciles, proporcionando recursos y apoyo a los Snapchatters que lo necesiten. 

Nuestra herramienta de búsqueda Here for You proporciona recursos creados por expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el duelo y el acoso. También hemos desarrollado una página dedicada a combatir la extorsión sexual con motivación económica y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentren en apuros.

Cuando nuestros equipos de seguridad se dan cuenta de que un Snapchatter se encuentra en apuros, están equipados para procurar la prevención de autolesiones y proporcionar recursos de apoyo, así como para notificar de ello a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, que está disponible públicamente para todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.

Total de veces que se han compartido recursos sobre el suicidio

36 162

Apelaciones

A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta en el primer semestre de 2025:

Motivo de la política

Total de apelaciones

Total de reintegraciones

Total de decisiones confirmadas

Tiempo medio de respuesta (días) para procesar las apelaciones

Total

437 855

22 142

415 494

1

Contenido sexual

134 358

6175

128 035

1

Explotación y abuso sexual de menores

89 493

4179

85 314

<1

Acoso y hostigamiento

42 779

281

42 496

1

Amenazas y violencia

3987

77

3909

1

Autolesiones y suicidio

145

2

143

1

Información falsa

4

0

4

1

Suplantación de identidad

1063

33

1030

<1

Spam

13 730

3140

10 590

1

Drogas

128 222

7749

120 409

1

Armas

10 941

314

10 626

1

Otros bienes regulados

9719

124

9593

1

Discurso de odio

3310

67

3242

1

Terrorismo y extremismo violento

104

1

103

1

Descripción general regional y por país

Esta sección ofrece una descripción general de las acciones de nuestros equipos de seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias de infracciones en la aplicación, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todos los contenidos de Snapchat, y a todos los Snapchatters, en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.



Resumen de medidas adoptadas por los Equipos de seguridad para hacer cumplir las Pautas para la Comunidad 

Región

Total de medidas tomadas

Total de cuentas únicas intervenidas

Norteamérica

3 468 315

2 046 888

Europa

2 815 474

1 810 223

Resto del mundo

3 390 625

1 937 090

Total

9 674 414

5 794 201

Infracciones de las Pautas para la comunidad comunicadas a nuestros Equipos de confianza y seguridad

Región

Denuncias contra contenidos y cuentas

Total de medidas tomadas

Total de cuentas únicas intervenidas

Norteamérica

5 762 412

2 125 819

1 359 763

Europa

5 961 962

2 144 828

1 440 907

Resto del mundo

8 041 950

2 007 799

1 316 070

Total

19 766 324

6 278 446

4 116 740

Detección proactiva y aplicación de nuestras Pautas para la comunidad

Región

Total de medidas tomadas

Total de cuentas únicas intervenidas

Norteamérica

1 342 496

785 067

Europa

670 646

422 012

Resto del mundo

1 382 826

696 364

Total

3 395 968

1 709 224

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras normas de publicidad. Creemos en un enfoque responsable de la publicidad, creando una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho a eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio. 


A continuación incluimos información sobre nuestra moderación de los anuncios de pago que nos llegan tras su publicación en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Normas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, puedes encontrar la Galería de anuncios de Snapchat en values.snap.com en la pestaña "Transparencia".

Total de anuncios denunciados

Total de anuncios retirados

67 789

16 410