Snap Values
Informe de transparencia
1 de enero de 2025 – 30 de junio de 2025

Publicado:

1 de diciembre de 2025

Actualizado:

1 de diciembre de 2025

Publicamos este informe de transparencia dos veces al año para proporcionar una visión de los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente por lograr que estos informes sean más completos e informativos para todas las partes interesadas que se preocupan profundamente por nuestra moderación de contenido, nuestro enfoque con respecto a las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

En este Informe de transparencia se abarca el primer semestre de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre denuncias de usuarios y detección proactiva de Snap; medidas de cumplimiento por parte de nuestros equipos de Seguridad en categorías específicas de infracciones a las Pautas para la comunidad, cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos, y cómo respondemos a los avisos de infracción de derechos de autor y de marca registrada. También proporcionamos una visión específica de cada país en una serie de páginas vinculadas.

Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consultá la pestaña Acerca de los Informes de Transparencia, en la parte inferior de la página.

Tené en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad

Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a las denuncias), como se indica con más detalle en las siguientes secciones de este informe. En este ciclo de informes (1º semestre de 2025), nuestros equipos de Seguridad tomaron las siguientes cantidades de medidas de penalización:

Total de penalizaciones

Total de cuentas únicas penalizadas

9 674 414

5 794 201

A continuación se muestra un desglose por tipo de infracciones de las Pautas para la comunidad referidas, incluido el "tiempo de respuesta promedio" entre el momento en que detectamos la infracción (ya sea proactivamente o al recibir una denuncia) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:

Motivo de política

Total de penalizaciones

Total de cuentas únicas penalizadas

Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final

Contenido sexual

5 461 419

3 233 077

1

Explotación y abuso sexual de menores

1 095 424

733 106

5

Acoso y hostigamiento

713 448

594 302

3

Amenazas y violencia

187 653

146 564

3

Suicidio y autolesiones

47 643

41 216

5

Información falsa

2088

2004

1

Suplantación de identidad

7138

6881

<1

Correo no deseado

267 299

189 344

1

Drogas

1 095 765

726 251

7

Armas

251 243

173 381

1

Otros productos regulados

183 236

126 952

4

Incitación al odio

343 051

284 817

6

Terrorismo y extremismo violento

10 970

6783

2

Los datos del total de penalizaciones incluyen las penalizaciones impuestas por Snap después de revisar las denuncias dentro de la app enviadas a través de Snapchat.  Esto representa la gran mayoría de las penalizaciones impuestas por los equipos de Seguridad de Snap. Este número excluye la mayoría de las penalizaciones impuestas como resultado de investigaciones basadas en denuncias realizadas a Snap a través de nuestro Sitio de ayuda u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de algunas investigaciones proactivas realizadas por nuestros equipos de Seguridad. Estas penalizaciones excluidas representaron menos del 0,5 % del volumen de penalización en el primer semestre de 2025.

En el período de este informe, vimos una Tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %. Esto significa que de cada 10 000 visualizaciones de Snap e historias de Snap en Snapchat, 1 tenía contenido que infringía nuestras Pautas para la comunidad. Entre las penalizaciones por lo que consideramos “Daños graves”, vimos un VVR del 0,0003 % por ciento. En la siguiente tabla se proporciona un desglose de VVR por motivo de política.

Motivo de política

VVR

Contenido sexual

0,00482 %

Explotación y abuso sexual de menores

0,00096 %

Acoso y hostigamiento

0,00099 %

Amenazas y violencia

0,00176 %

Suicidio y autolesiones

0,00009 %

Información falsa

0,00002 %

Suplantación de identidad

0,00009 %

Correo no deseado

0,00060 %

Drogas

0,00047 %

Armas

0,00083 %

Otros productos regulados

0,00104 %

Incitación al odio

0,00025 %

Terrorismo y extremismo violento

0,00002 %

Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Entre el 1 de enero y el 30 de junio de 2025, en respuesta a 19 766 324 denuncias en la app de infracciones de nuestras Pautas para la comunidad, los equipos de Seguridad de Snap tomaron un total de 6 278 446 medidas de penalización en todo el mundo, incluidas penalizaciones aplicadas a 4 104 624 cuentas únicas.  Este volumen de denuncias dentro de app excluye las denuncias en el sitio de ayuda y por correo electrónico, que constituyen menos del 1 % del volumen total de denuncias.  El tiempo de respuesta promedio para que nuestros equipos de Seguridad tomen medidas de penalización en respuesta a esas denuncias fue de aproximadamente 2 minutos. A continuación, se proporciona un desglose por motivo de política. (Nota: En informes anteriores, a veces nos referimos a esto como la "categoría de denuncia".  En el futuro, usaremos el término “motivo de política", que creemos que refleja con más precisión la naturaleza de los datos, porque nuestros equipos de Seguridad se esfuerzan por penalizar de acuerdo con el motivo de la política apropiada, independientemente de la categoría de denuncia identificada por la persona que envía la denuncia).


Denuncias totales de cuentas y contenido

Total de penalizaciones

Total de cuentas únicas penalizadas

Total

19 766 324

6 278 446

4 104 624

Motivo de política

Denuncias totales de cuentas y contenido

Total de penalizaciones

Porcentaje del total de denuncias penalizadas por Snap

Total de cuentas únicas penalizadas

Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final

Contenido sexual

7 315 730

3 778 370

60,2 %

2 463 464

1

Explotación y abuso sexual de menores

1 627 097

695 679

11,1 %

577 736

10

Acoso y hostigamiento

4 103 797

700 731

11,2 %

584 762

3

Amenazas y violencia

997 346

147 162

2,3 %

120 397

2

Suicidio y autolesiones

350 775

41 150

0,7 %

36 657

3

Información falsa

606 979

2027

0,0 %

1960

1

Suplantación de identidad

745 874

7086

0,1 %

6837

<1

Correo no deseado

1 709 559

122 499

2,0 %

94 837

1

Drogas

481 830

262 962

4,2 %

176 799

5

Armas

271 586

39 366

0,6 %

32 316

1

Otros productos regulados

530 449

143 098

2,3 %

98 023

3

Incitación al odio

817 262

337 263

5,4 %

280 682

6

Terrorismo y extremismo violento

208 040

1053

0,0 %

912

2

En la primera mitad de 2025, continuamos reduciendo los tiempos de respuesta promedio en todas las categorías de políticas, reduciéndolos en un promedio de más del 75 % en comparación con el período del informe anterior, a 2 minutos. Esta reducción se debió en gran parte a un esfuerzo continuado para mejorar nuestra priorización de las denuncias sobre la base de la gravedad del daño y la revisión automatizada.

También realizamos varios cambios dirigidos a nuestros esfuerzos de seguridad en el período de informe, lo que tuvo un impacto en los datos denunciados acá, incluido el fortalecimiento de nuestras políticas sobre actividad ilícita que involucra armas. Observamos un aumento en las denuncias y las penalizaciones en la categoría de Explotación sexual infantil, que se debió principalmente a un aumento en el contenido sexualizado o sensible que involucra a menores de edad que viola nuestras políticas, pero no es ilegal en Estados Unidos ni está sujeto a denuncia al Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC). El aumento del volumen relacionado con contenido sexual (y la disminución del volumen relacionado con el hostigamiento) se debió a nuestra reclasificación de contenido asociado con hostigamiento sexual, de contenido de hostigamiento a contenido sexual.

Nuestros esfuerzos para detectar proactivamente y tomar medidas contra las infracciones de nuestras Pautas para la comunidad

Detección proactiva y cumplimiento de nuestras Pautas para la comunidad


Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas contra las infracciones a nuestras Pautas para la comunidad. Estas herramientas incluyen la tecnología de coincidencia de hash (incluidos PhotoDNA e Imágenes de abuso sexual infantil (CSAI) de Google), la API de Seguridad de contenido de Google y otra tecnología propia diseñada para detectar textos y medios ilegales e infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestros números de detección proactiva fluctúan de forma rutinaria como resultado de cambios en el comportamiento del usuario, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.

En la primera mitad de 2025, tomamos las siguientes medidas de penalización después de detectar de forma proactiva las infracciones a nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:


Total de penalizaciones

Total de cuentas únicas penalizadas

Total

3 395 968

1 709 224

Motivo de política

Total de penalizaciones

Total de cuentas únicas penalizadas

Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final

Contenido sexual

1 683 045

887 059

0

Explotación y abuso sexual de menores

399 756

162 017

2

Acoso y hostigamiento

12 716

10 412

8

Amenazas y violencia

40 489

27 662

6

Suicidio y autolesiones

6493

4638

7

Información falsa

61

44

20

Suplantación de identidad

52

44

34

Correo no deseado

144 800

96 500

0

Drogas

832 803

578 738

7

Armas

211 877

144 455

0

Otros productos regulados

40 139

31 408

8

Incitación al odio

5788

4518

6

Terrorismo y extremismo violento

9917

5899

5

Lucha contra la explotación y abuso sexual de menores

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.

Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de hash (incluido PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de contenido de Google (para identificar imágenes ilegales novedosas y "nunca antes hasheadas"). Además, en algunos casos, utilizamos señales de comportamiento para tomar medidas contra otra actividad sospechosa de CSEA. Denunciamos el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de EE. UU., tal como lo requiere la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.

En la primera mitad de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir una denuncia):

Total de contenido penalizado

Total de cuentas deshabilitadas

Envíos totales al NCMEC*

994 337

187 387

321 587

*Tené en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro contenido total penalizado.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesitan

Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapchatters que los necesitan. 

Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. También desarrollamos una página dedicada a combatir la extorsión sexual por motivos financieros y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentran en peligro.

Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, están equipados para proporcionar recursos de prevención de autolesiones y apoyo, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que se encuentra a disposición de todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.

Cantidad total de veces que fueron compartidos recursos para la prevención de suicidios

36 162

Apelaciones

A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la primera mitad de 2025:

Motivo de política

Total de apelaciones

Total de restablecimientos

Total de decisiones confirmadas

Tiempo de entrega promedio (días) para procesar las apelaciones

Total

437 855

22 142

415 494

1

Contenido sexual

134 358

6175

128 035

1

Explotación y abuso sexual de menores*

89 493

4179

85 314

<1

Acoso y hostigamiento

42 779

281

42 496

1

Amenazas y violencia

3987

77

3909

1

Suicidio y autolesiones

145

2

143

1

Información falsa

4

0

4

1

Suplantación de identidad

1063

33

1030

<1

Correo no deseado

13 730

3140

10 590

1

Drogas

128 222

7749

120 409

1

Armas

10 941

314

10 626

1

Otros productos regulados

9719

124

9593

1

Incitación al odio

3310

67

3242

1

Terrorismo y extremismo violento

104

1

103

1

Descripción General Regional y del País

Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias en la aplicación de infracciones, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad rigen todo el contenido en Snapchat (y a todos los Snapchatters) en todo el mundo, independientemente de la ubicación.

La información para países individuales, incluidos todos los Estados Miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.



Acciones de nuestros Equipos de Seguridad para hacer cumplir las Pautas para la comunidad

Región

Total de penalizaciones

Total de cuentas únicas penalizadas

América del Norte

3 468 315

2 046 888

Europa

2 815 474

1 810 223

Resto del Mundo

3 390 625

1 937 090

Total

9 674 414

5 794 201

Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Seguridad

Región

Denuncias de cuentas y contenido

Total de penalizaciones

Total de cuentas únicas penalizadas

América del Norte

5 762 412

2 125 819

1 359 763

Europa

5 961 962

2 144 828

1 440 907

Resto del Mundo

8 041 950

2 007 799

1 316 070

Total

19 766 324

6 278 446

4 116 740

Detección proactiva y cumplimiento de nuestras Pautas para la comunidad

Región

Total de penalizaciones

Total de cuentas únicas penalizadas

América del Norte

1 342 496

785 067

Europa

670 646

422 012

Resto del Mundo

1 382 826

696 364

Total

3 395 968

1 709 224

Moderación de Anuncios

Snap se compromete a garantizar que todos los anuncios cumplan totalmente con nuestras normas de publicidad. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que tomamos en serio. 


A continuación hemos incluido información sobre nuestra moderación para los anuncios de pago que se nos informan después de su publicación en Snapchat. Tené en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Normas de publicidad de Snap, que incluyen contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e infracción de la propiedad intelectual. Además, podés encontrar la Galería de Anuncios de Snapchat en values.snap.com en la pestaña “Transparencia”.

Total de anuncios denunciados

Total de anuncios eliminados

67 789

16 410