Snap Values
Informe de transparencia
1 de julio de 2024 - 31 de diciembre de 2024

Publicado:

20 de junio de 2025

Actualizado:

1 de julio de 2025

Publicamos este informe de transparencia dos veces al año para proporcionar información sobre las iniciativas de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que están profundamente preocupadas por nuestra moderación de contenido, las prácticas de aplicación de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este informe de transparencia comprende el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de control de nuestros equipos de Seguridad en categorías específicas de infracciones de las Pautas para la comunidad; cómo respondimos a las solicitudes de las autoridades y los gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas registradas. También ofrecemos información específica de cada país en una serie de páginas vinculadas.

Para encontrar recursos adicionales de seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los Informes de transparencia en la parte inferior de la página.

Ten en cuenta que la versión más actualizada de este informe de transparencia es la versión en inglés.

Resumen de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad

Nuestros equipos de seguridad aplican nuestras Pautas para la comunidad, tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a los informes), como se detalla en las siguientes secciones de este informe. En este ciclo de informes (segundo semestre de 2024) nuestros equipos de seguridad tomaron los siguientes números de medidas de intervención:

Total de medidas tomadas

Total de cuentas únicas intervenidas

10 032 110

5 698 212

A continuación se muestra un desglose por tipo de infracciones correspondientes a las Pautas para la comunidad, lo que incluye el «tiempo de respuesta» medio entre el momento en que se detecta el incumplimiento (ya sea de forma proactiva o al recibir un informe) y el momento en que se toma una acción final sobre el contenido relevante o la cuenta:

Razón de la política

Total de medidas tomadas

Total de cuentas únicas penalizadas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

3 860 331

2 099 512

2

Explotación sexual infantil

961 359

577 682

23

Acoso y acoso virtual

2 716 966

2 019 439

7

Amenazas y violencia

199 920

156 578

8

Autolesiones y suicidio

15 910

14 445

10

Información falsa

6539

6176

1

Suplantación de identidad

8798

8575

2

Spam

357 999

248 090

1

Drogas

1 113 629

718 952

6

Armas

211 860

136 953

1

Otros bienes regulados

247 535

177 643

8

Discurso de odio

324 478

272 025

27

Terrorismo y extremismo violento

6786

4010

5

Durante el período del informe, hemos observado una Tasa de visualización infractora (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, 1 incluía contenido que infringía nuestras Pautas para la comunidad.

Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Del 1 de julio al 31 de diciembre de 2024, en respuesta a los informes internos de la aplicación sobre violaciones de nuestras Pautas de la comunidad, los equipos de seguridad de Snap adoptaron un total de 6 346 508 medidas de cumplimiento a nivel mundial, incluidas medidas contra 4 075 838 cuentas únicas. El tiempo medio de respuesta para que nuestros equipos de Seguridad adoptaran medidas de cumplimiento en respuesta a esos informes fue de ~6 minutos. A continuación, se ofrece un desglose por categoría de informe.

Contenido total e informes de cuentas

Total de medidas tomadas

Total de ejecuciones de medidas de cumplimiento contra cuentas únicas

19 379 848

6 346 508

4 075 838

Razón de la política

Informes de contenido y de cuentas

Total de ejecuciones de medidas de cumplimiento

% del total de informes intervenidos por Snap

Total de cuentas únicas intervenidas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

5 251 375

2 042 044

32,20%

1 387 749

4

Explotación sexual infantil

1 224 502

469 389

7,40%

393 384

133

Acoso y acoso virtual

6 377 555

2 702 024

42,60%

2 009 573

7

Amenazas y violencia

1 000 713

156 295

2,50%

129 077

8

Autolesiones y suicidio

307 660

15 149

0,20 %

13 885

10

Información falsa

536 886

6 454

0,10 %

6 095

1

Suplantación de identidad

678 717

8 790

0,10 %

8 569

2

Spam

1 770 216

180 849

2,80 %

140 267

1

Drogas

418 431

244 451

3,90 %

159 452

23

Armas

240 767

6473

0,10 %

5 252

1

Otros bienes regulados

606 882

199 255

3,10 %

143 560

8

Discurso de odio

768 705

314 134

4,90 %

263 923

27

Terrorismo y extremismo violento

197 439

1 201

<0,1 %

1093

4

En comparación con el periodo de informes anterior, redujimos los tiempos de respuesta medios en todas las categorías de políticas en una media del 90 %. Esta reducción se debió en gran parte a un esfuerzo concertado para ampliar nuestra capacidad de revisión, así como para mejorar nuestra prioridad de informes en función de la gravedad de los daños. También hemos realizado varios cambios específicos en nuestros esfuerzos de seguridad en el periodo de informes, lo que tuvo un impacto en los datos aquí mostrados, incluida la expansión de nuestros esfuerzos para hacer cumplir las cuentas de nombres de usuario y nombres visibles que infringen nuestras Pautas para la comunidad en Snapchat, así como la introducción de opciones de informes para tipos de medios adicionales, como notas de voz, dirigidas directamente para nosotros en la aplicación. 

Estos cambios, así como otras iniciativas de seguridad y fuerzas externas, afectaron de manera particular a ciertas áreas de políticas en comparación con el periodo de informes anterior. Estas categorías de políticas incluyen: contenido relacionado con sospechas de explotación y abuso sexual infantil (CSEA, por sus siglas en inglés), Información falsa perjudicial y Spam. Específicamente:

  • CSEA: en el segundo trimestre de 2024, observamos una disminución del 12 % en los informes relacionados con CSEA y redujimos nuestro tiempo medio de respuesta para responder a los CSEA notificados en un 99 %. Estas tendencias están impulsadas en gran parte por los avances continuos en nuestros esfuerzos de detección proactiva, lo que nos ha permitido eliminar contenido de CSEA antes de que se nos pueda informar, así como las mejoras que hemos realizado en nuestros procesos para revisar y adoptar medidas sobre los informes de CSEA de forma más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es mayor que en otras áreas de políticas, ya que el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo seleccionado de agentes especialmente capacitados.

  • Información falsa perjudicial: hemos observado un aumento del 26 % en el volumen notificado de informes relacionados con Información falsa perjudicial, impulsado en su mayoría por acontecimientos políticos, incluidas las elecciones en Estados Unidos de noviembre de 2024.

  • Spam: en este periodo de informes, hemos visto una disminución del 50 % en el total de las medidas de control y una disminución del 46 % en el total de cuentas únicas aplicadas en respuesta a los informes de sospecha de spam, lo que refleja mejoras en nuestras herramientas de detección proactiva y aplicación de estas. Esta es una continuación de nuestros esfuerzos para bordar el spam a través de señales en cuentas, y eliminar a los autores de spam más rápido en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último periodo de informes, durante el cual, el total de las medidas de control y el total de cuentas únicas aplicadas en relación con el spam disminuyeron un 65 % y un 60 %, respectivamente.

Nuestros esfuerzos para detectar de forma proactiva y hacer cumplir las medidas contra las infracciones de nuestras Pautas para la comunidad

Detección proactiva y aplicación de nuestras Pautas para la comunidad


Empleamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir las normas contra la violación de nuestras Pautas para la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluidas PhotoDNA y CSAI Match de Google), la API de seguridad de contenido de Google y otras tecnologías personalizadas diseñadas para detectar textos y medios abusivos,  a veces aprovechando la inteligencia artificial y el aprendizaje automático. 

En la segunda mitad de 2024, adoptamos las siguientes medidas de cumplimiento tras detectar de forma proactiva violaciones de nuestras Pautas para la comunidad mediante herramientas de detección automatizada:

Total de ejecuciones de medidas de cumplimiento

Total de ejecuciones de medidas de cumplimiento contra cuentas únicas

3 685 602

1 845 125

Razón de la política

Total de medidas tomadas

Total de cuentas únicas penalizadas

Tiempo medio de respuesta (minutos) desde la detección hasta la acción final

Contenido sexual

1 818 287

828 590

<1

Explotación sexual infantil

491 970

188 877

1

Acoso y acoso virtual

14 942

11 234

8

Amenazas y violencia

43 625

29 599

9

Autolesiones y suicidio

761

624

9

Información falsa

85

81

10

Suplantación de identidad

8

6

19

Spam

177 150

110 551

<1

Drogas

869 178

590 658

5

Armas

205 387

133 079

<1

Otros bienes regulados

48 280

37 028

9

Discurso de odio

10 344

8 683

10

Terrorismo y extremismo violento

5 585

2 951

21

Lucha contra la explotación y el abuso sexual a menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la Comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.

Usamos herramientas de detección de tecnología activa para identificar contenido relacionado con CSEA. Entre estas se incluyen herramientas de comparativa de hash (entre ellas PhotoDNA y CSAI Match de Google, para identificar imágenes y vídeos ilegales conocidos de CSEA, respectivamente) y la API de seguridad de contenido de Google (para identificar imágenes ilegales nuevas "nunca antes procesadas". Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir la ley frente a otras actividades sospechosas de CSEA. Informamos sobre el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC, por sus siglas en inglés), tal como lo exige la ley. Luego, el NCMEC coordina con las autoridades policiales nacionales o internacionales, según resulte necesario.

En la segunda mitad de 2024, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea de forma proactiva o al recibir un informe):


Contenido total intervenido

Total de cuentas inhabilitadas,

Total de envíos a NCMEC*

1 228 929

242 306

417 842

*Ten en cuenta que cada envío a NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviados a NCMEC es igual a nuestro contenido intervenido total.

Nuestras iniciativas para proporcionar recursos y apoyo a los Snapfans que lo necesitan

Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapfans que lo necesiten.

Nuestra herramienta de búsqueda Here For You ofrece  recursos de expertos para aquellos usuarios que buscan temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la extorsión sexual, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente para todos los Snapfans en nuestro Centro de Privacidad, Seguridad y Políticas. 
Cuando nuestros equipos de Seguridad detectan que un Snapfan está en problemas, están equipados para ofrecer  recursos de prevención de autolesiones y ayuda, así como para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos se encuentran disponibles en nuestra lista global de recursos de seguridad, disponible para todos los Snapfans.

Total de veces que se han compartido los recursos contra el suicidio

64 094

Apelaciones

A continuación, facilitamos información sobre las apelaciones recibidas de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la segunda mitad de 2024:

Razón de la política

Total de apelaciones

Total de restablecimientos

Total de decisiones confirmadas

Tiempo medio de respuesta (días) para procesar apelaciones

TOTAL

493 782

35 243

458 539

5

Contenido sexual

162 363

6 257

156 106

4

Explotación sexual infantil

102 585

15 318

87 267

6

Acoso y acoso virtual

53 200

442

52 758

7

Amenazas y violencia

4 238

83

4 155

5

Autolesiones y suicidio

31

1

30

5

Información falsa

3

0

3

<1

Suplantación de identidad

847

33

814

7

Spam

19 533

5 090

14 443

9

Drogas

133 478

7 598

125 880

4

Armas

4 678

136

4 542

6

Otros bienes regulados

9 153

168

8 985

6

Discurso de odio

3 541

114

3 427

7

Terrorismo y extremismo violento

132

3

129

9

Descripción general por regiones y países

Esta sección ofrece una visión general de las medidas adoptadas por nuestros equipos de Seguridad para la aplicación de nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a los informes de violaciones realizados en la aplicación, en una muestra seleccionada de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.


Descripción general de las acciones de nuestros Equipos de Seguridad para hacer cumplir nuestras Pautas para la Comunidad 

Región

Total de medidas tomadas

Total de cuentas únicas intervenidas

Norteamérica

3 828 389

2 117 048

Europa

2 807 070

1 735 054

Resto del mundo

3 396 651

1 846 110

Total

10 032 110

5 698 212

Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Seguridad

Región

Informes de contenido y de cuentas

Total de ejecuciones de medidas de cumplimiento

Total de cuentas únicas intervenidas

Norteamérica

5 916 815

2 229 465

1 391 304

Europa

5 781 317

2 085 109

1 378 883

Resto del mundo

7 681 716

2 031 934

1 319 934

Total

19 379 848

6 346 508

4 090 121

Detección proactiva y aplicación de nuestras Pautas para la comunidad

Total de medidas tomadas

Total de ejecuciones de medidas de cumplimiento contra cuentas únicas

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas de publicidad. Creemos en un enfoque responsable de la publicidad para ofrecer una experiencia segura para todos los Snapfans. Todos los anuncios estarán sujetos a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio. 


A continuación hemos incluido información sobre nuestra moderación de ciertos anuncios de pago de los que recibimos denuncias tras su publicación en Snapchat. Ten en cuenta que los anuncios de Snapchat pueden eliminarse por diversos motivos, tal y como se indica en las Políticas de publicidad de Snap, entre ellos, contenidos engañosos, contenidos para adultos, contenidos violentos o inquietantes, incitación al odio e infracción de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en el hub de transparencia de Snap, directamente accesible a través de la barra de navegación.

Total de anuncios denunciados

Total de anuncios eliminados

43 098

17 833