20 de junio de 2025
1 de julio de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar información sobre las iniciativas de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que están profundamente preocupadas por nuestra moderación de contenido, las prácticas de aplicación de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este informe de transparencia comprende el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de control de nuestros equipos de Seguridad en categorías específicas de infracciones de las Pautas para la comunidad; cómo respondimos a las solicitudes de las autoridades y los gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas registradas. También ofrecemos información específica de cada país en una serie de páginas vinculadas.
Para encontrar recursos adicionales de seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los Informes de transparencia en la parte inferior de la página.
Ten en cuenta que la versión más actualizada de este informe de transparencia es la versión en inglés.
Resumen de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de seguridad aplican nuestras Pautas para la comunidad, tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a los informes), como se detalla en las siguientes secciones de este informe. En este ciclo de informes (segundo semestre de 2024) nuestros equipos de seguridad tomaron los siguientes números de medidas de intervención:
Total de medidas tomadas
Total de cuentas únicas intervenidas
10 032 110
5 698 212
A continuación se muestra un desglose por tipo de infracciones correspondientes a las Pautas para la comunidad, lo que incluye el «tiempo de respuesta» medio entre el momento en que se detecta el incumplimiento (ya sea de forma proactiva o al recibir un informe) y el momento en que se toma una acción final sobre el contenido relevante o la cuenta:
Razón de la política
Total de medidas tomadas
Total de cuentas únicas penalizadas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
3 860 331
2 099 512
2
Explotación sexual infantil
961 359
577 682
23
Acoso y acoso virtual
2 716 966
2 019 439
7
Amenazas y violencia
199 920
156 578
8
Autolesiones y suicidio
15 910
14 445
10
Información falsa
6539
6176
1
Suplantación de identidad
8798
8575
2
Spam
357 999
248 090
1
Drogas
1 113 629
718 952
6
Armas
211 860
136 953
1
Otros bienes regulados
247 535
177 643
8
Discurso de odio
324 478
272 025
27
Terrorismo y extremismo violento
6786
4010
5
Durante el período del informe, hemos observado una Tasa de visualización infractora (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, 1 incluía contenido que infringía nuestras Pautas para la comunidad.
Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Del 1 de julio al 31 de diciembre de 2024, en respuesta a los informes internos de la aplicación sobre violaciones de nuestras Pautas de la comunidad, los equipos de seguridad de Snap adoptaron un total de 6 346 508 medidas de cumplimiento a nivel mundial, incluidas medidas contra 4 075 838 cuentas únicas. El tiempo medio de respuesta para que nuestros equipos de Seguridad adoptaran medidas de cumplimiento en respuesta a esos informes fue de ~6 minutos. A continuación, se ofrece un desglose por categoría de informe.
Contenido total e informes de cuentas
Total de medidas tomadas
Total de ejecuciones de medidas de cumplimiento contra cuentas únicas
19 379 848
6 346 508
4 075 838
Razón de la política
Informes de contenido y de cuentas
Total de ejecuciones de medidas de cumplimiento
% del total de informes intervenidos por Snap
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
5 251 375
2 042 044
32,20%
1 387 749
4
Explotación sexual infantil
1 224 502
469 389
7,40%
393 384
133
Acoso y acoso virtual
6 377 555
2 702 024
42,60%
2 009 573
7
Amenazas y violencia
1 000 713
156 295
2,50%
129 077
8
Autolesiones y suicidio
307 660
15 149
0,20 %
13 885
10
Información falsa
536 886
6 454
0,10 %
6 095
1
Suplantación de identidad
678 717
8 790
0,10 %
8 569
2
Spam
1 770 216
180 849
2,80 %
140 267
1
Drogas
418 431
244 451
3,90 %
159 452
23
Armas
240 767
6473
0,10 %
5 252
1
Otros bienes regulados
606 882
199 255
3,10 %
143 560
8
Discurso de odio
768 705
314 134
4,90 %
263 923
27
Terrorismo y extremismo violento
197 439
1 201
<0,1 %
1093
4
En comparación con el periodo de informes anterior, redujimos los tiempos de respuesta medios en todas las categorías de políticas en una media del 90 %. Esta reducción se debió en gran parte a un esfuerzo concertado para ampliar nuestra capacidad de revisión, así como para mejorar nuestra prioridad de informes en función de la gravedad de los daños. También hemos realizado varios cambios específicos en nuestros esfuerzos de seguridad en el periodo de informes, lo que tuvo un impacto en los datos aquí mostrados, incluida la expansión de nuestros esfuerzos para hacer cumplir las cuentas de nombres de usuario y nombres visibles que infringen nuestras Pautas para la comunidad en Snapchat, así como la introducción de opciones de informes para tipos de medios adicionales, como notas de voz, dirigidas directamente para nosotros en la aplicación.
Estos cambios, así como otras iniciativas de seguridad y fuerzas externas, afectaron de manera particular a ciertas áreas de políticas en comparación con el periodo de informes anterior. Estas categorías de políticas incluyen: contenido relacionado con sospechas de explotación y abuso sexual infantil (CSEA, por sus siglas en inglés), Información falsa perjudicial y Spam. Específicamente:
CSEA: en el segundo trimestre de 2024, observamos una disminución del 12 % en los informes relacionados con CSEA y redujimos nuestro tiempo medio de respuesta para responder a los CSEA notificados en un 99 %. Estas tendencias están impulsadas en gran parte por los avances continuos en nuestros esfuerzos de detección proactiva, lo que nos ha permitido eliminar contenido de CSEA antes de que se nos pueda informar, así como las mejoras que hemos realizado en nuestros procesos para revisar y adoptar medidas sobre los informes de CSEA de forma más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es mayor que en otras áreas de políticas, ya que el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo seleccionado de agentes especialmente capacitados.
Información falsa perjudicial: hemos observado un aumento del 26 % en el volumen notificado de informes relacionados con Información falsa perjudicial, impulsado en su mayoría por acontecimientos políticos, incluidas las elecciones en Estados Unidos de noviembre de 2024.
Spam: en este periodo de informes, hemos visto una disminución del 50 % en el total de las medidas de control y una disminución del 46 % en el total de cuentas únicas aplicadas en respuesta a los informes de sospecha de spam, lo que refleja mejoras en nuestras herramientas de detección proactiva y aplicación de estas. Esta es una continuación de nuestros esfuerzos para bordar el spam a través de señales en cuentas, y eliminar a los autores de spam más rápido en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último periodo de informes, durante el cual, el total de las medidas de control y el total de cuentas únicas aplicadas en relación con el spam disminuyeron un 65 % y un 60 %, respectivamente.
Nuestros esfuerzos para detectar de forma proactiva y hacer cumplir las medidas contra las infracciones de nuestras Pautas para la comunidad
Empleamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir las normas contra la violación de nuestras Pautas para la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluidas PhotoDNA y CSAI Match de Google), la API de seguridad de contenido de Google y otras tecnologías personalizadas diseñadas para detectar textos y medios abusivos, a veces aprovechando la inteligencia artificial y el aprendizaje automático.
En la segunda mitad de 2024, adoptamos las siguientes medidas de cumplimiento tras detectar de forma proactiva violaciones de nuestras Pautas para la comunidad mediante herramientas de detección automatizada:
Total de ejecuciones de medidas de cumplimiento
Total de ejecuciones de medidas de cumplimiento contra cuentas únicas
3 685 602
1 845 125
Razón de la política
Total de medidas tomadas
Total de cuentas únicas penalizadas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
1 818 287
828 590
<1
Explotación sexual infantil
491 970
188 877
1
Acoso y acoso virtual
14 942
11 234
8
Amenazas y violencia
43 625
29 599
9
Autolesiones y suicidio
761
624
9
Información falsa
85
81
10
Suplantación de identidad
8
6
19
Spam
177 150
110 551
<1
Drogas
869 178
590 658
5
Armas
205 387
133 079
<1
Otros bienes regulados
48 280
37 028
9
Discurso de odio
10 344
8 683
10
Terrorismo y extremismo violento
5 585
2 951
21
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la Comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.
Usamos herramientas de detección de tecnología activa para identificar contenido relacionado con CSEA. Entre estas se incluyen herramientas de comparativa de hash (entre ellas PhotoDNA y CSAI Match de Google, para identificar imágenes y vídeos ilegales conocidos de CSEA, respectivamente) y la API de seguridad de contenido de Google (para identificar imágenes ilegales nuevas "nunca antes procesadas". Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir la ley frente a otras actividades sospechosas de CSEA. Informamos sobre el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC, por sus siglas en inglés), tal como lo exige la ley. Luego, el NCMEC coordina con las autoridades policiales nacionales o internacionales, según resulte necesario.
En la segunda mitad de 2024, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea de forma proactiva o al recibir un informe):
Contenido total intervenido
Total de cuentas inhabilitadas,
Total de envíos a NCMEC*
1 228 929
242 306
417 842
*Ten en cuenta que cada envío a NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviados a NCMEC es igual a nuestro contenido intervenido total.
Nuestras iniciativas para proporcionar recursos y apoyo a los Snapfans que lo necesitan
Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapfans que lo necesiten.
Nuestra herramienta de búsqueda Here For You ofrece recursos de expertos para aquellos usuarios que buscan temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la extorsión sexual, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente para todos los Snapfans en nuestro Centro de Privacidad, Seguridad y Políticas.
Cuando nuestros equipos de Seguridad detectan que un Snapfan está en problemas, están equipados para ofrecer recursos de prevención de autolesiones y ayuda, así como para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos se encuentran disponibles en nuestra lista global de recursos de seguridad, disponible para todos los Snapfans.
Total de veces que se han compartido los recursos contra el suicidio
64 094
Apelaciones
A continuación, facilitamos información sobre las apelaciones recibidas de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la segunda mitad de 2024:
Razón de la política
Total de apelaciones
Total de restablecimientos
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar apelaciones
TOTAL
493 782
35 243
458 539
5
Contenido sexual
162 363
6 257
156 106
4
Explotación sexual infantil
102 585
15 318
87 267
6
Acoso y acoso virtual
53 200
442
52 758
7
Amenazas y violencia
4 238
83
4 155
5
Autolesiones y suicidio
31
1
30
5
Información falsa
3
0
3
<1
Suplantación de identidad
847
33
814
7
Spam
19 533
5 090
14 443
9
Drogas
133 478
7 598
125 880
4
Armas
4 678
136
4 542
6
Otros bienes regulados
9 153
168
8 985
6
Discurso de odio
3 541
114
3 427
7
Terrorismo y extremismo violento
132
3
129
9
Descripción general por regiones y países
Esta sección ofrece una visión general de las medidas adoptadas por nuestros equipos de Seguridad para la aplicación de nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a los informes de violaciones realizados en la aplicación, en una muestra seleccionada de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.
La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
3 828 389
2 117 048
Europa
2 807 070
1 735 054
Resto del mundo
3 396 651
1 846 110
Total
10 032 110
5 698 212
Región
Informes de contenido y de cuentas
Total de ejecuciones de medidas de cumplimiento
Total de cuentas únicas intervenidas
Norteamérica
5 916 815
2 229 465
1 391 304
Europa
5 781 317
2 085 109
1 378 883
Resto del mundo
7 681 716
2 031 934
1 319 934
Total
19 379 848
6 346 508
4 090 121
Total de medidas tomadas
Total de ejecuciones de medidas de cumplimiento contra cuentas únicas
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas de publicidad. Creemos en un enfoque responsable de la publicidad para ofrecer una experiencia segura para todos los Snapfans. Todos los anuncios estarán sujetos a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio.
A continuación hemos incluido información sobre nuestra moderación de ciertos anuncios de pago de los que recibimos denuncias tras su publicación en Snapchat. Ten en cuenta que los anuncios de Snapchat pueden eliminarse por diversos motivos, tal y como se indica en las Políticas de publicidad de Snap, entre ellos, contenidos engañosos, contenidos para adultos, contenidos violentos o inquietantes, incitación al odio e infracción de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en el hub de transparencia de Snap, directamente accesible a través de la barra de navegación.
Total de anuncios denunciados
Total de anuncios eliminados
43 098
17 833



Glosario del informe de transparencia