1 de diciembre de 2025
1 de diciembre de 2025
Publicamos este informe de transparencia dos veces al año para dar a conocer los esfuerzos de Snap en materia de seguridad. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestra moderación de contenidos, nuestro enfoque en cuanto al cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este informe de transparencia abarca el primer semestre de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre las denuncias de los usuarios y la detección proactiva por parte de Snap; las medidas de nuestros equipos de seguridad en las categorías específicas de infracciones de las Pautas para la comunidad; cómo hemos respondido a las solicitudes de las fuerzas de seguridad y de los gobiernos; y cómo hemos respondido a las notificaciones de infracción de los derechos de autor y de marcas registradas. También proporcionamos información específica de cada país en una serie de páginas
Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia al final de la página.
Ten en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.
Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad de forma proactiva (a través del uso de herramientas de detección automatizada) y de forma reactiva (en respuesta a las denuncias), como se detalla en las siguientes secciones de este informe. En este ciclo de evaluación (primer semestre de 2025), nuestros equipos de seguridad tomaron las siguientes medidas de cumplimiento:
Total de medidas tomadas
Total de cuentas únicas intervenidas
9 674 414
5 794 201
A continuación figura un desglose por tipo de infracción de las Pautas para la comunidad, incluido el tiempo medio transcurrido entre el momento en que detectamos el incumplimiento (de forma proactiva o tras recibir una denuncia) y el momento en que tomamos medidas definitivas sobre el contenido o la cuenta en cuestión:
Motivo de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
5 461 419
3 233 077
1
Explotación y abuso sexual de menores
1 095 424
733 106
5
Acoso y hostigamiento
713 448
594 302
3
Amenazas y violencia
187 653
146 564
3
Autolesiones y suicidio
47 643
41 216
5
Información falsa
2088
2004
1
Suplantación de identidad
7138
6881
<1
Spam
267 299
189 344
1
Drogas
1 095 765
726 251
7
Armas
251 243
173 381
1
Otros bienes regulados
183 236
126 952
4
Discurso de odio
343 051
284 817
6
Terrorismo y extremismo violento
10 970
6783
2
Los datos del total de medidas de cumplimiento incluyen las medidas de cumplimiento tomadas por Snap tras de la revisión de denuncias en la aplicación enviadas a través de Snapchat. Esto representa la gran mayoría de las medidas de cumplimiento adoptadas por los equipos de seguridad de Snap. Este número excluye la mayoría de las medidas de cumplimiento tomadas como resultado de investigaciones basadas en denuncias enviadas a Snap a través de nuestro Sitio de ayuda u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de ciertas investigaciones proactivas realizadas por nuestros equipos de seguridad. Estas medidas de cumplimiento excluidas representaron menos del 0,5 % del volumen de cumplimiento en la primera mitad de 2025.
Durante el periodo del informe, hemos visto una tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historias en Snapchat, una incluía contenido que infringía nuestras Pautas para la comunidad. Entre las medidas de cumplimiento para lo que consideramos «Daños graves», se observó una VVR del 0,0003 %. En la tabla a continuación se proporciona un desglose de las VVR según motivo previsto en las políticas.
Motivo de la política
Tasa de visualización de contenido infractor (VVR)
Contenido sexual
0,00482 %
Explotación y abuso sexual de menores
0,00096 %
Acoso y hostigamiento
0,00099 %
Amenazas y violencia
0,00176 %
Autolesiones y suicidio
0,00009 %
Información falsa
0,00002 %
Suplantación de identidad
0,00009 %
Spam
0,00060 %
Drogas
0,00047 %
Armas
0,00083 %
Otros bienes regulados
0,00104 %
Discurso de odio
0,00025 %
Terrorismo y extremismo violento
0,00002 %
Infracciones de las Pautas para la comunidad comunicadas a nuestros Equipos de confianza y seguridad
Del 1 de enero al 30 de junio de 2025, en respuesta a las denuncias de Pautas para la comunidad, los equipos de Seguridad de Snap han tomado un total de 6 278 446 medidas de cumplimiento a nivel mundial, incluidas las medidas de cumplimiento contra 4 104 624 cuentas únicas. Este volumen de denuncias en la aplicación no incluye las denuncias a través del sitio de ayuda y por correo electrónico, que representan menos del 1 % del volumen total de denuncias. El tiempo medio que tardaron nuestros equipos de Seguridad en tomar medidas de cumplimiento en respuesta a esos informes fue de unos 2 minutos. A continuación se proporciona un desglose por motivos contemplados en las políticas. (Nota: en informes anteriores, a veces nos referimos a esto como la «categoría de denuncia») En el futuro, utilizaremos el término «motivo contemplado en las políticas» que nos parece que refleja con mayor precisión la naturaleza de los datos, porque nuestros equipos de seguridad se esfuerzan por adoptar medidas de cumplimiento con arreglo al motivo pertinente contemplado en las políticas, independientemente de la categoría de denuncia identificada por la persona que envía la denuncia).
Total de denuncias contra contenidos y cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
Total
19 766 324
6 278 446
4 104 624
Motivo de la política
Total de denuncias contra contenidos y cuentas
Total de medidas tomadas
Porcentaje del total de denuncias sobre las que Snap ha intervenido
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
7 315 730
3 778 370
60,2 %
2 463 464
1
Explotación y abuso sexual de menores
1 627 097
695 679
11.1 %
577 736
10
Acoso y hostigamiento
4 103 797
700 731
11.2 %
584 762
3
Amenazas y violencia
997 346
147 162
2.3 %
120 397
2
Autolesiones y suicidio
350 775
41 150
0,7 %
36 657
3
Información falsa
606 979
2027
0,0 %
1960
1
Suplantación de identidad
745 874
7086
0,1 %
6837
<1
Spam
1 709 559
122 499
2,0 %
94 837
1
Drogas
481 830
262 962
4.2 %
176 799
5
Armas
271 586
39 366
0,6 %
32 316
1
Otros bienes regulados
530 449
143 098
2.3 %
98 023
3
Discurso de odio
817 262
337 263
5,4 %
280 682
6
Terrorismo y extremismo violento
208 040
1053
0,0 %
912
2
En el primer semestre de 2025, seguimos reduciendo los tiempos de respuesta medios en todas las categorías de políticas, lo que significa que se redujeron en una media de más del 75 % en comparación con el período de evaluación anterior, hasta llegar a 2 minutos. Esta reducción es debida en gran parte a un esfuerzo coordinado continuo para mejorar nuestra priorización de la revisión de denuncias según la gravedad de los daños y las revisiones automatizadas.
También realizamos varios cambios específicos en nuestras iniciativas de seguridad durante el período de evaluación, lo que tuvo un impacto en los datos contenidos en el presente informe, incluido el fortalecimiento de nuestras políticas sobre actividades ilícitas con armas. Observamos un aumento en el número de denuncias y medidas de cumplimiento en la categoría de explotación sexual de menores, impulsado principalmente por un aumento en el contenido sexualizado o sensible que involucra a menores, que infringe nuestras políticas pero no es ilegal en los EE. UU. ni está sujeto a denuncia ante el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés). El aumento de volumen relativo a Contenido sexual (y la disminución del volumen relativo al Acoso) se debe a nuestra reclasificación del contenido asociado al Acoso sexual como Contenido sexual en vez de como Acoso.
Nuestros esfuerzos para detectar y hacer cumplir de forma proactiva las infracciones de nuestras Pautas para la comunidad
Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas en contra de las infracciones de nuestras Pautas para la comunidad. Estas herramientas incluyen la tecnología de coincidencia de valores hash (incluyendo PhotoDNA e Iimágenes de explotación y abuso sexual a menores —CSAI, según sus siglas en inglés— de Google), la API de seguridad de contenidos de Google y otras tecnologías exclusivas diseñadas para detectar textos y redes ilegales e infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestras cifras de detección proactiva fluctúan habitualmente a resultas de cambios en el comportamiento de los usuarios, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.
En el primer semestre de 2025, hemos tomado las siguientes medidas de cumplimiento después de detectar de forma proactiva infracciones de nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:
Total de medidas tomadas
Total de cuentas únicas intervenidas
Total
3 395 968
1 709 224
Motivo de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
1 683 045
887 059
0
Explotación y abuso sexual de menores
399 756
162 017
2
Acoso y hostigamiento
12 716
10 412
8
Amenazas y violencia
40 489
27 662
6
Autolesiones y suicidio
6493
4638
7
Información falsa
61
44
20
Suplantación de identidad
52
44
34
Spam
144 800
96 500
0
Drogas
832 803
578 738
7
Armas
211 877
144 455
0
Otros bienes regulados
40 139
31 408
8
Discurso de odio
5788
4518
6
Terrorismo y extremismo violento
9917
5899
5
Cómo combatir la explotación y el abuso sexual de menores
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las CSEA (imágenes de explotación y abuso sexual a menores, en inglés) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.
Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de valores hash (incluyendo PhotoDNA y CSAI Match de Google, para identificar imágenes ilegales conocidas y videos de CSEA —siglas en inglés para «imágenes de explotación y abuso sexual a menores»—, respectivamente) y la API de seguridad de contenidos de Google (para identificar imágenes ilegales nuevas «nunca antes codificadas con hash»). Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir otras actividades sospechosas de CSEA. Informamos de los contenidos relacionados con la CSEA al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), tal como exige la ley. El NCMEC se coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En el primer semestre de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya fuera de forma proactiva o mediante denuncia previa):
Total de contenido intervenido
Total de cuentas deshabilitadas
Envíos totales al NCMEC*
994 337
187 387
321 587
*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de contenidos particulares de medios enviados al NCMEC es igual a nuestro total de contenido regulado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters en necesidad
Snapchat permite a los amigos ayudarse mutuamente en los momentos difíciles, proporcionando recursos y apoyo a los Snapchatters que lo necesiten.
Nuestra herramienta de búsqueda Here for You proporciona recursos creados por expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el duelo y el acoso. También hemos desarrollado una página dedicada a combatir la extorsión sexual con motivación económica y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentren en apuros.
Cuando nuestros equipos de seguridad se dan cuenta de que un Snapchatter se encuentra en apuros, están equipados para procurar la prevención de autolesiones y proporcionar recursos de apoyo, así como para notificar de ello a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, que está disponible públicamente para todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.
Total de veces que se han compartido recursos sobre el suicidio
36 162
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta en el primer semestre de 2025:
Motivo de la política
Total de apelaciones
Total de reintegraciones
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar las apelaciones
Total
437 855
22 142
415 494
1
Contenido sexual
134 358
6175
128 035
1
Explotación y abuso sexual de menores
89 493
4179
85 314
<1
Acoso y hostigamiento
42 779
281
42 496
1
Amenazas y violencia
3987
77
3909
1
Autolesiones y suicidio
145
2
143
1
Información falsa
4
0
4
1
Suplantación de identidad
1063
33
1030
<1
Spam
13 730
3140
10 590
1
Drogas
128 222
7749
120 409
1
Armas
10 941
314
10 626
1
Otros bienes regulados
9719
124
9593
1
Discurso de odio
3310
67
3242
1
Terrorismo y extremismo violento
104
1
103
1
Descripción general regional y por país
Esta sección ofrece una descripción general de las acciones de nuestros equipos de seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias de infracciones en la aplicación, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todos los contenidos de Snapchat, y a todos los Snapchatters, en todo el mundo, independientemente de su ubicación.
La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
3 468 315
2 046 888
Europa
2 815 474
1 810 223
Resto del mundo
3 390 625
1 937 090
Total
9 674 414
5 794 201
Región
Denuncias contra contenidos y cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
5 762 412
2 125 819
1 359 763
Europa
5 961 962
2 144 828
1 440 907
Resto del mundo
8 041 950
2 007 799
1 316 070
Total
19 766 324
6 278 446
4 116 740
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
1 342 496
785 067
Europa
670 646
422 012
Resto del mundo
1 382 826
696 364
Total
3 395 968
1 709 224
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras normas de publicidad. Creemos en un enfoque responsable de la publicidad, creando una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho a eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio.
A continuación incluimos información sobre nuestra moderación de los anuncios de pago que nos llegan tras su publicación en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Normas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, puedes encontrar la Galería de anuncios de Snapchat en values.snap.com en la pestaña "Transparencia".
Total de anuncios denunciados
Total de anuncios retirados
67 789
16 410

























