1 de diciembre de 2025
1 de diciembre de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar una visión de los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente por lograr que estos informes sean más completos e informativos para todas las partes interesadas que se preocupan profundamente por nuestra moderación de contenido, nuestro enfoque con respecto a las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
En este Informe de transparencia se abarca el primer semestre de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre denuncias de usuarios y detección proactiva de Snap; medidas de cumplimiento por parte de nuestros equipos de Seguridad en categorías específicas de infracciones a las Pautas para la comunidad, cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos, y cómo respondemos a los avisos de infracción de derechos de autor y de marca registrada. También proporcionamos una visión específica de cada país en una serie de páginas vinculadas.
Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consultá la pestaña Acerca de los Informes de Transparencia, en la parte inferior de la página.
Tené en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.
Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a las denuncias), como se indica con más detalle en las siguientes secciones de este informe. En este ciclo de informes (1º semestre de 2025), nuestros equipos de Seguridad tomaron las siguientes cantidades de medidas de penalización:
Total de penalizaciones
Total de cuentas únicas penalizadas
9 674 414
5 794 201
A continuación se muestra un desglose por tipo de infracciones de las Pautas para la comunidad referidas, incluido el "tiempo de respuesta promedio" entre el momento en que detectamos la infracción (ya sea proactivamente o al recibir una denuncia) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:
Motivo de política
Total de penalizaciones
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
5 461 419
3 233 077
1
Explotación y abuso sexual de menores
1 095 424
733 106
5
Acoso y hostigamiento
713 448
594 302
3
Amenazas y violencia
187 653
146 564
3
Suicidio y autolesiones
47 643
41 216
5
Información falsa
2088
2004
1
Suplantación de identidad
7138
6881
<1
Correo no deseado
267 299
189 344
1
Drogas
1 095 765
726 251
7
Armas
251 243
173 381
1
Otros productos regulados
183 236
126 952
4
Incitación al odio
343 051
284 817
6
Terrorismo y extremismo violento
10 970
6783
2
Los datos del total de penalizaciones incluyen las penalizaciones impuestas por Snap después de revisar las denuncias dentro de la app enviadas a través de Snapchat. Esto representa la gran mayoría de las penalizaciones impuestas por los equipos de Seguridad de Snap. Este número excluye la mayoría de las penalizaciones impuestas como resultado de investigaciones basadas en denuncias realizadas a Snap a través de nuestro Sitio de ayuda u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de algunas investigaciones proactivas realizadas por nuestros equipos de Seguridad. Estas penalizaciones excluidas representaron menos del 0,5 % del volumen de penalización en el primer semestre de 2025.
En el período de este informe, vimos una Tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %. Esto significa que de cada 10 000 visualizaciones de Snap e historias de Snap en Snapchat, 1 tenía contenido que infringía nuestras Pautas para la comunidad. Entre las penalizaciones por lo que consideramos “Daños graves”, vimos un VVR del 0,0003 % por ciento. En la siguiente tabla se proporciona un desglose de VVR por motivo de política.
Motivo de política
VVR
Contenido sexual
0,00482 %
Explotación y abuso sexual de menores
0,00096 %
Acoso y hostigamiento
0,00099 %
Amenazas y violencia
0,00176 %
Suicidio y autolesiones
0,00009 %
Información falsa
0,00002 %
Suplantación de identidad
0,00009 %
Correo no deseado
0,00060 %
Drogas
0,00047 %
Armas
0,00083 %
Otros productos regulados
0,00104 %
Incitación al odio
0,00025 %
Terrorismo y extremismo violento
0,00002 %
Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Entre el 1 de enero y el 30 de junio de 2025, en respuesta a 19 766 324 denuncias en la app de infracciones de nuestras Pautas para la comunidad, los equipos de Seguridad de Snap tomaron un total de 6 278 446 medidas de penalización en todo el mundo, incluidas penalizaciones aplicadas a 4 104 624 cuentas únicas. Este volumen de denuncias dentro de app excluye las denuncias en el sitio de ayuda y por correo electrónico, que constituyen menos del 1 % del volumen total de denuncias. El tiempo de respuesta promedio para que nuestros equipos de Seguridad tomen medidas de penalización en respuesta a esas denuncias fue de aproximadamente 2 minutos. A continuación, se proporciona un desglose por motivo de política. (Nota: En informes anteriores, a veces nos referimos a esto como la "categoría de denuncia". En el futuro, usaremos el término “motivo de política", que creemos que refleja con más precisión la naturaleza de los datos, porque nuestros equipos de Seguridad se esfuerzan por penalizar de acuerdo con el motivo de la política apropiada, independientemente de la categoría de denuncia identificada por la persona que envía la denuncia).
Denuncias totales de cuentas y contenido
Total de penalizaciones
Total de cuentas únicas penalizadas
Total
19 766 324
6 278 446
4 104 624
Motivo de política
Denuncias totales de cuentas y contenido
Total de penalizaciones
Porcentaje del total de denuncias penalizadas por Snap
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
7 315 730
3 778 370
60,2 %
2 463 464
1
Explotación y abuso sexual de menores
1 627 097
695 679
11,1 %
577 736
10
Acoso y hostigamiento
4 103 797
700 731
11,2 %
584 762
3
Amenazas y violencia
997 346
147 162
2,3 %
120 397
2
Suicidio y autolesiones
350 775
41 150
0,7 %
36 657
3
Información falsa
606 979
2027
0,0 %
1960
1
Suplantación de identidad
745 874
7086
0,1 %
6837
<1
Correo no deseado
1 709 559
122 499
2,0 %
94 837
1
Drogas
481 830
262 962
4,2 %
176 799
5
Armas
271 586
39 366
0,6 %
32 316
1
Otros productos regulados
530 449
143 098
2,3 %
98 023
3
Incitación al odio
817 262
337 263
5,4 %
280 682
6
Terrorismo y extremismo violento
208 040
1053
0,0 %
912
2
En la primera mitad de 2025, continuamos reduciendo los tiempos de respuesta promedio en todas las categorías de políticas, reduciéndolos en un promedio de más del 75 % en comparación con el período del informe anterior, a 2 minutos. Esta reducción se debió en gran parte a un esfuerzo continuado para mejorar nuestra priorización de las denuncias sobre la base de la gravedad del daño y la revisión automatizada.
También realizamos varios cambios dirigidos a nuestros esfuerzos de seguridad en el período de informe, lo que tuvo un impacto en los datos denunciados acá, incluido el fortalecimiento de nuestras políticas sobre actividad ilícita que involucra armas. Observamos un aumento en las denuncias y las penalizaciones en la categoría de Explotación sexual infantil, que se debió principalmente a un aumento en el contenido sexualizado o sensible que involucra a menores de edad que viola nuestras políticas, pero no es ilegal en Estados Unidos ni está sujeto a denuncia al Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (NCMEC). El aumento del volumen relacionado con contenido sexual (y la disminución del volumen relacionado con el hostigamiento) se debió a nuestra reclasificación de contenido asociado con hostigamiento sexual, de contenido de hostigamiento a contenido sexual.
Nuestros esfuerzos para detectar proactivamente y tomar medidas contra las infracciones de nuestras Pautas para la comunidad
Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas contra las infracciones a nuestras Pautas para la comunidad. Estas herramientas incluyen la tecnología de coincidencia de hash (incluidos PhotoDNA e Imágenes de abuso sexual infantil (CSAI) de Google), la API de Seguridad de contenido de Google y otra tecnología propia diseñada para detectar textos y medios ilegales e infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestros números de detección proactiva fluctúan de forma rutinaria como resultado de cambios en el comportamiento del usuario, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.
En la primera mitad de 2025, tomamos las siguientes medidas de penalización después de detectar de forma proactiva las infracciones a nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:
Total de penalizaciones
Total de cuentas únicas penalizadas
Total
3 395 968
1 709 224
Motivo de política
Total de penalizaciones
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
1 683 045
887 059
0
Explotación y abuso sexual de menores
399 756
162 017
2
Acoso y hostigamiento
12 716
10 412
8
Amenazas y violencia
40 489
27 662
6
Suicidio y autolesiones
6493
4638
7
Información falsa
61
44
20
Suplantación de identidad
52
44
34
Correo no deseado
144 800
96 500
0
Drogas
832 803
578 738
7
Armas
211 877
144 455
0
Otros productos regulados
40 139
31 408
8
Incitación al odio
5788
4518
6
Terrorismo y extremismo violento
9917
5899
5
Lucha contra la explotación y abuso sexual de menores
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.
Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de hash (incluido PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de contenido de Google (para identificar imágenes ilegales novedosas y "nunca antes hasheadas"). Además, en algunos casos, utilizamos señales de comportamiento para tomar medidas contra otra actividad sospechosa de CSEA. Denunciamos el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de EE. UU., tal como lo requiere la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En la primera mitad de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir una denuncia):
Total de contenido penalizado
Total de cuentas deshabilitadas
Envíos totales al NCMEC*
994 337
187 387
321 587
*Tené en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro contenido total penalizado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesitan
Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapchatters que los necesitan.
Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. También desarrollamos una página dedicada a combatir la extorsión sexual por motivos financieros y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentran en peligro.
Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, están equipados para proporcionar recursos de prevención de autolesiones y apoyo, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que se encuentra a disposición de todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.
Cantidad total de veces que fueron compartidos recursos para la prevención de suicidios
36 162
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la primera mitad de 2025:
Motivo de política
Total de apelaciones
Total de restablecimientos
Total de decisiones confirmadas
Tiempo de entrega promedio (días) para procesar las apelaciones
Total
437 855
22 142
415 494
1
Contenido sexual
134 358
6175
128 035
1
Explotación y abuso sexual de menores*
89 493
4179
85 314
<1
Acoso y hostigamiento
42 779
281
42 496
1
Amenazas y violencia
3987
77
3909
1
Suicidio y autolesiones
145
2
143
1
Información falsa
4
0
4
1
Suplantación de identidad
1063
33
1030
<1
Correo no deseado
13 730
3140
10 590
1
Drogas
128 222
7749
120 409
1
Armas
10 941
314
10 626
1
Otros productos regulados
9719
124
9593
1
Incitación al odio
3310
67
3242
1
Terrorismo y extremismo violento
104
1
103
1
Descripción General Regional y del País
Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias en la aplicación de infracciones, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad rigen todo el contenido en Snapchat (y a todos los Snapchatters) en todo el mundo, independientemente de la ubicación.
La información para países individuales, incluidos todos los Estados Miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.
Región
Total de penalizaciones
Total de cuentas únicas penalizadas
América del Norte
3 468 315
2 046 888
Europa
2 815 474
1 810 223
Resto del Mundo
3 390 625
1 937 090
Total
9 674 414
5 794 201
Región
Denuncias de cuentas y contenido
Total de penalizaciones
Total de cuentas únicas penalizadas
América del Norte
5 762 412
2 125 819
1 359 763
Europa
5 961 962
2 144 828
1 440 907
Resto del Mundo
8 041 950
2 007 799
1 316 070
Total
19 766 324
6 278 446
4 116 740
Región
Total de penalizaciones
Total de cuentas únicas penalizadas
América del Norte
1 342 496
785 067
Europa
670 646
422 012
Resto del Mundo
1 382 826
696 364
Total
3 395 968
1 709 224
Moderación de Anuncios
Snap se compromete a garantizar que todos los anuncios cumplan totalmente con nuestras normas de publicidad. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que tomamos en serio.
A continuación hemos incluido información sobre nuestra moderación para los anuncios de pago que se nos informan después de su publicación en Snapchat. Tené en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Normas de publicidad de Snap, que incluyen contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e infracción de la propiedad intelectual. Además, podés encontrar la Galería de Anuncios de Snapchat en values.snap.com en la pestaña “Transparencia”.
Total de anuncios denunciados
Total de anuncios eliminados
67 789
16 410

























