1 de diciembre de 2025
1 de diciembre de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, nuestro enfoque con respecto al cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este informe de transparencia abarca la primera mitad de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de cumplimiento de nuestros equipos de Seguridad en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos; y cómo respondemos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos información específica por país en una serie de páginas vinculadas.
Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los informes de transparencia en la parte inferior de la página.
Ten en cuenta que la versión más actualizada de este informe de transparencia es la versión en inglés.
Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestros lineamientos de la comunidad tanto proactivamente (a través del uso de herramientas de detección automatizadas) como reactivamente (en respuesta a los informes), como se detalla más específicamente en las siguientes secciones de este informe. En este ciclo de reportes (primer semestre de 2025), nuestros equipos de Seguridad impusieron la siguiente cantidad de sanciones:
Total de sanciones
Total de cuentas únicas sancionadas
9,674,414
5,794,201
A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el "tiempo de respuesta promedio" entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que realizamos la acción final sobre el contenido o la cuenta relevante:
Motivo de política
Total de sanciones
Total de cuentas únicas sancionadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
5,461,419
3,233,077
1
Explotación y abuso sexual infantil
1,095,424
733,106
5
Acoso y bullying
713,448
594,302
3
Amenazas y violencia
187,653
146,564
3
Autolesiones y suicidio
47,643
41,216
5
Información falsa
2,088
2,004
1
Suplantación de identidad
7,138
6,881
<1
Spam
267,299
189,344
1
Drogas
1,095,765
726,251
7
Armas
251,243
173,381
1
Otros bienes regulados
183,236
126,952
4
Discurso de odio
343,051
284,817
6
Terrorismo y extremismo violento
10,970
6,783
2
Los datos del total de sanciones incluyen las medidas tomadas por Snap después de revisar los reportes dentro de la app enviados a través de Snapchat. Esto representa la gran mayoría de las sanciones impuestas por los equipos de Seguridad de Snap. Esta cifra excluye la mayoría de las sanciones impuestas como resultado de investigaciones basadas en reportes enviados a Snap a través de nuestro sitio de soporte u otros mecanismos (por ejemplo, por correo electrónico), o como resultado de algunas investigaciones proactivas realizadas por nuestros equipos de Seguridad. Estas sanciones excluidas representaron menos del 0.5 % del volumen de sanciones en el primer semestre de 2025.
Durante el período del informe, vimos una Tasa de visualizaciones violatorias (VVR, por su sigla en inglés) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros Lineamientos de la comunidad. Entre las sanciones por lo que consideramos "daños graves", hubo un VVR del 0.0003 %. En la siguiente tabla se muestra un desglose de VVR por motivos de política.
Motivo de política
VVR
Contenido sexual
0.00482 %
Explotación y abuso sexual infantil
0.00096 %
Acoso y bullying
0.00099 %
Amenazas y violencia
0.00176 %
Autolesiones y suicidio
0.00009 %
Información falsa
0.00002 %
Suplantación de identidad
0.00009 %
Spam
0.00060 %
Drogas
0.00047 %
Armas
0.00083 %
Otros bienes regulados
0.00104 %
Discurso de odio
0.00025 %
Terrorismo y extremismo violento
0.00002 %
Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Entre el 1 de enero y el 30 de junio de 2025, en respuesta a los 19,766,324 reportes dentro de la app por infracciones a nuestros lineamientos de la comunidad, los equipos de Seguridad de Snap impusieron un total de 6,278,446 sanciones en todo el mundo, incluidas sanciones contra 4,104,624 cuentas únicas. Este volumen de reportes dentro de la app excluye los reportes del sitio de soporte y por correo electrónico, que representan menos del 1 % del volumen total de reportes. El tiempo promedio para que los equipos de Seguridad impusieran sanciones en respuesta a esos reportes fue de aproximadamente 2 minutos. A continuación se muestra un desglose por motivos de política. (Nota: En reportes anteriores, a veces nos referíamos a esto como la "categoría de reportes". En el futuro, usaremos el término "motivo de política" que creemos que refleja con mayor precisión la naturaleza de los datos, porque nuestros equipos de Seguridad se esfuerzan por imponer sanciones de acuerdo con el motivo de política apropiado, independientemente de la categoría de reporte identificada por la persona que envía el reporte).
Total de reportes de cuentas y contenido
Total de sanciones
Total de cuentas únicas sancionadas
Total
19,766,324
6,278,446
4,104,624
Motivo de política
Total de reportes de cuentas y contenido
Total de sanciones
Porcentaje del total de reportes sancionados por Snap
Total de cuentas únicas sancionadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
7,315,730
3,778,370
60.2 %
2,463,464
1
Explotación y abuso sexual infantil
1,627,097
695,679
11.1 %
577,736
10
Acoso y bullying
4,103,797
700,731
11.2 %
584,762
3
Amenazas y violencia
997,346
147,162
2.3 %
120,397
2
Autolesiones y suicidio
350,775
41,150
0.7 %
36,657
3
Información falsa
606,979
2,027
0.0 %
1,960
1
Suplantación de identidad
745,874
7,086
0.1 %
6,837
<1
Spam
1,709,559
122,499
2.0 %
94,837
1
Drogas
481,830
262,962
4.2 %
176,799
5
Armas
271,586
39,366
0.6 %
32,316
1
Otros bienes regulados
530,449
143,098
2.3 %
98,023
3
Discurso de odio
817,262
337,263
5.4 %
280,682
6
Terrorismo y extremismo violento
208,040
1,053
0.0 %
912
2
En la primera mitad de 2025, continuamos reduciendo los tiempos de respuesta promedio en todas las categorías de políticas, reduciéndolos en un promedio de más del 75 % en comparación con el período de informe anterior, a 2 minutos. Esta reducción se debió en gran parte a un esfuerzo continuo y concertado para mejorar nuestra priorización de los reportes para su revisión en función de la gravedad del daño y la revisión automatizada.
También hicimos varios cambios específicos en nuestros esfuerzos de seguridad en el período de informe, que tuvieron un impacto en los datos reportados aquí, incluido el fortalecimiento de nuestras políticas sobre la actividad ilícita que involucra armas. Observamos un aumento de los reportes y sanciones en la categoría de Explotación sexual infantil, que se debió principalmente a un aumento de contenido sexualizado o sensible que involucra a menores que infringe nuestras políticas, pero no es ilegal en EE. UU. ni está sujeto a reportes al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC). El aumento del volumen relacionado con el contenido sexual (y la disminución del volumen relacionado con el acoso) fue impulsado por nuestra reclasificación del contenido asociado con el acoso sexual, que pasó de la categoría de acoso a la de contenido sexual.
Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad
Usamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestros Lineamientos de la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluidas PhotoDNA e imágenes de abuso sexual infantil de Google (CSAI)), la API de Seguridad de Contenido de Google y otra tecnología propia diseñada para detectar texto y medios ilegales y infractores, a veces aprovechando la inteligencia artificial y el aprendizaje automático. Nuestros números de detección proactiva fluctúan rutinariamente como resultado de cambios en el comportamiento de los usuarios, mejoras en nuestras capacidades de detección y cambios en nuestras políticas.
En la primera mitad de 2025, tomamos impusimos las siguientes sanciones después de detectar proactivamente las infracciones de nuestros lineamientos de la comunidad usando herramientas de detección automatizadas:
Total de sanciones
Total de cuentas únicas sancionadas
Total
3,395,968
1,709,224
Motivo de política
Total de sanciones
Total de cuentas únicas sancionadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
1,683,045
887,059
0
Explotación y abuso sexual infantil
399,756
162,017
2
Acoso y bullying
12,716
10,412
8
Amenazas y violencia
40,489
27,662
6
Autolesiones y suicidio
6,493
4,638
7
Información falsa
61
44
20
Suplantación de identidad
52
44
34
Spam
144,800
96,500
0
Drogas
832,803
578,738
7
Armas
211,877
144,455
0
Otros bienes regulados
40,139
31,408
8
Discurso de odio
5,788
4,518
6
Terrorismo y extremismo violento
9,917
5,899
5
Combatiendo la explotación y el abuso sexual infantil
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Usamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen el mecanismo de coincidencia de hash (incluidos PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de Contenido de Google (para identificar imágenes ilegales nuevas y "nunca antes hasheadas"). Además, en algunos casos, usamos señales de comportamiento para combatir otras actividades sospechosas de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En la primera mitad de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):
Total de contenido regulado
Total de cuentas inhabilitadas
Envíos totales al NCMEC*
994,337
187,387
321,587
*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individuales enviado al NCMEC es igual a nuestro contenido total regulado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten
Snapchat permite que los amigos se ayuden mutuamente en momentos difíciles al proporcionar recursos y apoyo para los Snapchatters que los necesiten.
Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, ansiedad, depresión, estrés, pensamientos suicidas, dolor y bullying. También hemos desarrollado una página dedicada a combatir la extorsión sexual por motivos financieros y otros riesgos y daños sexuales, en un esfuerzo por apoyar a las personas en peligro.
Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, están equipados para proporcionar recursos de apoyo y prevención de autolesiones, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que está disponible públicamente para todos los Snapchatters en nuestro Centro de privacidad, seguridad y políticas.
Total de veces que se han compartido recursos relacionados con el suicidio
36,162
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta por infracciones a los lineamientos de la comunidad en la primera mitad de 2025:
Motivo de política
Total de apelaciones
Total de reincorporaciones
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar las apelaciones
Total
437,855
22,142
415,494
1
Contenido sexual
134,358
6,175
128,035
1
Explotación y abuso sexual infantil
89,493
4,179
85,314
<1
Acoso y bullying
42,779
281
42,496
1
Amenazas y violencia
3,987
77
3,909
1
Autolesiones y suicidio
145
2
143
1
Información falsa
4
0
4
1
Suplantación de identidad
1,063
33
1,030
<1
Spam
13,730
3,140
10,590
1
Drogas
128,222
7,749
120,409
1
Armas
10,941
314
10,626
1
Otros bienes regulados
9,719
124
9,593
1
Discurso de odio
3,310
67
3,242
1
Terrorismo y extremismo violento
104
1
103
1
Descripción regional y por país
Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestros Lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la app, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.
La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.
Región
Total de sanciones
Total de cuentas únicas sancionadas
América del Norte
3,468,315
2,046,888
Europa
2,815,474
1,810,223
Resto del mundo
3,390,625
1,937,090
Total
9,674,414
5,794,201
Región
Reportes de cuentas y contenido
Total de sanciones
Total de cuentas únicas sancionadas
América del Norte
5,762,412
2,125,819
1,359,763
Europa
5,961,962
2,144,828
1,440,907
Resto del mundo
8,041,950
2,007,799
1,316,070
Total
19,766,324
6,278,446
4,116,740
Región
Total de sanciones
Total de cuentas únicas sancionadas
América del Norte
1,342,496
785,067
Europa
670,646
422,012
Resto del mundo
1,382,826
696,364
Total
3,395,968
1,709,224
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a la retroalimentación de los usuarios, que tomamos en serio.
A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Además, puedes encontrar la galería de anuncios de Snapchat en values.snap.com, dentro de la pestaña "Transparencia".
Total de anuncios reportados
Total de anuncios eliminados
67,789
16,410

























