1 de diciembre de 2025
1 de diciembre de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar información sobre las iniciativas de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que están profundamente preocupadas por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este Informe de transparencia abarca el primer semestre de 2025 (del 1 de enero al 30 de junio). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de control de nuestros equipos de Seguridad en categorías específicas de infracciones de las Pautas para la comunidad; cómo respondimos a las solicitudes de las autoridades y los gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas registradas. También ofrecemos información específica de cada país en una serie de páginas vinculadas.
Para encontrar recursos adicionales de seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los Informes de transparencia en la parte inferior de la página.
Ten en cuenta que la versión más actualizada de este informe de transparencia es la versión en inglés.
Resumen de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de seguridad aplican nuestras Pautas para la comunidad, tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a los informes), como se detalla en las siguientes secciones de este informe. En este ciclo de evaluación (primer semestre de 2025), nuestros equipos de Seguridad han adoptado las siguientes medidas:
Total de medidas tomadas
Total de cuentas únicas intervenidas
9 674 414
5 794 201
A continuación se muestra un desglose por tipo de incumplimientos de Pautas para la comunidad de que se trate, incluido el tiempo medio de respuesta entre el momento en que se detectó el incumplimiento (ya sea de forma proactiva o previa denuncia) y el momento en que se tomó una medida definitiva sobre el contenido o cuenta correspondiente:
Razón de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
5 461 419
3 233 077
1
Explotación y abuso sexuales a menores
1 095 424
733 106
5
Acoso y acoso virtual
713 448
594 302
3
Amenazas y violencia
187 653
146 564
3
Autolesiones y suicidio
47 643
41 216
5
Información falsa
2088
2004
1
Suplantación de identidad
7138
6881
<1
Spam
267 299
189 344
1
Drogas
1 095 765
726 251
7
Armas
251 243
173 381
1
Otros bienes regulados
183 236
126 952
4
Discurso de odio
343 051
284 817
6
Terrorismo y extremismo violento
10 970
6783
2
Los datos sobre el total de medidas adoptadas por Snap incluyen las medidas adoptadas por Snap tras revisar las denuncias en la aplicación enviadas a través de Snapchat. Ello representa la gran mayoría de las medidas adoptadas por los equipos de seguridad de Snap. Esta cifra no incluye la mayoría de las medidas tomadas como resultado de investigaciones basadas en denuncias realizadas a Snap a través de nuestro sitio web de Ayuda u otros mecanismos (por ejemplo, por correo electrónico), ni tampoco las resultantes de investigaciones proactivas realizadas por nuestros equipos de Seguridad. Estas medidas no incluidas representaron menos del 0,5 % del volumen de medidas adoptadas en el primer semestre de 2025.
Durante el período del informe, hemos observado una Tasa de visualización infractora (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snaps e Historias en Snapchat, 1 incluía contenido que infringía nuestras Pautas para la comunidad. Entre las medidas tomadas por incumplimientos que consideramos como «Daños Graves», se observó una VVR del 0,0003 %. En la siguiente tabla se muestra un desglose de la VRV por motivos contemplados en las políticas.
Razón de la política
Tasa de visualizaciones no permitidas (VVR, por sus siglas en inglés)
Contenido sexual
0,00482 %
Explotación y abuso sexuales a menores
0,00096 %
Acoso y acoso virtual
0,00099 %
Amenazas y violencia
0,00176 %
Autolesiones y suicidio
0,0009 %
Información falsa
0,0002 %
Suplantación de identidad
0,0009 %
Spam
0,00060 %
Drogas
0,00047 %
Armas
0,00083 %
Otros bienes regulados
0,00104 %
Discurso de odio
0,00025 %
Terrorismo y extremismo violento
0,0002 %
Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Del 1 de enero al 30 de junio de 2025, en respuesta a 19 766 324 de denuncias en la aplicación sobre incumplimientos de nuestras Pautas para la comunidad, los equipos de seguridad de Snap adoptaron un total de 6 278 446 medidas de cumplimiento a nivel mundial, incluidas medidas contra 4104 624 cuentas únicas. Este volumen de denuncias en la aplicación no incluye las denuncias desde el sitio web de ayuda y por correo electrónico, que representan menos del 1 % del volumen total. El tiempo medio de respuesta para que nuestros equipos de Seguridad adoptaran medidas de cumplimiento en respuesta a dichas denuncias fue de ~2 minutos. A continuación se muestra un desglose por motivos contemplados en las políticas. (Nota: en informes anteriores, a veces nos referíamos a esto como la «categoría de denuncia». De ahora en adelante, usaremos el término «motivo contemplado en las políticas» que creemos que refleja con más precisión la naturaleza de los datos, porque nuestros equipos de Seguridad se esfuerzan por aplicar las políticas según el motivo adecuado, independientemente de la categoría de denuncia identificada por la persona que la presenta).
Total de denuncias de contenido y cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
Total
19 766 324
6 278 446
4 104 624
Razón de la política
Total de denuncias de contenido y cuentas
Total de medidas tomadas
Porcentaje total de denuncias atendidas por Snap.
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
7 315 730
3 778 370
60,2 %
2 463 464
1
Explotación y abuso sexuales a menores
1 627 097
695 679
11,1 %
577 736
10
Acoso y acoso virtual
4 103 797
700 731
11,2 %
584 762
3
Amenazas y violencia
997 346
147 162
2,3 %
120 397
2
Autolesiones y suicidio
350 775
41 150
0,7 %
36 657
3
Información falsa
606 979
2,027
0,0 %
1960
1
Suplantación de identidad
745 874
7086
0,1 %
6837
<1
Spam
1 709 559
122 499
2,0 %
94 837
1
Drogas
481 830
262 962
4,2 %
176 799
5
Armas
271 586
39 366
0,6%
32 316
1
Otros bienes regulados
530 449
143 098
2,3 %
98 023
3
Discurso de odio
817 262
337 263
5,4 %
280 682
6
Terrorismo y extremismo violento
208 040
1053
0,0 %
912
2
En la primera mitad de 2025, seguimos reduciendo los tiempos medios de respuesta en todas las categorías de políticas, reduciéndolos en una media de más del 75 % en comparación con el período de evaluación anterior, hasta dos minutos. Esta reducción se debió en gran parte a un esfuerzo coordinado continuo para mejorar nuestra priorización en la revisión de las denuncias según la gravedad de los daños y a la revisión automatizada.
También hemos realizado varios cambios específicos en nuestras iniciativas de seguridad durante el período de evaluación, lo que ha tenido un impacto en los datos contenidos en el presente informes, incluyendo el fortalecimiento de nuestras políticas sobre actividades ilícitas relacionadas con armas. Hemos observado un aumento en las denuncias y las medidas tomadas en la categoría de explotación sexual infantil, debido principalmente al aumento en el contenido sexual o sensible que involucra a menores, que incumple nuestras políticas pero no es ilegal en Estados Unidos ni está sujeto a denuncia al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC). El aumento del volumen relacionado con Contenido sexual (y la disminución del volumen relacionado con el Acoso) se debe a que hemos reclasificado el contenido asociado al Acoso sexual como Contenido sexual, en vez de como Acoso.
Nuestros esfuerzos para detectar de forma proactiva y hacer cumplir las medidas contra las infracciones de nuestras Pautas para la comunidad
Empleamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir las normas contra la violación de nuestras Pautas para la comunidad. Estas herramientas incluyen tecnología de coincidencia de parámetros hash (incluyendo PhotoDNA e Imágenes conocidas de explotación y abuso sexual infantil (CSEAI, por sus siglas en inglés), la API de seguridad de contenidos de Google y demás tecnología exclusiva diseñada para detectar textos y medios ilegales e infractores, a veces aprovechan la inteligencia artificial y el aprendizaje automático. Nuestras cifras de detección proactiva fluctúan habitualmente a tenor de los cambios en el comportamiento de los usuarios, las mejoras en nuestras capacidades de detección y los cambios en nuestras políticas.
En la primera mitad de 2025, adoptamos las siguientes medidas de cumplimiento tras detectar de forma proactiva violaciones de nuestras Pautas para la comunidad mediante herramientas de detección automatizada:
Total de medidas tomadas
Total de cuentas únicas intervenidas
Total
3 395 968
1 709 224
Razón de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
1 683 045
887 059
0
Explotación y abuso sexuales a menores
399 756
162 017
2
Acoso y acoso virtual
12 716
10 412
8
Amenazas y violencia
40 489
27 662
6
Autolesiones y suicidio
6493
4638
7
Información falsa
61
44
20
Suplantación de identidad
52
44
34
Spam
144 800
96 500
0
Drogas
832 803
578 738
7
Armas
211 877
144 455
0
Otros bienes regulados
40 139
31 408
8
Discurso de odio
5788
4518
6
Terrorismo y extremismo violento
9917
5899
5
Lucha contra la explotación y el abuso sexual infantil
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la Comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA, por sus siglas en inglés), en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros tipos de delitos.
Usamos herramientas de detección de tecnología activa para identificar contenido relacionado con CSEA. Entre ellas se incluyen herramientas de coincidencia de parámetros hash (incluyendo PhotoDNA y CSAI Match de Google, para identificar imágenes y vídeos ilegales conocidos de abuso sexual infantil —CSEA, por sus siglas en inglés—, respectivamente) y la API de seguridad de contenido de Google (para identificar imágenes ilegales nuevas "nunca antes procesadas con parámetros hash". Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir la ley frente a otras actividades sospechosas de CSEA. Informamos sobre el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC, por sus siglas en inglés), tal como lo exige la ley. Luego, el NCMEC coordina con las autoridades policiales nacionales o internacionales, según resulte necesario.
En la primera mitad de 2025, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya fuera de forma proactiva o previa denuncia):
Contenido total intervenido
Total de cuentas inhabilitadas,
Total de envíos a NCMEC*
994 337
187 387
321 587
*Ten en cuenta que cada envío a NCMEC puede contener múltiples piezas de contenido. El total de piezas individuales de medios enviados a NCMEC es igual a nuestro contenido intervenido total.
Nuestras iniciativas para proporcionar recursos y apoyo a los Snapfans que lo necesitan
Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapfans que lo necesiten.
Nuestra herramienta de búsqueda Here For You ofrece recursos creados por expertos para aquellos usuarios que buscan temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolo y el acoso. También hemos creado una página dedicada a combatir la extorsión sexual con fines económicos y otros riesgos y posibles daños sexuales, como parte de nuestro esfuerzo por apoyar a las personas en apuros.
Cuando nuestros equipos de Seguridad detectan que un Snapchatter está en apuros, están preparados para ofrecerle recursos para prevenir las autolesiones y ayudarle, así como para notificarlo a los servicios de emergencia, si fuera necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que está disponible públicamente para todos los Snapfans en nuestro Centro de privacidad, seguridad y políticas.
Total de veces que se han compartido los recursos contra el suicidio
36 162
Apelaciones
A continuación, facilitamos información sobre las apelaciones recibidas de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la primera mitad de 2025:
Razón de la política
Total de apelaciones
Total de restablecimientos
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar apelaciones
Total
437 855
22 142
415 494
1
Contenido sexual
134 358
6175
128 035
1
Explotación y abuso sexuales a menores*
89 493
4179
85 314
<1
Acoso y acoso virtual
42 779
281
42 496
1
Amenazas y violencia
3987
77
3909
1
Autolesiones y suicidio
145
2
143
1
Información falsa
4
0
4
1
Suplantación de identidad
1063
33
1030
<1
Spam
13 730
3140
10 590
1
Drogas
128 222
7749
120 409
1
Armas
10 941
314
10 626
1
Otros bienes regulados
9719
124
9593
1
Discurso de odio
3310
67
3242
1
Terrorismo y extremismo violento
104
1
103
1
Descripción general por regiones y países
Esta sección ofrece una visión general de las medidas adoptadas por nuestros equipos de Seguridad para la aplicación de nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a los informes de violaciones realizados en la aplicación, en una muestra seleccionada de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todo el contenido de Snapchat (y a todos los Snapfans) en todo el mundo, independientemente de su ubicación.
La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
3 468 315
2 046 888
Europa
2 815 474
1 810 223
Resto del mundo
3 390 625
1 937 090
Total
9 674 414
5 794 201
Región
Informes de contenido y de cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
5 762 412
2 125 819
1 359 763
Europa
5 961 962
2 144 828
1 440 907
Resto del mundo
8 041 950
2 007 799
1 316 070
Total
19 766 324
6 278 446
4 116 740
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
1 342 496
785 067
Europa
670 646
422 012
Resto del mundo
1382 826
696 364
Total
3 395 968
1 709 224
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas de publicidad. Creemos en un enfoque responsable de la publicidad para ofrecer una experiencia segura para todos los Snapfans. Todos los anuncios estarán sujetos a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio.
A continuación hemos incluido información sobre nuestra moderación de ciertos anuncios de pago de los que recibimos denuncias tras su publicación en Snapchat. Ten en cuenta que los anuncios de Snapchat pueden eliminarse por diversos motivos, tal y como se indica en las Políticas de publicidad de Snap, entre ellos, contenidos engañosos, contenidos para adultos, contenidos violentos o inquietantes, incitación al odio e infracción de la propiedad intelectual. Además, puedes encontrar la Galería de anuncios de Snapchat en la pestaña "Transparencia" de values.snap.com.
Total de anuncios denunciados
Total de anuncios eliminados
67 789
16 410



Glosario del informe de transparencia






















