20 de junio de 2025
1 de julio de 2025
Publicamos este informe de transparencia dos veces al año para dar a conocer los esfuerzos de Snap en materia de seguridad. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestra moderación de contenidos, las prácticas de aplicación de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este informe de transparencia abarca el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre las denuncias de los usuarios y la detección proactiva por parte de Snap; las medidas de nuestros equipos de seguridad en las categorías específicas de infracciones de las Pautas para la comunidad; cómo hemos respondido a las solicitudes de las fuerzas de seguridad y de los gobiernos; y cómo hemos respondido a las notificaciones de infracción de los derechos de autor y de marcas registradas. También proporcionamos información específica de cada país en una serie de páginas
Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia al final de la página.
Ten en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.
Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad de forma proactiva (a través del uso de herramientas de detección automatizada) y de forma reactiva (en respuesta a las denuncias), como se detalla en las siguientes secciones de este informe. En este ciclo de informes (segundo semestre de 2024), nuestros equipos de Seguridad han tomado el siguiente número de medidas:
Total de medidas tomadas
Total de medidas tomadas contra cuentas únicas
10 032 110
5 698 212
A continuación figura un desglose por tipo de infracción de las Pautas para la comunidad, incluida la media de «tiempo transcurrido» entre el momento en que detectamos el incumplimiento (de forma proactiva o tras recibir una denuncia) y el momento en que tomamos medidas definitivas sobre el contenido o la cuenta en cuestión:
Motivo de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
3 860 331
2 099 512
2
Explotación sexual infantil
961 359
577 682
23
Acoso y hostigamiento
2 716 966
2 019 439
7
Amenazas y violencia
199 920
156 578
8
Autolesiones y suicidio
15 910
14 445
10
Información falsa
6539
6176
1
Suplantación de identidad
8798
8575
2
Spam
357 999
248 090
1
Drogas
1 113 629
718 952
6
Armas
211 860
136 953
1
Otros bienes regulados
247 535
177 643
8
Discurso de odio
324 478
272 025
27
Terrorismo y extremismo violento
6786
4010
5
Durante el periodo del informe, hemos visto una tasa de visualizaciones infractoras (VVR, por sus siglas en inglés) del 0,01 %, lo que significa que de cada 10 000 visualizaciones de Snap e Historias en Snapchat, una incluía contenido que infringía nuestras Pautas para la comunidad.
Infracciones de las Pautas para la comunidad comunicadas a nuestros Equipos de confianza y seguridad
Del 1 de julio al 31 de diciembre de 2024, en respuesta a las denuncias en la aplicación de infracciones de nuestras Pautas para la comunidad, los equipos de Seguridad de Snap han tomado un total de 6 346 508 medidas de cumplimiento a nivel mundial, incluidas las medidas de cumplimiento contra 4 075 838 cuentas únicas. El tiempo medio que tardaron nuestros equipos de Seguridad en tomar medidas de aplicación en respuesta a esos informes fue de unos 6 minutos. A continuación se ofrece un desglose por categorías de informes.
Total de denuncias contra contenidos y cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
19 379 848
6 346 508
4 075 838
Motivo de la política
Denuncias contra contenidos y cuentas
Total de medidas tomadas
% del total de denuncias sobre las que Snap ha intervenido
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
5 251 375
2 042 044
32,20 %
1 387 749
4
Explotación sexual infantil
1 224 502
469 389
7,40 %
393 384
133
Acoso y hostigamiento
6 377 555
2 702 024
42,60 %
2 009 573
7
Amenazas y violencia
1 000 713
156 295
2,50 %
129 077
8
Autolesiones y suicidio
307 660
15 149
0,20 %
13 885
10
Información falsa
536 886
6 454
0,10 %
6 095
1
Suplantación de identidad
678 717
8 790
0,10 %
8 569
2
Spam
1 770 216
180 849
2,80 %
140 267
1
Drogas
418 431
244 451
3,90 %
159 452
23
Armas
240 767
6473
0,10 %
5252
1
Otros bienes regulados
606 882
199 255
3,10 %
143 560
8
Discurso de odio
768 705
314 134
4,90 %
263 923
27
Terrorismo y extremismo violento
197 439
1201
<0,1 %
1093
4
En comparación con el período de informe anterior, hemos reducido la media de los tiempos de respuesta en todas las categorías de políticas en una media de 90 %. Esta reducción es debida en gran parte a un esfuerzo concertado por ampliar nuestra capacidad de revisión, así como por mejorar nuestra priorización de las denuncias en función de la gravedad de los daños. También hemos realizado varios cambios específicos en nuestros esfuerzos de seguridad en el período del informe, que tuvieron un impacto en los datos denunciados aquí, incluida la expansión de nuestros esfuerzos por hacer cumplir las cuentas de los nombres de usuario y los nombres en pantalla que infrinjan nuestras Pautas para la comunidad de Snapchat, la introducción de más denuncias y protecciones para las Comunidades en Snapchat, y la introducción de opciones de denuncia para tipos de medios adicionales, como las notas de voz, directamente dirigidas a nosotros en la aplicación.
Estos cambios, así como otros esfuerzos de seguridad y fuerzas externas, afectan en particular a determinadas áreas de políticas en comparación con el período de informe anterior. Estas categorías de políticas incluyen: contenido relacionado con sospechas de explotación sexual infantil y abuso sexual (CSEA), información falsa dañina y spam. Específicamente:
CSEA: en el segundo semestre de 2024, observamos una disminución del 12 % en las denuncias relacionadas con CSEA, y hemos reducido nuestra media de tiempo de respuesta para responder a las CSEA denunciadas en un 99 %. Estas tendencias son impulsadas en gran parte por los continuos avances en nuestros esfuerzos de detección proactiva, lo que nos ha permitido eliminar el contenido de CSEA antes de que pueda ser denunciado y las mejoras que hemos realizado en nuestros procesos para revisar y tomar medidas en las denuncias de CSEA de forma más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es más alto que en otras áreas de políticas, porque el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo seleccionado de agentes especialmente capacitados.
Información falsa dañina: hemos observado un aumento del 26 % en el volumen de denuncias relacionadas con información falsa dañina, impulsado principalmente por eventos políticos, incluidas las elecciones de los EE. UU. de noviembre de 2024.
Spam: en este período de informe, hemos visto una disminución del 50 % en el total de las medidas de cumplimiento, y una disminución del 46 % en el total de cuentas únicas aplicadas en respuesta a las denuncias de sospecha de spam, lo que refleja las mejoras en nuestras herramientas de detección proactiva y de cumplimiento. Esta es una continuación de nuestros esfuerzos por apuntar al spam a través de señales de cuenta, y eliminar los agentes del spam más rápido en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último período de informe, durante el cual el total de las medidas de cumplimiento y el total de cuentas únicas intervenidas en contra del spam disminuyeron en un 65 % y en un 60 %, respectivamente.
Nuestros esfuerzos para detectar y hacer cumplir de forma proactiva las infracciones de nuestras Pautas para la comunidad
Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas en contra de las infracciones de nuestras Pautas para la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluidas PhotoDNA y la Coincidencia de imágenes de abuso sexual infantil (CSAI) de Google), la API de seguridad de contenidos de Google y otras tecnologías personalizadas diseñadas para detectar textos y redes abusivas, a veces aprovechando la inteligencia artificial y el aprendizaje automático.
En el segundo semestre de 2024, hemos tomado las siguientes medidas de cumplimiento después de detectar de forma proactiva las infracciones de nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:
Total de medidas tomadas
Total de cuentas únicas intervenidas
3 685 602
1 845 125
Motivo de la política
Total de medidas tomadas
Total de cuentas únicas intervenidas
Tiempo medio de respuesta (minutos) desde la detección hasta la acción final
Contenido sexual
1 818 287
828 590
<1
Explotación sexual infantil
491 970
188 877
1
Acoso y hostigamiento
14 942
11 234
8
Amenazas y violencia
43 625
29 599
9
Autolesiones y suicidio
761
624
9
Información falsa
85
81
10
Suplantación de identidad
8
6
19
Spam
177 150
110 551
<1
Drogas
869 178
590 658
5
Armas
205 387
133 079
<1
Otros bienes regulados
48 280
37 028
9
Discurso de odio
10 344
8683
10
Terrorismo y extremismo violento
5585
2951
21
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las CSEA (imágenes de explotación y abuso sexual a menores, en inglés) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.
Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de hash (incluidas PhotoDNA y CSAI Match de Google, para identificar imágenes ilegales conocidas y videos de CSEA, respectivamente) y la API de seguridad de contenidos de Google (para identificar imágenes ilegales nuevas, «nunca antes utilizadas en hash»). Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir otras actividades sospechosas de CSEA. Informamos de los contenidos relacionados con la CSEA al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), tal como exige la ley. El NCMEC se coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En el segundo semestre de 2024, tomamos las siguientes medidas para identificar CSEA en Snapchat (de forma proactiva o al recibir una denuncia):
Total de contenido intervenido
Total de cuentas deshabilitadas
Envíos totales al NCMEC*
1 228 929
242 306
417 842
*Hay que tener en cuenta que cada envío al NCMEC puede contener múltiples piezas de contenido. El total de contenidos particulares de medios enviados al NCMEC es igual a nuestro total de contenido regulado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters en necesidad
Snapchat permite a los amigos ayudarse mutuamente en los momentos difíciles, proporcionando recursos y apoyo a los Snapchatters que lo necesiten.
Nuestra herramienta de búsqueda Here for You proporciona recursos de expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el duelo y el acoso. También hemos creado una página dedicada a la sextorsión económica y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentran en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente para todos los Snapchatters, en nuestro Centro de privacidad, seguridad y política.
Cuando nuestros equipos de seguridad se dan cuenta de que hay un Snachatter en apuros, están equipados para proporcionar recursos de prevención de autolesiones y de apoyo, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, que está disponible públicamente para todos los Snapchatters.
Total de veces que se han compartido recursos sobre el suicidio
64 094
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en el segundo semestre de 2024:
Motivo de la política
Total de apelaciones
Total de reintegraciones
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar las apelaciones
TOTAL
493 782
35 243
458 539
5
Contenido sexual
162 363
6257
156 106
4
Explotación sexual infantil
102 585
15 318
87 267
6
Acoso y hostigamiento
53 200
442
52 758
7
Amenazas y violencia
4238
83
4155
5
Autolesiones y suicidio
31
1
30
5
Información falsa
3
0
3
<1
Suplantación de identidad
847
33
814
7
Spam
19 533
5090
14 443
9
Drogas
133 478
7598
125 880
4
Armas
4678
136
4542
6
Otros bienes regulados
9153
168
8985
6
Discurso de odio
3541
114
3427
7
Terrorismo y extremismo violento
132
3
129
9
Descripción general regional y por país
Esta sección ofrece una descripción general de las acciones de nuestros equipos de seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias de infracciones en la aplicación, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todos los contenidos de Snapchat, y a todos los Snapchatters, en todo el mundo, independientemente de su ubicación.
La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.
Región
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
3 828 389
2 117 048
Europa
2 807 070
1 735 054
Resto del mundo
3 396 651
1 846 110
Total
10 032 110
5 698 212
Región
Denuncias contra contenidos y cuentas
Total de medidas tomadas
Total de cuentas únicas intervenidas
Norteamérica
5 916 815
2 229 465
1 391 304
Europa
5 781 317
2 085 109
1 378 883
Resto del mundo
7 681 716
2 031 934
1 319 934
Total
19 379 848
6 346 508
4 090 121
Total de medidas tomadas
Total de cuentas únicas intervenidas
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras normas de publicidad. Creemos en un enfoque responsable de la publicidad, creando una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho a eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio.
A continuación incluimos información sobre nuestra moderación de los anuncios de pago que nos llegan tras su publicación en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Normas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en el centro de transparencia de Snap, al que se puede acceder directamente a través de la barra de navegación.
Total de anuncios denunciados
Total de anuncios retirados
43 098
17 833


