20 de junio de 2025
1 de julio de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar una visión de los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente por lograr que estos informes sean más completos e informativos para todas las partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este Informe de transparencia abarca el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre denuncias de usuarios y detección proactiva de Snap; medidas de cumplimiento por parte de nuestros equipos de Seguridad en categorías específicas de infracciones a las Pautas para la comunidad, cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos, y cómo respondemos a los avisos de infracción de derechos de autor y de marca registrada. También proporcionamos una visión específica de cada país en una serie de páginas vinculadas.
Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consultá la pestaña Acerca de los Informes de Transparencia, en la parte inferior de la página.
Tené en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.
Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestras Pautas para la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestras Pautas para la comunidad tanto de forma proactiva (a través del uso de herramientas de detección automatizada) como reactiva (en respuesta a las denuncias), como se indica con más detalle en las siguientes secciones de este informe. En este ciclo de informes (2º semestre de 2024), nuestros equipos de Seguridad tomaron las siguientes cantidades de medidas de cumplimiento:
Total de penalizaciones
Total de cuentas únicas penalizadas
10 032 110
5 698 212
A continuación se muestra un desglose por tipo de infracciones de las Pautas para la comunidad implicadas, incluido el "tiempo de respuesta promedio" entre el momento en que detectamos la infracción (ya sea proactivamente o al recibir una denuncia) y el momento en que realizamos la acción final sobre el contenido o la cuenta pertinente:
Razón de la política
Total de penalizaciones
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
3 860 331
2 099 512
2
Explotación sexual infantil
961 359
577 682
23
Acoso y hostigamiento
2 716 966
2 019 439
7
Amenazas y violencia
199 920
156 578
8
Suicidio y autolesiones
15 910
14 445
10
Información falsa
6539
6176
1
Suplantación de identidad
8798
8575
2
Correo no deseado
357 999
248 090
1
Drogas
1 113 629
718 952
6
Armas
211 860
136 953
1
Otros productos regulados
247 535
177 643
8
Incitación al odio
324 478
272 025
27
Terrorismo y extremismo violento
6786
4010
5
En el período de este informe, vimos una Tasa de visualización de contenido infractor (VVR, por sus siglas en inglés) del 0,01 %. Esto significa que de cada 10 000 visualizaciones de Snap e historias de Snap en Snapchat, 1 tenía contenido que infringía nuestras Pautas para la comunidad.
Infracciones de las Pautas para la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Entre el 1 de julio y el 31 de diciembre de 2024, en respuesta a las denuncias en la aplicación de infracciones a nuestras Pautas para la comunidad, los equipos de Seguridad de Snap tomaron un total de 6 346 508 medidas de cumplimiento a nivel mundial, incluidas medidas de cumplimiento aplicadas a 4 075 838 cuentas únicas. El tiempo de respuesta promedio para que nuestros equipos de Seguridad tomen medidas de cumplimiento en respuesta a esas denuncias fue de aproximadamente 24 minutos. A continuación se proporciona un desglose por categoría de denuncia.
Denuncias totales de cuentas y contenido
Total de penalizaciones
Total de cuentas únicas penalizadas
19 379 848
6 346 508
4 075 838
Razón de la política
Denuncias de cuentas y contenido
Total de penalizaciones
% del total de denuncias penalizadas por Snap
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
5 251 375
2 042 044
32,20 %
1 387 749
4
Explotación sexual infantil
1 224 502
469 389
7,40 %
393 384
133
Acoso y hostigamiento
6 377 555
2 702 024
42,60 %
2 009 573
7
Amenazas y violencia
1 000 713
156 295
2,50 %
129 077
8
Suicidio y autolesiones
307 660
15 149
0,20 %
13 885
10
Información falsa
536 886
6454
0,10 %
6095
1
Suplantación de identidad
678 717
8790
0,10 %
8569
2
Correo no deseado
1 770 216
180 849
2,80 %
140 267
1
Drogas
418 431
244 451
3,90 %
159 452
23
Armas
240 767
6.473
0,10 %
5252
1
Otros productos regulados
606 882
199 255
3,10 %
143 560
8
Incitación al odio
768 705
314 134
4,90 %
263 923
27
Terrorismo y extremismo violento
197 439
1201
<0,1 %
1093
4
En comparación con el período del informe anterior, redujimos los tiempos de respuesta medios en todas las categorías de políticas en un promedio del 90 %. Esta reducción se debió en gran parte a un esfuerzo concertado para expandir nuestra capacidad de revisión, así como para mejorar nuestra priorización de las denuncias sobre la base de la gravedad del daño. También realizamos varios cambios específicos a nuestros esfuerzos de seguridad en el período de informe, que tuvieron un impacto en los datos informados acá, incluida la expansión de nuestros esfuerzos de cumplimiento en las cuentas en cuanto a nombres de usuario y nombres de pantalla que violan nuestras Pautas para la comunidad, la introducción de más información y protecciones para las Comunidades en Snapchat y la introducción de opciones de denuncia para tipos adicionales de medios, como las notas de voz, directamente a nosotros en la app.
Estos cambios, así como otros esfuerzos de seguridad y fuerzas externas, afectaron particularmente a ciertas áreas de políticas en comparación con el período de informe anterior. Estas categorías de políticas incluyen: contenido relacionado con sospecha de Explotación y abuso sexual infantil (CSEA), Información falsa dañina y Spam. Específicamente:
CSEA: En la segunda mitad de 2024, observamos una disminución del 12 % en las denuncias relacionados con CSEA y redujimos nuestro tiempo de respuesta medio para responder a contenido de CSEA denunciado en un 99 %. Estas tendencias son impulsadas en gran medida por los avances continuos en nuestros esfuerzos de detección proactiva, que nos permitieron eliminar el contenido de CSEA antes de que nos fuera denunciado, y las mejoras que realizamos en nuestros procesos para revisar y tomar medidas sobre las denuncias de CSEA de manera más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es más alto que en otras áreas de políticas porque el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo selecto de agentes especialmente capacitados.
Información falsa dañina: Observamos un aumento del 26 % en el volumen comunicado de denuncias relacionadas con información falsa dañina, impulsado principalmente por eventos políticos, incluidas las Elecciones de los Estados Unidos de noviembre de 2024.
Spam: en este período de informe, vimos una disminución de aproximadamente el 50 % en las medidas de cumplimiento totales y una disminución de aproximadamente el 46 % en el total de cuentas únicas con medidas de cumplimiento en respuesta a denuncias de sospecha de spam, lo que refleja mejoras en nuestras herramientas de detección proactiva y cumplimiento de la ley. Esto representa la continuidad de nuestros esfuerzos para abordar el spam a través de señales de cuenta y eliminar a los actores de spam más pronto en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último período de informe, durante el cual las medidas de cumplimiento totales y el total de cuentas únicas con medidas de cumplimiento por spam disminuyeron en aproximadamente un 65 % y aproximadamente un 60 % respectivamente.
Nuestros esfuerzos para detectar proactivamente y tomar medidas contra las infracciones de nuestras Pautas para la comunidad
Utilizamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, tomar medidas contra las infracciones a nuestras Pautas para la comunidad. Estas herramientas incluyen la tecnología de coincidencia de hash (incluidos PhotoDNA y Child Sexual Abuse Imagery (CSAI) de Google), la API de Seguridad de contenido de Google y otra tecnología personalizada diseñada para detectar textos y medios abusivos a veces aprovechando la inteligencia artificial y el aprendizaje automático.
En la segunda mitad de 2024, tomamos las siguientes medidas de cumplimiento después de detectar de forma proactiva las infracciones a nuestras Pautas para la comunidad utilizando herramientas de detección automatizada:
Total de penalizaciones
Total de cuentas únicas penalizadas
3 685 602
1 845 125
Razón de la política
Total de penalizaciones
Total de cuentas únicas penalizadas
Tiempo de respuesta promedio (minutos) desde la detección hasta la acción final
Contenido sexual
1 818 287
828 590
<1
Explotación sexual infantil
491 970
188 877
1
Acoso y hostigamiento
14 942
11 234
8
Amenazas y violencia
43 625
29 599
9
Suicidio y autolesiones
761
624
9
Información falsa
85
81
10
Suplantación de identidad
8
6
19
Correo no deseado
177 150
110 551
<1
Drogas
869 178
590 658
5
Armas
205 387
133 079
<1
Otros productos regulados
48 280
37 028
9
Incitación al odio
10 344
8683
10
Terrorismo y extremismo violento
5585
2951
21
Combatting Child Sexual Exploitation & Abuse
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.
Utilizamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen herramientas de coincidencia de hash (incluido PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de contenido de Google (para identificar imágenes ilegales novedosas y "nunca antes hashadas"). Además, en algunos casos, utilizamos señales de comportamiento para tomar medidas contra otra actividad sospechosa de CSEA. Denunciamos el contenido relacionado con CSEA al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de EE. UU., tal como lo requiere la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En la segunda mitad de 2024, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir una denuncia):
Total de contenido penalizado
Total de cuentas deshabilitadas
Envíos totales al NCMEC*
1 228 929
242 306
417 842
*Tené en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas individuales de medios enviadas al NCMEC es igual a nuestro contenido total penalizado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesitan
Snapchat permite a los amigos ayudarse entre sí en momentos difíciles proporcionando recursos y apoyo a los Snapchatters que los necesitan.
Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. También hemos desarrollado una página dedicada a la sextorsión financiera, y otros riesgos y daños sexuales, en un esfuerzo por apoyar a las personas en peligro. Nuestra lista global de recursos de seguridad está disponible públicamente para todos los Snapchatters, en nuestro Centro de Privacidad, Seguridad y Políticas.
Cuando nuestros equipos de Seguridad se dan cuenta de que hay un Snapchatter en peligro, cuentan con los elementos necesarios para proporcionar recursos de apoyo y prevención de autolesiones, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad y se encuentran a disposición de todos los Snapchatters.
Cantidad total de veces que fueron compartidos recursos para la prevención de suicidios
64 094
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta en la segunda mitad de 2024:
Razón de la política
Total de apelaciones
Total de restablecimientos
Total de decisiones confirmadas
Tiempo de entrega promedio (días) para procesar las apelaciones
TOTAL
493 782
35 243
458 539
5
Contenido sexual
162 363
6257
156 106
4
Explotación sexual infantil
102 585
15 318
87 267
6
Acoso y hostigamiento
53 200
442
52 758
7
Amenazas y violencia
4238
83
4155
5
Suicidio y autolesiones
31
1
30
5
Información falsa
3
0
3
<1
Suplantación de identidad
847
33
814
7
Correo no deseado
19 533
5090
14 443
9
Drogas
133 478
7598
125 880
4
Armas
4678
136
4542
6
Otros productos regulados
9153
168
8985
6
Incitación al odio
3541
114
3427
7
Terrorismo y extremismo violento
132
3
129
9
Descripción General Regional y del País
Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias en la aplicación de infracciones, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad rigen todo el contenido en Snapchat (y a todos los Snapchatters) en todo el mundo, independientemente de la ubicación.
La información para países individuales, incluidos todos los Estados Miembros de la UE, está disponible para descargar a través del archivo CSV adjunto.
Región
Total de penalizaciones
Total de cuentas únicas penalizadas
América del Norte
3 828 389
2 117 048
Europa
2 807 070
1 735 054
Resto del Mundo
3 396 651
1 846 110
Total
10 032 110
5 698 212
Región
Denuncias de cuentas y contenido
Total de penalizaciones
Total de cuentas únicas penalizadas
América del Norte
5 916 815
2 229 465
1 391 304
Europa
5 781 317
2 085 109
1 378 883
Resto del Mundo
7 681 716
2 031 934
1 319 934
Total
19 379 848
6 346 508
4 090 121
Total de penalizaciones
Total de cuentas únicas penalizadas
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Moderación de Anuncios
Snap se compromete a garantizar que todos los anuncios cumplan totalmente con nuestras normas de publicidad. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que tomamos en serio.
A continuación hemos incluido información sobre nuestra moderación para los anuncios de pago que se nos informan después de su publicación en Snapchat. Tené en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Normas de publicidad de Snap, que incluyen contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e infracción de la propiedad intelectual. Además, ahora podés encontrar la Galería de anuncios de Snapchat en el centro de transparencia de Snap, a la que se puede acceder directamente a través de la barra de navegación.
Total de anuncios denunciados
Total de anuncios eliminados
43 098
17 833


