20 de junio de 2025
1 de julio de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Como parte de nuestro compromiso con la seguridad y la transparencia, nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este Informe de transparencia abarca el segundo semestre de 2024 (del 1 de julio al 31 de diciembre). Compartimos datos globales sobre los informes de los usuarios y la detección proactiva por parte de Snap; las medidas de cumplimiento de nuestros equipos de Seguridad en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondemos a las solicitudes de las fuerzas de seguridad y los gobiernos; y cómo respondemos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos información específica por país en una serie de páginas vinculadas.
Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.
Ten en cuenta que la versión más actualizada de este Informe de transparencia es la versión en inglés.
Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad
Nuestros equipos de Seguridad hacen cumplir nuestros Lineamientos de la comunidad tanto proactivamente (a través del uso de herramientas de detección automatizadas) como reactivamente (en respuesta a los informes), como se detalla más específicamente en las siguientes secciones de este informe. En este ciclo de informes (2° semestre de 2024), nuestros equipos de Seguridad tomaron la siguiente cantidad de medidas de cumplimiento:
Total de cumplimientos
Total de cuentas únicas penalizadas
10,032,110
5,698,212
A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el "tiempo de respuesta" promedio entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:
Razón de la política
Total de cumplimientos
Total de cuentas únicas penalizadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
3,860,331
2,099,512
2
Explotación sexual infantil
961,359
577,682
23
Acoso y bullying
2,716,966
2,019,439
7
Amenazas y violencia
199,920
156,578
8
Autolesiones y suicidio
15,910
14,445
10
Información falsa
6,539
6,176
1
Suplantación de Identidad
8,798
8,575
2
Spam
357,999
248,090
1
Drogas
1,113,629
718,952
6
Armas
211,860
136,953
1
Otros bienes regulados
247,535
177,643
8
Discurso de odio
324,478
272,025
27
Terrorismo y extremismo violento
6,786
4,010
5
Durante el período del informe, vimos una Tasa de visualizaciones violatorias (VVR, por su sigla en inglés) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros Lineamientos de la comunidad.
Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Entre el 1 de julio y el 31 de diciembre de 2024, en respuesta a los informes en la app de infracciones a nuestros lineamientos de la comunidad, los equipos de Seguridad de Snap tomaron un total de 6,346,508 medidas de cumplimiento a nivel mundial, incluidas medidas de cumplimiento aplicadas a 4,075,838 cuentas únicas. El tiempo promedio para que los equipos de Seguridad tomaran medidas de cumplimiento en respuesta a esos informes fue de aproximadamente 6 minutos. Se ofrece a continuación un desglose por categoría de informe.
Informes de cuentas y contenido totales
Total de cumplimientos
Total de cuentas únicas penalizadas
19,379,848
6,346,508
4,075,838
Razón de la política
Informes de cuentas y contenido
Total de cumplimientos
% del total de informes aplicados por Snap
Total de cuentas únicas penalizadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
5,251,375
2,042,044
32.20 %
1,387,749
4
Explotación sexual infantil
1,224,502
469,389
7.40 %
393,384
133
Acoso y bullying
6,377,555
2,702,024
42.60 %
2,009,573
7
Amenazas y violencia
1,000,713
156,295
2.50 %
129,077
8
Autolesiones y suicidio
307,660
15,149
0.20 %
13,885
10
Información falsa
536,886
6,454
0.10 %
6,095
1
Suplantación de Identidad
678,717
8,790
0.10 %
8,569
2
Spam
1,770,216
180,849
2.80 %
140,267
1
Drogas
418,431
244,451
3.90 %
159,452
23
Armas
240,767
6,473
0.10 %
5,252
1
Otros bienes regulados
606,882
199,255
3.10 %
143,560
8
Discurso de odio
768,705
314,134
4.90 %
263,923
27
Terrorismo y extremismo violento
197,439
1,201
<0.1 %
1,093
4
En comparación con el período de informe anterior, redujimos los tiempos de respuesta promedio en todas las categorías de políticas en un promedio del 90 %. Esta reducción se debió en gran parte a un esfuerzo concertado para expandir nuestra capacidad de revisión, así como para mejorar nuestra priorización de los informes según la gravedad del daño. También hicimos varios cambios específicos en nuestros esfuerzos de seguridad en el período de informe, lo que tuvo un impacto en los datos informados aquí, incluida la expansión de nuestros esfuerzos para hacer cumplir las cuentas cuyos nombres y nombres de usuario infringen nuestros lineamientos de la comunidad, la introducción de más informes y protecciones para las Comunidades en Snapchat y la introducción de opciones de informe para tipos adicionales de medios, como notas de voz, directamente a nosotros en la app.
Estos cambios, así como otros esfuerzos de seguridad y fuerzas externas, afectaron particularmente ciertas áreas de políticas en comparación con el período de informe anterior. Estas categorías de políticas incluyen: contenido relacionado con sospechas de Explotación y abuso sexual infantil (CSEA), Información falsa y dañina y Spam. Específicamente:
CSEA: En la segunda mitad de 2024, observamos una disminución del 12 % en los informes relacionados con CSEA y redujimos nuestro tiempo de respuesta promedio para responder al contenido de CSEA informado en un 99 %. Estas tendencias se deben en gran parte a los avances continuos en nuestros esfuerzos de detección proactiva, lo que nos permitió eliminar el contenido de CSEA antes de que nos fuera informado y las mejoras que hemos hecho en nuestros procesos para revisar y tomar medidas sobre los informes de CSEA de manera más eficiente. Incluso con estas mejoras, nuestro tiempo de respuesta de CSEA es más alto que en otras áreas de políticas porque el contenido está sujeto a un proceso especializado que incluye una doble revisión con un equipo selecto de agentes especialmente capacitados.
Información falsa y dañina: Observamos un aumento del 26 % en el volumen comunicado de informes relacionados con Información falsa y dañina, impulsado principalmente por eventos políticos, incluidas las elecciones de los Estados Unidos de noviembre de 2024.
Spam: En este período de informe vimos una disminución de aproximadamente el 50 % en las medidas de cumplimiento totales y una disminución de aproximadamente el 46 % en el total de cuentas únicas con medidas de cumplimiento, en respuesta a los informes de sospecha de spam, lo que refleja mejoras en nuestras herramientas de detección proactiva y cumplimiento de las normas. Esta es una continuación de nuestros esfuerzos para abordar al spam a través de señales de la cuenta y eliminar los actores de spam más pronto en su actividad en la plataforma. Este esfuerzo ya estaba en marcha durante el último período de informe, durante el cual las medidas de cumplimiento totales y el total de cuentas únicas con medidas de cumplimiento en relación con las normas de Spam disminuyeron en aproximadamente un 65 % y un 60 %, respectivamente.
Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad
Usamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestros Lineamientos de la comunidad. Estas herramientas incluyen tecnología de coincidencia de hash (incluyendo PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google), la API de Seguridad de Contenido de Google y otra tecnología personalizada diseñada para detectar texto y medios abusivos, a veces aprovechando la inteligencia artificial y el aprendizaje automático.
En la segunda mitad de 2024, tomamos las siguientes medidas de cumplimiento después de detectar proactivamente las infracciones de nuestros Lineamientos de la comunidad usando herramientas de detección automatizadas:
Total de cumplimientos
Total de cuentas únicas penalizadas
3,685,602
1,845,125
Razón de la política
Total de cumplimientos
Total de cuentas únicas penalizadas
Tiempo de respuesta medio (minutos) desde la detección hasta la acción final
Contenido sexual
1,818,287
828,590
<1
Explotación sexual infantil
491,970
188,877
1
Acoso y bullying
14,942
11,234
8
Amenazas y violencia
43,625
29,599
9
Autolesiones y suicidio
761
624
9
Información falsa
85
81
10
Suplantación de Identidad
8
6
19
Spam
177,150
110,551
<1
Drogas
869,178
590,658
5
Armas
205,387
133,079
<1
Otros bienes regulados
48,280
37,028
9
Discurso de odio
10,344
8,683
10
Terrorismo y extremismo violento
5,585
2,951
21
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar el abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Usamos herramientas de detección de tecnología activa para ayudar a identificar el contenido relacionado con CSEA. Estas herramientas incluyen el mecanismo de coincidencia de hash (incluidos PhotoDNA y CSAI Match de Google, para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente) y la API de Seguridad de Contenido de Google (para identificar imágenes ilegales nuevas y "nunca antes hasheadas"). Además, en algunos casos, usamos señales de comportamiento para combatir otras actividades sospechosas de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. El NCMEC luego coordina con las fuerzas de seguridad nacionales o internacionales, según sea necesario.
En la segunda mitad de 2024, tomamos las siguientes medidas al identificar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):
Total de contenido regulado
Total de cuentas inhabilitadas
Envíos totales al NCMEC*
1,228,929
242,306
417,842
*Ten en cuenta que cada envío al NCMEC puede contener varias piezas de contenido. El total de piezas de contenido multimedia individuales enviado al NCMEC es igual a nuestro contenido total regulado.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten
Snapchat permite que los amigos se ayuden mutuamente en momentos difíciles al proporcionar recursos y apoyo para los Snapchatters que los necesiten.
Nuestra herramienta de búsqueda Here For You proporciona recursos de expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, ansiedad, depresión, estrés, pensamientos suicidas, dolor y bullying. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la sextorsión económica y otros relacionados con la sexualidad, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente a todos los Snapchatters en nuestro centro de privacidad, seguridad y política.
Cuando nuestros equipos de Seguridad se dan cuenta de que un Snapchatter está en peligro, cuentan con los elementos necesarios para proporcionar recursos de apoyo y prevención de autolesiones, y para notificar a los servicios de emergencia, según sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, que están a disposición de todos los Snapchatters.
Total de veces que se han compartido recursos relacionados con el suicidio
64,094
Apelaciones
A continuación proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitaron una revisión de nuestra decisión de bloquear su cuenta en la segunda mitad de 2024:
Razón de la política
Total de apelaciones
Total de reincorporaciones
Total de decisiones confirmadas
Tiempo medio de respuesta (días) para procesar las apelaciones
TOTAL
493,782
35,243
458,539
5
Contenido sexual
162,363
6,257
156,106
4
Explotación sexual infantil
102,585
15,318
87,267
6
Acoso y bullying
53,200
442
52,758
7
Amenazas y violencia
4,238
83
4,155
5
Autolesiones y suicidio
31
1
30
5
Información falsa
3
0
3
<1
Suplantación de Identidad
847
33
814
7
Spam
19,533
5,090
14,443
9
Drogas
133,478
7,598
125,880
4
Armas
4,678
136
4,542
6
Otros bienes regulados
9,153
168
8,985
6
Discurso de odio
3,541
114
3,427
7
Terrorismo y extremismo violento
132
3
129
9
Descripción regional y por país
Esta sección proporciona una descripción general de las acciones de nuestros equipos de Seguridad para hacer cumplir nuestros Lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la app, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.
La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.
Región
Total de cumplimientos
Total de cuentas únicas penalizadas
América del Norte
3,828,389
2,117,048
Europa
2,807,070
1,735,054
Resto del mundo
3,396,651
1,846,110
Total
10,032,110
5,698,212
Región
Informes de cuentas y contenido
Total de cumplimientos
Total de cuentas únicas penalizadas
América del Norte
5,916,815
2,229,465
1,391,304
Europa
5,781,317
2,085,109
1,378,883
Resto del mundo
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total de cumplimientos
Total de cuentas únicas penalizadas
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable con respecto a la publicidad, que crea una experiencia segura para todos los Snapchatters. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a la retroalimentación de los usuarios, que tomamos en serio.
A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Además, ahora puedes encontrar la Galería de anuncios de Snapchat en el centro de transparencia de Snap, accesible directamente a través de la barra de navegación.
Total de anuncios reportados
Total de anuncios eliminados
43,098
17,833


