27 de junio de 2025
27 de junio de 2025
Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Estamos comprometidos con estos esfuerzos y nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.
Este informe de transparencia cubre la primera mitad de 2024 (del 1.º de enero al 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el volumen global de informes de contenido en la aplicación y a nivel de cuenta que nuestros equipos de Confianza y Seguridad recibieron e hicieron cumplir en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondimos a las solicitudes de las fuerzas del orden y de los Gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos perspectivas específicas por país en los archivos enlazados en lo más bajo de esta página.
Como parte de nuestro compromiso continuo de mejorar continuamente nuestros informes de transparencia, también presentamos nuevos datos que destacan nuestros esfuerzos proactivos de detectar y hacer cumplir las normas para prevenir una gama más amplia de infracciones a nuestros lineamientos de la comunidad. Incluimos en este informe estos datos tanto a nivel global como a nivel nacional y lo seguiremos haciendo en el futuro. También corregimos un error de etiquetado en nuestros informes previos: cuando antes hacíamos referencia a ”contenido total al que se aplicaron las normas”, ahora hacemos referencia a “aplicaciones totales” para reflejar el hecho de que los datos proporcionados en las columnas relevantes incluyen aplicaciones tanto a nivel de contenido como a nivel de cuenta.
Para obtener más información sobre nuestras políticas para combatir posibles riesgos en línea y los planes para seguir haciendo evolucionar nuestras prácticas de elaboración de informes, lee nuestro reciente blog de seguridad e impacto sobre este informe de transparencia. Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.
Recuerda que la versión más actualizada de este Informe de transparencia está disponible en la versión EN-US.
Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad
Nuestros equipos de Confianza y Seguridad hacen cumplir nuestros lineamientos de la comunidad de manera proactiva (usando herramientas automatizadas) y reactiva (en respuesta a informes), como se dan más detalles en las siguientes secciones de este informe. En este ciclo de informes (primer semestre de 2024), nuestros equipos de Confianza y Seguridad tomaron las siguientes medidas de cumplimiento:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el tiempo de respuesta promedio entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Durante el período del informe, vimos una Tasa de Visualizaciones Violatorias (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros lineamientos de la comunidad.
Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad
Del 1º de enero al 30 de junio de 2024, en respuesta a los informes en la aplicación sobre infracciones a nuestros lineamientos de la comunidad, los equipos de Confianza y Seguridad de Snap tomaron un total de 6,223,618 medidas de cumplimiento a nivel mundial, incluidas medidas de cumplimiento contra 3,842,507 cuentas únicas. El tiempo promedio para que los equipos de Confianza y Seguridad tomen medidas de cumplimiento en respuesta a esos informes fue aproximadamente 24 minutos. Se ofrece a continuación un desglose por categoría de informe.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Nuestros volúmenes generales de informes se mantuvieron bastante estables en el primer semestre de 2024, en comparación con los seis meses anteriores. En este ciclo, vimos un aumento en aplicaciones y cuentas únicas totales aplicadas en aproximadamente 16%.
En los últimos 12 meses, Snap introdujo nuevos mecanismos de informes para los usuarios, que dan cuenta de los cambios en nuestros volúmenes informados y aplicados, y de los aumentos en los tiempos de entrega en este periodo de informe (primer semestre de 2024). Específicamente:
Informes de chat de grupo: Presentamos los informes de chat de grupo el de 13 de octubre de 2023, que permiten a los usuarios denunciar el abuso que ocurre en un chat de varias personas. Este cambio afectó la composición de nuestras métricas en todas las categorías de informes (porque es más probable que algunos daños potenciales ocurran en un contexto de chat) y aumentó la capacidad de acción de los informes.
Mejoras en los informes de cuentas: También evolucionamos nuestra función de informes de cuentas para dar a los usuarios de informes una opción de enviar pruebas de chat al denunciar una cuenta que se sospecha que está siendo operada por un delincuente. Este cambio, que nos proporciona más evidencia y contexto para evaluar los informes de cuentas, se lanzó el 29 de febrero de 2024.
Los informes de chat, y especialmente los informes de chat de grupo, se encuentran entre los más complejos y revisarlos consumen mucho tiempo, lo que aumentó los tiempos de respuesta en todos los ámbitos.
Los informes de sospechas de explotación y abuso sexual infantil (CSEA), acoso y bullying, y discursos de odio se vieron particularmente afectados por los dos cambios descritos anteriormente, y por los cambios en el ecosistema más general. Específicamente:
CSEA: Observamos un aumento en informes y aplicaciones relacionados con CSEA en el primer semestre de 2024. En específico, vimos un aumento del 64% en los informes por parte de los usuarios dentro de la aplicación, un aumento del 82% en las medidas de cumplimiento y un aumento del 108% en el total de cuentas únicas a las que se les aplicaron medidas de cumplimiento. Estos aumentos se deben en gran medida a la presentación de las funciones del chat en grupo y de denuncia de cuentas. Dada la naturaleza sensible de esta cola de moderación, se asigna a un equipo selecto de agentes altamente capacitados para revisar los informes de posibles infracciones relacionadas con CSEA. La afluencia de informes adicionales combinada con nuestros equipos que se adaptan a nuevas capacitaciones ha resultado en un aumento en los tiempos de respuesta. En el futuro, hemos aumentado significativamente el tamaño de nuestros equipos de proveedores globales para reducir los tiempos de respuesta y aplicar con precisión los informes de posibles CSEA. Esperamos que nuestro informe de transparencia del segundo semestre refleje los frutos de este esfuerzo con un tiempo de respuesta materialmente mejorado.
Acoso y bullying: Según los informes, hemos observado que el acoso y el bullying ocurren de forma desproporcionada en los chats, y particularmente en los chats de grupo. Las mejoras que introdujimos en los informes del chat de grupo y los informes de cuentas nos ayudan a tomar medidas más completas al evaluar los informes en esta categoría de informes. Además, a partir de este período, requerimos que los usuarios ingresen un comentario al enviar un informe de acoso y bullying. Revisamos este comentario para contextualizar cada informe. Juntos, estos cambios llevaron a aumentos materiales en el total de aplicaciones (+91%), el total de cuentas únicas aplicadas (+82%) y el tiempo de respuesta (+245 minutos) para los informes correspondientes.
Discurso de odio: En el primer semestre de 2024, observamos aumentos en el contenido informado, el total de medidas de cumplimiento y el tiempo de respuesta para el discurso de odio. En específico, vimos un aumento del 61% en los informes en la aplicación, un aumento del 127% en las medidas de cumplimiento totales y un aumento del 125% en el total de cuentas únicas aplicadas. Esto se debió, en parte, a las mejoras en nuestros mecanismos de informes de chat (como se discutió anteriormente), y se vio exacerbado aún más por el entorno geopolítico, particularmente la continuación del conflicto Israel-Hamás.
Este período de informe, vimos una disminución de aproximadamente 65% en el total de medidas de cumplimiento y una disminución de aproximadamente 60% en el total de cuentas únicas aplicadas en respuesta a los informes de sospecha de spam y abuso, lo que refleja mejoras en nuestras herramientas proactivas de detección y aplicación. Vimos disminuciones similares en el total de medidas de cumplimiento en respuesta a los informes de contenido relacionado con autolesiones y suicidio (aproximadamente un 80% de disminuciones), lo que refleja nuestro enfoque actualizado centrado en las víctimas, según el cual nuestros equipos de Confianza y Seguridad enviarán, en los casos apropiados, recursos de autoayuda a los usuarios relevantes, en lugar de tomar una acción de cumplimiento contra esos usuarios. Este enfoque fue informado por los miembros de nuestra Junta de Asesores de Seguridad, incluido un profesor pediátrico y un médico que se especializa en medios interactivos y trastornos de Internet.
Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad
Implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar las normas contra las infracciones de nuestros lineamientos de la comunidad Estas herramientas incluyen herramientas de coincidencia de hash (incluidas PhotoDNA y Google Child Sexual Abuse Imagery [CSAI] Match), herramientas de detección de lenguaje abusivo (que detecta y aplica las normas con base en una lista identificada y actualizada con regularidad de palabras clave y emojis abusivos) y tecnología de inteligencia artificial y aprendizaje automático multimodal.
En el primer semestre de 2024, tomamos las siguientes medidas de cumplimiento después de detectar proactivamente, a través del uso de herramientas automatizadas, infracciones de nuestros lineamientos de la comunidad:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.
Usamos herramientas de detección de tecnología activa, como la coincidencia de hash robusta de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente. Además, en algunos casos, usamos señales de comportamiento para aplicar contra otras actividades potencialmente ilegales de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.
En la primera mitad de 2024, tomamos las siguientes medidas al detectar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten
Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, lo que sigue informando nuestras decisiones de construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amixes reales, creemos que Snapchat puede desempeñar un rol único a la hora de empoderar a los amixes para que se ayuden mutuamente en los momentos difíciles. Por eso hemos desarrollado recursos y apoyo para los Snapchatters que lo necesiten.
Nuestra herramienta de búsqueda Here For You muestra recursos de socios locales expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la extorsión financiera sexual y otros relacionados con la sexualidad, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente a todos los Snapchatters en nuestra centro de privacidad, seguridad y política.
Cuando nuestros equipos de Confianza y Seguridad tienen conocimiento de un Snapchatter en apuros, pueden enviarle recursos de apoyo y prevención de autolesiones, y avisar al personal de emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, y están a disposición pública de todos los Snapchatters.
Total Times Suicide Resources Shared
64,094
Apelaciones
A continuación, proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Descripción regional y por país
Esta sección proporciona una descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la aplicación, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.
La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Moderación de anuncios
Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable y respetuoso de la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que tomamos en serio.
A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Ahora también puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.
Total Ads Reported
Total Ads Removed
43,098
17,833


