Snap Values
Informe de transparencia
1 de julio de 2024 – 31 de diciembre de 2024

Publicado:

27 de junio de 2025

Actualizado:

27 de junio de 2025

Publicamos este informe de transparencia dos veces al año para proporcionar información sobre los esfuerzos de seguridad de Snap. Estamos comprometidos con estos esfuerzos y nos esforzamos continuamente para que estos informes sean más completos e informativos para las numerosas partes interesadas que se preocupan profundamente por nuestra moderación de contenido, las prácticas de cumplimiento de la ley y la seguridad y el bienestar de la comunidad de Snapchat.

Este informe de transparencia cubre la primera mitad de 2024 (del 1.º de enero al 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el volumen global de informes de contenido en la aplicación y a nivel de cuenta que nuestros equipos de Confianza y Seguridad recibieron e hicieron cumplir en categorías específicas de infracciones de los lineamientos de la comunidad; cómo respondimos a las solicitudes de las fuerzas del orden y de los Gobiernos; y cómo respondimos a los avisos de infracción de derechos de autor y marcas comerciales. También proporcionamos perspectivas específicas por país en los archivos enlazados en lo más bajo de esta página.

Como parte de nuestro compromiso continuo de mejorar continuamente nuestros informes de transparencia, también presentamos nuevos datos que destacan nuestros esfuerzos proactivos de detectar y hacer cumplir las normas para prevenir una gama más amplia de infracciones a nuestros lineamientos de la comunidad. Incluimos en este informe estos datos tanto a nivel global como a nivel nacional y lo seguiremos haciendo en el futuro. También corregimos un error de etiquetado en nuestros informes previos: cuando antes hacíamos referencia a ”contenido total al que se aplicaron las normas”, ahora hacemos referencia a “aplicaciones totales” para reflejar el hecho de que los datos proporcionados en las columnas relevantes incluyen aplicaciones tanto a nivel de contenido como a nivel de cuenta.

Para obtener más información sobre nuestras políticas para combatir posibles riesgos en línea y los planes para seguir haciendo evolucionar nuestras prácticas de elaboración de informes, lee nuestro reciente blog de seguridad e impacto sobre este informe de transparencia. Para encontrar recursos adicionales para la seguridad y privacidad en Snapchat, consulta nuestra pestaña sobre los Informes de transparencia en la parte inferior de la página.

Recuerda que la versión más actualizada de este Informe de transparencia está disponible en la versión EN-US.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Nuestros equipos de Confianza y Seguridad hacen cumplir nuestros lineamientos de la comunidad de manera proactiva (usando herramientas automatizadas) y reactiva (en respuesta a informes), como se dan más detalles en las siguientes secciones de este informe. En este ciclo de informes (primer semestre de 2024), nuestros equipos de Confianza y Seguridad tomaron las siguientes medidas de cumplimiento: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

A continuación se muestra un desglose por tipo de infracciones de los lineamientos de la comunidad afectadas, incluido el tiempo de respuesta promedio entre el momento en que detectamos el incumplimiento (ya sea proactivamente o al recibir un informe) y el momento en que tomamos la acción final sobre el contenido o la cuenta relevante:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Durante el período del informe, vimos una Tasa de Visualizaciones Violatorias (VVR) del 0.01 por ciento, lo que significa que de cada 10,000 visualizaciones de Snap e Historias en Snapchat, 1 contenía contenido que infringía nuestros lineamientos de la comunidad.

Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Del 1º de enero al 30 de junio de 2024, en respuesta a los informes en la aplicación sobre infracciones a nuestros lineamientos de la comunidad, los equipos de Confianza y Seguridad de Snap tomaron un total de 6,223,618 medidas de cumplimiento a nivel mundial, incluidas medidas de cumplimiento contra 3,842,507 cuentas únicas. El tiempo promedio para que los equipos de Confianza y Seguridad tomen medidas de cumplimiento en respuesta a esos informes fue aproximadamente 24 minutos. Se ofrece a continuación un desglose por categoría de informe.

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Nuestros volúmenes generales de informes se mantuvieron bastante estables en el primer semestre de 2024, en comparación con los seis meses anteriores. En este ciclo, vimos un aumento en aplicaciones y cuentas únicas totales aplicadas en aproximadamente 16%.

En los últimos 12 meses, Snap introdujo nuevos mecanismos de informes para los usuarios, que dan cuenta de los cambios en nuestros volúmenes informados y aplicados, y de los aumentos en los tiempos de entrega en este periodo de informe (primer semestre de 2024). Específicamente:

  • Informes de chat de grupo: Presentamos los informes de chat de grupo el de 13 de octubre de 2023, que permiten a los usuarios denunciar el abuso que ocurre en un chat de varias personas. Este cambio afectó la composición de nuestras métricas en todas las categorías de informes (porque es más probable que algunos daños potenciales ocurran en un contexto de chat) y aumentó la capacidad de acción de los informes.

  • Mejoras en los informes de cuentas: También evolucionamos nuestra función de informes de cuentas para dar a los usuarios de informes una opción de enviar pruebas de chat al denunciar una cuenta que se sospecha que está siendo operada por un delincuente. Este cambio, que nos proporciona más evidencia y contexto para evaluar los informes de cuentas, se lanzó el 29 de febrero de 2024.


Los informes de chat, y especialmente los informes de chat de grupo, se encuentran entre los más complejos y revisarlos consumen mucho tiempo, lo que aumentó los tiempos de respuesta en todos los ámbitos. 

Los informes de sospechas de explotación y abuso sexual infantil (CSEA), acoso y bullying, y discursos de odio se vieron particularmente afectados por los dos cambios descritos anteriormente, y por los cambios en el ecosistema más general. Específicamente:

  • CSEA: Observamos un aumento en informes y aplicaciones relacionados con CSEA en el primer semestre de 2024. En específico, vimos un aumento del 64% en los informes por parte de los usuarios dentro de la aplicación, un aumento del 82% en las medidas de cumplimiento y un aumento del 108% en el total de cuentas únicas a las que se les aplicaron medidas de cumplimiento. Estos aumentos se deben en gran medida a la presentación de las funciones del chat en grupo y de denuncia de cuentas. Dada la naturaleza sensible de esta cola de moderación, se asigna a un equipo selecto de agentes altamente capacitados para revisar los informes de posibles infracciones relacionadas con CSEA. La afluencia de informes adicionales combinada con nuestros equipos que se adaptan a nuevas capacitaciones ha resultado en un aumento en los tiempos de respuesta. En el futuro, hemos aumentado significativamente el tamaño de nuestros equipos de proveedores globales para reducir los tiempos de respuesta y aplicar con precisión los informes de posibles CSEA. Esperamos que nuestro informe de transparencia del segundo semestre refleje los frutos de este esfuerzo con un tiempo de respuesta materialmente mejorado. 

  • Acoso y bullying: Según los informes, hemos observado que el acoso y el bullying ocurren de forma desproporcionada en los chats, y particularmente en los chats de grupo. Las mejoras que introdujimos en los informes del chat de grupo y los informes de cuentas nos ayudan a tomar medidas más completas al evaluar los informes en esta categoría de informes. Además, a partir de este período, requerimos que los usuarios ingresen un comentario al enviar un informe de acoso y bullying. Revisamos este comentario para contextualizar cada informe. Juntos, estos cambios llevaron a aumentos materiales en el total de aplicaciones (+91%), el total de cuentas únicas aplicadas (+82%) y el tiempo de respuesta (+245 minutos) para los informes correspondientes. 

  • Discurso de odio: En el primer semestre de 2024, observamos aumentos en el contenido informado, el total de medidas de cumplimiento y el tiempo de respuesta para el discurso de odio. En específico, vimos un aumento del 61% en los informes en la aplicación, un aumento del 127% en las medidas de cumplimiento totales y un aumento del 125% en el total de cuentas únicas aplicadas. Esto se debió, en parte, a las mejoras en nuestros mecanismos de informes de chat (como se discutió anteriormente), y se vio exacerbado aún más por el entorno geopolítico, particularmente la continuación del conflicto Israel-Hamás. 

Este período de informe, vimos una disminución de aproximadamente 65% en el total de medidas de cumplimiento y una disminución de aproximadamente 60% en el total de cuentas únicas aplicadas en respuesta a los informes de sospecha de spam y abuso, lo que refleja mejoras en nuestras herramientas proactivas de detección y aplicación. Vimos disminuciones similares en el total de medidas de cumplimiento en respuesta a los informes de contenido relacionado con autolesiones y suicidio (aproximadamente un 80% de disminuciones), lo que refleja nuestro enfoque actualizado centrado en las víctimas, según el cual nuestros equipos de Confianza y Seguridad enviarán, en los casos apropiados, recursos de autoayuda a los usuarios relevantes, en lugar de tomar una acción de cumplimiento contra esos usuarios. Este enfoque fue informado por los miembros de nuestra Junta de Asesores de Seguridad, incluido un profesor pediátrico y un médico que se especializa en medios interactivos y trastornos de Internet.

Nuestros esfuerzos para detectar y aplicar proactivamente las normas ante las infracciones de nuestros lineamientos de la comunidad

Detección y aplicación proactiva de nuestros lineamientos de la comunidad


Implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, aplicar las normas contra las infracciones de nuestros lineamientos de la comunidad Estas herramientas incluyen herramientas de coincidencia de hash (incluidas PhotoDNA y Google Child Sexual Abuse Imagery [CSAI] Match), herramientas de detección de lenguaje abusivo (que detecta y aplica las normas con base en una lista identificada y actualizada con regularidad de palabras clave y emojis abusivos) y tecnología de inteligencia artificial y aprendizaje automático multimodal.

En el primer semestre de 2024, tomamos las siguientes medidas de cumplimiento después de detectar proactivamente, a través del uso de herramientas automatizadas, infracciones de nuestros lineamientos de la comunidad:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Combatiendo la explotación y el abuso sexual infantil 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestros Lineamientos de la comunidad. Prevenir, detectar y erradicar las imágenes de abuso y explotación sexual infantil (CSEA, por sus siglas en inglés) en nuestra plataforma es una prioridad para Snap, y desarrollamos continuamente nuestras capacidades para combatir estos y otros delitos.

Usamos herramientas de detección de tecnología activa, como la coincidencia de hash robusta de PhotoDNA y la coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente. Además, en algunos casos, usamos señales de comportamiento para aplicar contra otras actividades potencialmente ilegales de CSEA. Denunciamos los contenidos relacionados con la CSEA ante el U.S. National Center for Missing and Exploited Children [Centro Nacional de Niños Desaparecidos y Explotados de EE. UU.] (NCMEC), como lo exige la ley. Luego, el NCMEC, a su vez, coordina con las fuerzas de seguridad nacionales o internacionales según sea necesario.

En la primera mitad de 2024, tomamos las siguientes medidas al detectar CSEA en Snapchat (ya sea proactivamente o al recibir un informe):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters que lo necesiten

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, lo que sigue informando nuestras decisiones de construir Snapchat de forma diferente. Como plataforma diseñada para la comunicación entre amixes reales, creemos que Snapchat puede desempeñar un rol único a la hora de empoderar a los amixes para que se ayuden mutuamente en los momentos difíciles. Por eso hemos desarrollado recursos y apoyo para los Snapchatters que lo necesiten. 

Nuestra herramienta de búsqueda Here For You muestra recursos de socios locales expertos cuando los usuarios buscan ciertos temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el dolor y el acoso. Disponemos de una página dedicada a abordar los riesgos y posibles problemas relacionados con la extorsión financiera sexual y otros relacionados con la sexualidad, como parte de nuestro compromiso por apoyar a las personas en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente a todos los Snapchatters en nuestra centro de privacidad, seguridad y política.

Cuando nuestros equipos de Confianza y Seguridad tienen conocimiento de un Snapchatter en apuros, pueden enviarle recursos de apoyo y prevención de autolesiones, y avisar al personal de emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista global de recursos de seguridad, y están a disposición pública de todos los Snapchatters.

Total Times Suicide Resources Shared

64,094

Apelaciones

A continuación, proporcionamos información sobre las apelaciones que recibimos de los usuarios que solicitan una revisión de nuestra decisión de bloquear su cuenta:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Descripción regional y por país

Esta sección proporciona una descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad, tanto proactivamente como en respuesta a los informes de infracciones en la aplicación, en una muestra de regiones geográficas. Aplicamos nuestros Lineamientos de la comunidad a todo el contenido de Snapchat (y a todos los Snapchatters) en todo el mundo sin importar su ubicación.

La información de cada país, incluidos todos los Estados miembros de la UE, puede descargarse mediante el archivo CSV adjunto.

Descripción general de las acciones de nuestros equipos de Confianza y Seguridad para hacer cumplir nuestros lineamientos de la comunidad

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Infracciones a los lineamientos de la comunidad denunciadas a nuestros equipos de Confianza y Seguridad

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Detección proactiva y aplicación de nuestros lineamientos de la comunidad

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente con nuestras políticas publicitarias. Creemos en un enfoque responsable y respetuoso de la publicidad, que cree una experiencia segura y agradable para todos nuestros usuarios. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho de eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que tomamos en serio. 


A continuación, hemos incluido información sobre nuestra moderación para los anuncios pagados que se nos informan después de su publicación en Snapchat Ten en cuenta que los anuncios en Snapchat se pueden eliminar por una variedad de razones, como se describe en las Políticas publicitarias de Snap, lo que incluye contenido engañoso, contenido para adultos, contenido violento o perturbador, discurso de odio e incumplimiento de la propiedad intelectual. Ahora también puedes encontrar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.

Total Ads Reported

Total Ads Removed

43,098

17,833