Snap Values
Informe de transparencia
1 de enero de 2024 - 30 de junio de 2024

Publicado:

5 de diciembre de 2024

Actualizado:

5 de diciembre de 2024

Publicamos este informe de transparencia dos veces al año para dar a conocer los esfuerzos de Snap en materia de seguridad. Estamos comprometidos con estos esfuerzos y nos esforzamos continuamente para que estos informes sean más completos e informativos para las muchas partes interesadas que se preocupan profundamente por nuestra moderación de contenidos, las prácticas de aplicación de la ley y la seguridad y el bienestar de la comunidad de Snapchat. 

Este informe de transparencia abarca el primer semestre de 2024 (1 de enero - 30 de junio). Al igual que en nuestros informes anteriores, compartimos datos sobre el volumen global de contenido dentro de la aplicación y los informes a nivel de cuenta que nuestros equipos de confianza y seguridad recibieron y aplicaron en categorías específicas de infracciones de las Pautas para la comunidad; cómo respondimos a las solicitudes de las fuerzas del orden y los gobiernos; y cómo respondimos a las notificaciones de infracción de derechos de autor y marcas registradas. Como parte de nuestro compromiso permanente de mejorar continuamente nuestros informes de transparencia,

también estamos introduciendo nuevos datos que destacan nuestros esfuerzos proactivos para detectar y hacer cumplir una gama más amplia de infracciones de nuestras Pautas para la comunidad. Hemos incluido estos datos tanto a nivel mundial como nacional en este informe y seguiremos haciéndolo en el futuro. También hemos corregido un error de etiquetado en nuestros informes anteriores: donde antes nos referíamos a «Contenido total aplicado», ahora nos referimos a «Aplicaciones totales» para reflejar el hecho de que los datos proporcionados en las columnas pertinentes incluyen tanto las aplicaciones a nivel de contenido como a nivel de cuenta.

Para más información sobre nuestras políticas para combatir los posibles daños en línea, y los planes para seguir evolucionando nuestras prácticas de información, lea nuestro reciente blog seguridad e impacto sobre este informe de transparencia. Para encontrar recursos adicionales sobre seguridad y privacidad en Snapchat, consulta nuestra pestaña Acerca de los informes de transparencia al final de la página.

Tenga en cuenta que la versión más actualizada de este informe de transparencia se encuentra en la localización EN-US.

Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad

Nuestros equipos de confianza y seguridad hacen cumplir nuestras Pautas para la comunidad tanto de forma proactiva (mediante el uso de herramientas automatizadas) como reactiva (en respuesta a denuncias), como se detalla en las siguientes secciones de este informe. En este ciclo de informes (primer semestre de 2024), nuestros equipos de confianza y seguridad adoptaron las siguientes medidas de ejecución: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

A continuación figura un desglose por tipo de infracción de las Pautas para la Comunidad, incluido el tiempo medio transcurrido entre el momento en que detectamos la infracción (de forma proactiva o tras recibir una denuncia) y el momento en que tomamos medidas definitivas sobre el contenido o la cuenta en cuestión:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Durante el periodo del informe, vimos una tasa de visualizaciones infractoras (VVR) del 0,01%, lo que significa que de cada 10 000 visualizaciones de Snap e Historias en Snapchat, una incluía contenido que infringía nuestras Pautas para la comunidad.

Infracciones de las directrices comunitarias comunicadas a nuestros equipos de confianza y seguridad

Entre el 1 de enero y el 30 de junio de 2024, en respuesta a los informes dentro de la aplicación de infracciones de nuestras Pautas para la comunidad, los equipos de confianza y seguridad de Snap tomaron un total de 6.223.618 medidas de aplicación a nivel mundial, incluidas medidas de aplicación contra 3.842.507 cuentas únicas. El tiempo medio que tardaron nuestros equipos de confianza y seguridad en tomar medidas de aplicación en respuesta a esos informes fue de unos 24 minutos. A continuación se ofrece un desglose por categorías de informes. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Nuestro volumen global de informes se mantuvo bastante estable en el primer semestre de 2024, en comparación con los seis meses anteriores. En este ciclo, hemos observado un aumento de las ejecuciones totales y del total de cuentas únicas ejecutadas de aproximadamente el 16%.

En los últimos 12 meses, Snap ha introducido nuevos mecanismos de notificación para los usuarios, lo que explica los cambios en nuestros volúmenes notificados y aplicados, así como el aumento de los tiempos de respuesta en este periodo de notificación (1S 2024). Específicamente:

  • Denuncias de Chat grupal: El 13 de octubre de 2023 introdujimos la denuncia de Chat grupal, que permite a los usuarios denunciar los abusos que se produzcan en un chat de varias personas. Este cambio repercutió en la composición de nuestros indicadores en todas las categorías de informes (porque es más probable que algunos daños potenciales se produzcan en un contexto de chat) y aumentó la capacidad de acción de los informes. 

  • Mejoras en la denuncia de cuentas: También hemos evolucionado nuestra función de notificación de cuentas para ofrecer a los usuarios informantes la opción de enviar pruebas de chat cuando denuncien una cuenta sospechosa de ser operada por un actor malintencionado. Este cambio, que nos proporciona mayores pruebas y contexto para evaluar los informes de cuentas, se puso en marcha el 29 de febrero de 2024. 


Los informes de Chat, y en especial los de Chat grupal, son de los más complejos y lentos de revisar, lo que incrementó el tiempo de respuesta en general. 

Las denuncias por sospecha de explotación y abuso sexual infantil (ESI), acoso e intimidación y incitación al odio se vieron especialmente afectadas por los dos cambios descritos anteriormente y por los cambios en el ecosistema en general. Específicamente:

  • CSEA: Observamos un aumento de las denuncias y ejecuciones relacionadas con la CSEA en el primer semestre de 2024. En concreto, hemos observado un aumento del 64 % en el total de denuncias dentro de la aplicación por parte de los usuarios, un aumento del 82 % en el total de sanciones y un aumento del 108 % en el total de cuentas únicas sancionadas. Estos aumentos se deben en gran medida a la introducción de las funciones de Chat grupal y de informes de cuentas. Dada la naturaleza sensible de esta cola de moderación, se asigna un equipo selecto de agentes altamente capacitados para revisar los informes de posibles infracciones relacionadas con la CSEA. La afluencia de informes adicionales, combinada con la adaptación de nuestros equipos a las nuevas formaciones, ha provocado un aumento de los plazos de entrega. De cara al futuro, hemos aumentado considerablemente el tamaño de nuestros equipos de proveedores globales para reducir los plazos de respuesta y aplicar con precisión los informes de posibles CSEA. Esperamos que nuestro informe de transparencia H2 2024 refleje los frutos de este esfuerzo con un plazo de entrega materialmente mejorado. 

  • Acoso e intimidación: Basándonos en los informes, hemos observado que el acoso y la intimidación se producen de forma desproporcionada en los chats, y en particular en los Chat grupal. Las mejoras que hemos introducido en los informes de Chat de grupal y en los informes de cuentas nos ayudan a tomar medidas más exhaustivas a la hora de evaluar los informes de esta categoría de informes. Además, a partir de este periodo, exigimos a los usuarios que introduzcan un comentario al enviar una denuncia de acoso e intimidación. Revisamos este comentario para contextualizar cada informe. En conjunto, estos cambios se tradujeron en aumentos sustanciales del total de ejecuciones (+91 %), el total de cuentas únicas ejecutadas (+82 %) y el tiempo de respuesta (+245 minutos) de los informes correspondientes. 

  • Discurso de odio: En el primer semestre de 2024, se observaron aumentos en el contenido denunciado, en el total de ejecuciones y en el tiempo de respuesta por incitación al odio. En concreto, hemos observado un aumento del 61 % en las denuncias dentro de la aplicación, un aumento del 127 % en el total de sanciones y un aumento del 125 % en el total de cuentas únicas sancionadas. Esto se debió, en parte, a las mejoras en nuestros mecanismos de información por chat (como ya se ha comentado), y se vio agravado por el entorno geopolítico, en particular la continuación del conflicto entre Israel y Hamás. 

En este periodo, hemos observado un descenso del 65 % en el número total de sanciones y del 60 % en el número total de cuentas únicas sancionadas en respuesta a informes de sospecha de spam y abuso, lo que refleja las mejoras en nuestras herramientas proactivas de detección y sanción. Hemos observado descensos similares en el número total de medidas coercitivas en respuesta a las denuncias de contenidos relacionados con autolesiones y el suicidio (~80 % menos), lo que refleja nuestro enfoque actualizado centrado en las víctimas, según el cual nuestros equipos de confianza y seguridad, en los casos apropiados, enviarán a los usuarios pertinentes recursos de autoayuda, en lugar de tomar medidas coercitivas contra esos usuarios. Este planteamiento fue informado por los miembros de nuestro Consejo Asesor de Seguridad, entre ellos un profesor de pediatría y médico especializado en medios interactivos y trastornos de Internet.

Nuestros esfuerzos para detectar y hacer cumplir de forma proactiva las infracciones de nuestras Pautas para la comunidad

Detección proactiva y aplicación de nuestras Pautas para la comunidad


Desplegamos herramientas automatizadas para detectar de forma proactiva y, en algunos casos, hacer cumplir las infracciones de nuestras Pautas para la comunidad. Entre estas herramientas se encuentran las de cotejo de hash (como PhotoDNA y Google Child Sexual Abuse Imagery (CSAI) Match), las de detección de lenguaje abusivo (que detectan y aplican en función de una lista identificada y actualizada periódicamente de palabras clave y emojis abusivos), y la tecnología de inteligencia artificial multimodal / aprendizaje automático. 

En el primer semestre de 2024, adoptamos las siguientes medidas coercitivas tras detectar proactivamente, mediante el uso de herramientas automatizadas, infracciones de nuestras Pautas para la comunidad:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Cómo combatir la explotación y el abuso sexual de menores 

La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de los menores, es ilegal, aberrante y está prohibida por nuestras Pautas para la comunidad. La prevención, detección y erradicación de las imágenes de explotación y abuso sexual a menores (CSEAI) en nuestra plataforma es una de las principales prioridades de Snap y desarrollamos continuamente nuestras capacidades para combatir este y otros delitos.

Utilizamos herramientas tecnológicas activas de detección, como PhotoDNA robust hash-matching y Google's Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente. Además, en algunos casos, utilizamos señales de comportamiento para hacer cumplir la ley contra otras actividades potencialmente ilegales de CSEA. Informamos de los contenidos relacionados con la CSEA al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC), tal como exige la ley. El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales, según sea necesario.

En el primer semestre de 2024, tomamos las siguientes medidas al detectar CSEA en Snapchat (de forma proactiva o al recibir una denuncia):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Nuestros esfuerzos para proporcionar recursos y apoyo a los Snapchatters necesitados

Nos preocupamos profundamente por la salud mental y el bienestar de los Snapchatters, que continúan tomando decisiones para construir Snapchat de manera diferente. Como plataforma diseñada para la comunicación entre amigos reales, creemos que Snapchat puede desempeñar un papel único a la hora de ayudar a los amigos a ayudarse mutuamente en los momentos difíciles. Por eso hemos desarrollado recursos y apoyo para los Snapchatters que lo necesiten. 

Nuestra herramienta de búsqueda Here For You muestra recursos de socios locales expertos cuando los usuarios buscan determinados temas relacionados con la salud mental, la ansiedad, la depresión, el estrés, los pensamientos suicidas, el duelo y el acoso escolar. También hemos creado una página dedicada a la sextorsión financiera y otros riesgos y daños sexuales, en un esfuerzo por apoyar a quienes se encuentran en apuros. Nuestra lista global de recursos de seguridad está disponible públicamente para todos los Snapchatters, en nuestro hub de privacidad, seguridad y política.

Cuando nuestros equipos de cConfianza y seguridad se percatan de que un Snapchatter está en apuros, pueden enviarle recursos de apoyo y prevención de autolesiones, y avisar al personal de emergencias cuando sea necesario. Los recursos que compartimos están disponibles en nuestra lista mundial de recursos de seguridad, y están disponibles públicamente para todos los Snapchatters.

Total Times Suicide Resources Shared

64,094

Apelaciones

A continuación ofrecemos información sobre los recursos que hemos recibido de usuarios que solicitaban una revisión de nuestra decisión de bloquear su cuenta:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Descripción general regional y por país

Esta sección ofrece una visión general de las acciones de nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad, tanto de forma proactiva como en respuesta a las denuncias de infracciones dentro de la aplicación, en una muestra de regiones geográficas. Nuestras Pautas para la comunidad se aplican a todos los contenidos de Snapchat -y a todos los Snapchatters- en todo el mundo, independientemente de su ubicación.

La información sobre países individuales, incluidos todos los Estados miembros de la UE, está disponible para su descarga a través del archivo CSV adjunto.

Resumen de las medidas adoptadas por nuestros equipos de confianza y seguridad para hacer cumplir nuestras Pautas para la comunidad 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Infracciones de las Pautas par la comunidad comunicadas a nuestros equipos de confianza y seguridad

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Detección proactiva y aplicación de nuestras Pautas para la comunidad

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Moderación de anuncios

Snap se compromete a garantizar que todos los anuncios cumplan plenamente nuestras Normas de publicidad. Estamos comprometidos con un enfoque responsable y respetuoso de la publicidad, con el fin de crear una experiencia segura y placentera para todos nuestros usuarios. Todos los anuncios se someterán a nuestra revisión y aprobación. Además, nos reservamos el derecho a eliminar anuncios, incluso en respuesta a los comentarios de los usuarios, que nos tomamos muy en serio. 


A continuación incluimos información sobre nuestra moderación de los anuncios de pago que nos llegan tras su publicación en Snapchat. Ten en cuenta que los anuncios en Snapchat pueden eliminarse por diversas razones, como se indica en las Normas de publicidad de Snap, incluyendo contenido engañoso, contenido para adultos, contenido violento o perturbador, incitación al odio e infracción de la propiedad intelectual. Además, ya puedes consultar la Galería de anuncios de Snapchat en la barra de navegación de este informe de transparencia.

Total Ads Reported

Total Ads Removed

43,098

17,833