Te damos la bienvenida a nuestra página de transparencia de la Unión Europea (UE), donde publicamos información específica de la UE requerida por la Ley de Servicios Digitales (DSA), la Directiva de Servicios de Comunicación Audiovisual (AVMSD), la Ley de Medios de Holanda (DMA) y el Reglamento sobre Contenidos Terroristas en Línea (TCO). Se debe considerar que la versión más actualizada de estos Informes de transparencia se puede encontrar en la configuración regional en-US (inglés de EE. UU.).
Snap Group Limited ha designado a Snap B.V. como su representante legal a los efectos de la DSA. Podés comunicarte con el representante en dsa-enquiries [arroba] snapchat.com para la DSA, en vsp-enquiries [arroba] snapchat.com para AVMSD y DMA, a tco-enquiries [arroba] snapchat.com para TCO, a través de nuestro Sitio de ayuda [acá], o en:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Países Bajos
Si representás a una agencia encargada de hacer cumplir la ley, seguí los pasos que se indican acá.
Cuando te comuniques con nosotros, por favor, hacelo en idioma holandés o inglés.
Para la DSA, estamos regulados por la Comisión Europea y la Autoridad para consumidores y mercados de los Países Bajos (ACM). Para AVMSD y el DMA, estamos regulados por la Autoridad de Medios de Comunicación Holandesa (CvdM). Para TCO, estamos regulados por la Autoridad de los Países Bajos para la prevención de Contenido Terrorista en Línea y Material de Abuso Sexual Infantil (ATKM).
Publicado: 28 de febrero de 2025
Última actualización: 23 de abril de 2025 (versión 2.0)
Ciclo de informes: 1 de julio de 2024 - 31 de diciembre de 2024
Publicamos este informe de acuerdo con los requisitos de transparencia proporcionados en los artículos 15, 24 y 42 de la Ley de Servicios Digitales de la Unión Europea (UE) (Reglamento (UE) 2022/2065) ("DSA"). Excepto que se indique lo contrario, la información contenida en este informe es para el período de informe del 1 de julio de 2024 al 31 de diciembre de 2024 (segundo semestre de 2024).
El 1 de enero de 2025, contábamos con un promedio de 93,7 millones de destinatarios activos mensuales (“AMAR”, por sus siglas en inglés) en nuestra aplicación de Snapchat en la UE. Esto significa que, en el último periodo de 6 meses que finalizó el 31 de diciembre de 2024, un promedio de 93,7 millones de usuarios registrados en la UE abrieron la aplicación de Snapchat al menos una vez al mes.
Esta cifra se desglosa por Estado Miembro de la siguiente manera:
Estas cifras se calcularon para cumplir con los requisitos de la DSA actuales y solo deben aplicarse para los fines de la DSA. Hemos cambiado la forma de calcular esta cifra a lo largo del tiempo, incluso en respuesta a los cambios de la política interna, la orientación de los reguladores y la tecnología, y las cifras no están destinadas a ser comparadas entre períodos. También es posible que difiera de los cálculos empleados para otras métricas de usuarios activos que compartimos con diferentes propósitos.
Durante este período de informe (segundo semestre de 2024), recibimos cero (0) órdenes de actuar contra piezas de contenido ilegal específicamente identificadas por las autoridades de los Estados Miembros de la UE, incluidas las emitidas de acuerdo con el artículo 9 de la DSA.
Debido a que este número es cero (0), no podemos proporcionar un desglose por tipo de contenido ilegal en cuestión ni por Estado Miembro que emite la orden, ni por el tiempo promedio de acusar recibo o de hacer efectivas las órdenes
Durante este período de informe (segundo semestre de 2024), recibimos las siguientes órdenes de revelar datos de usuarios por las autoridades de los Estados Miembros de la UE, incluidas las emitidas de acuerdo con el artículo 10 de la DSA:
El tiempo medio para informar a las autoridades relevantes de la recepción de estas órdenes para proporcionar información fue de 0 minutos; proporcionamos una respuesta automatizada confirmando la recepción.
El tiempo promedio para hacer efectivas estas órdenes de proporcionar información fue de ~ 12 días. Esta métrica refleja el período de tiempo desde que Snap recibió una orden hasta cuando Snap consideró el asunto totalmente resuelto, que en casos individuales puede depender en parte de la velocidad con la que la autoridad del Estado Miembro relevante responda a las solicitudes de esclarecimiento de Snap necesarias para procesar la orden.
Se debe tener en cuenta que no proporcionamos un desglose de las órdenes anteriores, para proporcionar información categorizada por el tipo de contenido ilegal en cuestión, porque esta información no está generalmente disponible para nosotros.
Todo el contenido que aparece en Snapchat debe cumplir con nuestras Pautas para la comunidad y con nuestras Condiciones de servicio. Cierto contenido también debe adherirse a pautas y políticas adicionales. Por ejemplo, el contenido enviado para recomendación algorítmica a un público más amplio en nuestras superficies de difusión pública, debe cumplir con los estándares adicionales más altos, proporcionados en nuestras Pautas de contenido sobre los requisitos para la recomendación, mientras que los anuncios deben cumplir con nuestras Normas de publicidad.
Hacemos cumplir estas políticas usando tecnología y revisión humana. Proporcionamos mecanismos para que usuarios y no usuarios denuncien infracciones, incluido el contenido y actividades ilegales, directamente dentro de la aplicación o a través de nuestro sitio web. También usamos tecnología proactiva de detección de daños. Los mecanismos de detección proactiva y los informes generan una revisión, que luego aprovecha una combinación de herramientas automatizadas y moderadores humanos para tomar las medidas apropiadas de acuerdo con nuestras políticas.
Proporcionamos más información sobre nuestra moderación de contenido en el segundo semestre de 2024 a continuación.
De acuerdo con el artículo 16 de la DSA, Snap ha puesto en marcha mecanismos que permiten a usuarios y no usuarios notificar a Snap, de la presencia en Snapchat, de elementos específicos de información que ellos consideran contenido ilegal. Pueden hacerlo denunciando piezas de contenido o cuentas específicas, ya sea directamente en la aplicación de Snapchat o en nuestro sitio web.
Al enviar avisos dentro de la aplicación o a través de nuestro sitio web, los denunciantes pueden seleccionar una razón de denuncia específica, en un menú de opciones que refleja las categorías de violaciones que se enumeran en nuestras Pautas para la Comunidad (por ejemplo, discurso de odio y drogas). Nuestras Pautas para la Comunidad prohíben contenido y actividades que son ilegales en la UE, por lo que nuestras razones de denuncia reflejan en gran medida categorías específicas de contenido ilegal en la UE. Sin embargo, en la medida en que un denunciante en la UE crea que el contenido o la cuenta que está denunciando es ilegal por razones a las que no se hace referencia específicamente en nuestro menú de denuncias, puede denunciarlo por “otro contenido ilegal” y se le da la oportunidad de explicar por qué cree que lo que está denunciando es ilegal.
Durante el período de informe (segundo semestre de 2024), recibimos los siguientes avisos enviados de acuerdo con el artículo 16 de la DSA en la UE:
A continuación, proporcionamos un desglose que refleja cómo se procesaron estos avisos, es decir, si a través de un proceso que incluye la revisión humana o únicamente a través de medios automatizados:
Si, tras la revisión, determinamos que el contenido o la cuenta denunciados infringen nuestras Pautas para la comunidad (incluso por razones de ilegalidad), podemos (i) eliminar el contenido infractor, (ii) advertir al titular de la cuenta correspondiente y aplicar una acción contra la cuenta o (iii) bloquear la cuenta correspondiente, como se explica en mayor detalle en nuestra Explicación de la Moderación, Aplicación y Apelaciones de Snapchat.
En el segundo semestre de 2024, tomamos las siguientes medidas de cumplimiento al recibir las notificaciones presentadas de acuerdo con el artículo 16 de la DSA de la UE:
En el segundo semestre de 2024, todas las denuncias de “otro contenido ilegal” en las que accionamos, se hicieron cumplir en virtud de nuestras Pautas para la comunidad porque nuestras Pautas para la comunidad prohibían el contenido o la actividad relevante. Por lo tanto, clasificamos estas infracciones en la categoría correspondiente de infracción de las Pautas para la Comunidad en la tabla de arriba.
Además de las medidas de cumplimiento anteriores, podríamos tomar medidas sobre el contenido que se nos notifica de acuerdo con otras políticas y pautas de Snap aplicables:
Si determinamos que el contenido denunciado no cumple con nuestros criterios de Pautas de contenido sobre los requisitos para la recomendación, podemos rechazar el contenido para la recomendación algorítmica o podemos limitar la distribución del contenido para excluir a ciertas audiencias (si el contenido cumple nuestros criterios de elegibilidad para la recomendación, pero de todas formas es sensible o sugestivo).
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto al contenido en las superficies de difusión pública de Snapchat que se nos informó en la UE, de acuerdo con nuestras Pautas de contenido sobre los requisitos para la recomendación:
Si determinamos que un anuncio denunciado infringe nuestras Normas de publicidad, puede que lo eliminemos tras la revisión.
En el segundo semestre de 2024, tomamos las siguientes medidas con respecto a los anuncios denunciados en la UE:
Además de revisar los avisos enviados de conformidad con el artículo 16 de DSA, Snap también participa en la moderación de contenido por iniciativa propia. A continuación proporcionamos información sobre la moderación de contenido realizada por iniciativa propia de Snap, incluido el uso de herramientas automatizadas, las medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido y el número y los tipos de restricciones impuestas como resultado de esos esfuerzos de moderación de contenido proactiva.
Uso de herramientas automatizadas en la moderación por iniciativa propia de Snap
Implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las medidas contra las infracciones de nuestras condiciones y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluidos PhotoDNA y Google CSAI Match), la API de seguridad de contenido de Google, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) y tecnologías que aprovechan la inteligencia artificial, el aprendizaje automático y modelos de lenguaje grandes. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad.
En el segundo semestre de 2024, toda nuestra detección proactiva se realizó aprovechando herramientas automatizadas. Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, automáticamente toman medidas de acuerdo con nuestras políticas o crean una tarea para la revisión humana. A continuación se describe el número y los tipos de restricciones impuestas como resultado de este proceso.
Número y tipos de restricciones impuestas por iniciativa propia de Snap
En el segundo semestre de 2024, Snap tomó las siguientes medidas de cumplimiento después de detectar proactivamente infracciones de nuestras Pautas para la comunidad (incluidas infracciones que equivalen a contenido ilegal en virtud de las leyes de la UE y los Estados miembros):
Además, en el segundo semestre de 2024, con respecto al contenido en nuestras superficies de difusión pública, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones de nuestras Pautas de contenido sobre los requisitos para la recomendación:
* Como se establece en nuestras Pautas de contenido sobre los requisitos para la recomendación, las cuentas que infringen repetida o de manera flagrante nuestras Pautas de contenido sobre los requisitos para la recomendación, pueden ser descalificadas temporal o permanentemente de las recomendaciones en nuestras superficies de difusión pública. Aplicamos esta acción en el contexto de nuestros esfuerzos de moderación proactiva.
Además, en el segundo semestre de 2024, tomamos las siguientes medidas después de detectar proactivamente en Snapchat, a través del uso de herramientas automatizadas, infracciones de nuestras Normas de publicidad:
Medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido
Nuestros equipos de moderación de contenido aplican nuestras políticas de moderación de contenido, para ayudar a proteger a nuestra comunidad de Snapchat. Se capacitan durante un período de varias semanas, en el que los nuevos miembros del equipo reciben información sobre las políticas, las herramientas y los procedimientos de escalada de Snap. Nuestros equipos de moderación participan en cursos de actualización relacionados con sus flujos de trabajo, especialmente cuando se dan casos que rozan los límites de las políticas y dependen del contexto. También llevamos a cabo programas de mejora de habilidades, sesiones de certificación y pruebas para garantizar que todos los moderadores estén actualizados y en cumplimiento de todas las políticas actualizadas. Finalmente, cuando aparecen tendencias de contenido urgentes en función de eventos actuales, diseminamos rápidamente aclaraciones de las políticas, para que los equipos puedan responder de acuerdo con las políticas de Snap.
Proporcionamos a nuestros equipos de moderación de contenido, apoyo y recursos significativos, incluido el apoyo de bienestar en el trabajo y el fácil acceso a los servicios de salud mental.
Los usuarios cuyas cuentas están bloqueadas por nuestros equipos de seguridad por infracciones de las Pautas para la comunidad (incluido el contenido y las actividades ilegales) pueden enviar una apelación de cuenta bloqueada. Los usuarios también pueden apelar ciertas decisiones de moderación de contenido.
Durante el período de informe (segundo semestre de 2024), Snap procesó las siguientes apelaciones (incluidas las apelaciones contra los bloqueos de cuentas y las decisiones de moderación a nivel de contenido) enviadas a través de sus sistemas internos de gestión de quejas en la UE:
Descripción cualitativa y propósitos
Como se explicó anteriormente en la Sección 3(b), implementamos herramientas automatizadas para detectar proactivamente y, en algunos casos, hacer cumplir las infracciones de nuestras condiciones y políticas. Estas herramientas incluyen herramientas de coincidencia de hash (incluidos PhotoDNA y Google CSAI Match), la API de seguridad de contenido de Google, modelos de detección de lenguaje abusivo (que detectan y rechazan contenido en función de una lista identificada y actualizada regularmente de palabras clave y emojis abusivos) y tecnologías que aprovechan la inteligencia artificial, el aprendizaje automático y modelos de lenguaje grandes. Nuestras herramientas automatizadas están diseñadas para detectar infracciones de nuestras Pautas para la comunidad (que, entre otras cosas, prohíben el contenido ilegal) y, cuando corresponda, nuestras Pautas de contenido sobre los requisitos para la recomendación y las Normas de publicidad.
Cuando nuestras herramientas automatizadas detectan una posible infracción de nuestras políticas, automáticamente toman medidas de acuerdo con nuestras políticas o crean una tarea para la revisión humana.
Indicadores de precisión y posible tasa de error, desglosados por Estado Miembro
Monitoreamos los indicadores de la precisión y la posible tasa de error de nuestras herramientas de moderación automatizada mediante la selección de muestras aleatorias de tareas que procesan las herramientas automatizadas y luego las enviamos para que nuestros equipos de moderación humana las vuelvan a revisar. La tasa de precisión es el porcentaje de tareas de estas muestras aleatorias que se confirma que tienen decisiones de moderación correctas después de la nueva revisión por los moderadores humanos. La tasa de error es la diferencia entre el 100 % y la tasa de precisión calculada, como se describió anteriormente.
Monitoreamos la precisión y la posible tasa de error para dos categorías amplias de herramientas de moderación automatizada, a saber:
Herramientas automatizadas que detectan o toman medidas contra las infracciones a nuestras Pautas para la comunidad y que pueden llevar a medidas contra la cuenta de un usuario (por ejemplo, advertencias aplicadas contra la cuenta o el bloqueo de la cuenta). Según el muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue aproximadamente del 95 % y la tasa de error fue aproximadamente del 5 %.
Herramientas automatizadas que detectan o toman medidas sobre el contenido en nuestras superficies de difusión pública sobre la base de nuestras Pautas de contenido sobre los requisitos para la recomendación. Según el muestreo, en el segundo semestre de 2024, la tasa de precisión de estas herramientas automatizadas fue aproximadamente del 85 % y la tasa de error fue aproximadamente del 15 %.
Según el muestreo, en el segundo semestre de 2024, la tasa de precisión combinada de las herramientas automatizadas utilizadas en ambas categorías descritas anteriormente fue aproximadamente el 89 % y la tasa de error fue aproximadamente el 11 %.
En general, no rastreamos el idioma del contenido que moderamos en Snapchat y, por lo tanto, no podemos proporcionar un desglose de las tasas de precisión y de error, de nuestras herramientas de moderación automatizada, por cada idioma oficial de los Estados Miembros. Como indicador sustitutivo de esta información, proporcionamos a continuación un desglose de nuestra precisión combinada y las tasas de error para el contenido moderado automáticamente (tanto en nuestras Pautas para la comunidad como en nuestras Pautas de contenido sobre los requisitos para la recomendación) originario de cada Estado miembro.
Salvaguardas
Somos conscientes del potencial impacto de las herramientas de moderación automatizada en los derechos fundamentales e implementamos salvaguardas para minimizar ese impacto.
Nuestras herramientas automatizadas de moderación de contenido se prueban antes de ser implementadas. Los modelos se prueban sin conexión para determinar el rendimiento y se implementan a través de las pruebas A/B para garantizar su funcionamiento adecuado antes de incorporarse completamente en producción. Realizamos revisiones de Control de Calidad (QA) previas al lanzamiento, revisiones en el lanzamiento y verificaciones de control de precisión continuas durante las implementaciones parciales (graduales).
Después del lanzamiento de nuestras herramientas automatizadas, evaluamos su rendimiento y precisión de forma continua y hacemos los ajustes según sea necesario. Este proceso implica una nueva revisión de muestras de las tareas automatizadas por parte de nuestros moderadores humanos, para identificar los modelos que requieren ajustes y mejorar la precisión. También monitoreamos la prevalencia de daños específicos en Snapchat a través de un muestreo diario aleatorio de cierto contenido público y aprovechamos esta información para identificar áreas para mejorar más.
Nuestras políticas y sistemas promueven el cumplimiento consistente y justo de las normas y, junto a nuestras herramientas automatizadas, proporcionan a los Snapchatters la oportunidad de disputar de forma significativa los resultados del cumplimiento de las normas a través de los procesos de notificaciones y apelaciones que tienen como objetivo salvaguardar los intereses de nuestra comunidad al tiempo que protegen los derechos individuales de los Snapchatters.
Nos esforzamos por mejorar continuamente nuestras herramientas automatizadas de moderación de contenido, para mejorar su precisión y apoyar la aplicación consistente y justa de nuestras políticas.
Para el período del informe (segundo semestre de 2024), proporcionamos la siguiente información sobre las disputas presentadas contra Snap ante los organismos de resolución extrajudicial de disputas a los que se refiere el artículo 21 de la DSA:
La tabla anterior refleja el estado al 31 de diciembre de 2024 de las disputas enviadas a los organismos de resolución extrajudicial certificados en virtud del artículo 21 de la DSA durante el período de informe (segundo semestre de 2024). Al 31 de diciembre de 2024, de las 20 disputas enviadas a dichos organismos en el segundo semestre de 2024, 15 estaban pendientes y 5 se habían resuelto antes de que se emitiera una decisión.
Se debe tener en cuenta que no incluimos en la tabla anterior las quejas que se enviaron a un organismo certificado en virtud del Artículo 21, pero que el organismo relevante las encontró inadmisibles antes de transmitirlas a Snap. No podemos confirmar el número de disputas que entran en esta categoría porque algunos, pero no todos, los organismos certificados notifican a Snap sobre dichas disputas. Sin embargo, somos conscientes de que 6 quejas que caen en esta categoría en el segundo semestre de 2024.
Suspensiones en conformidad con el artículo 23.1: suspensión de cuentas que con frecuencia proporcionan contenido manifiestamente ilegal
Como se explica en nuestra Explicación de la moderación, la aplicación y de las apelaciones de Snapchat, las cuentas que determinamos que se usan principalmente para infringir nuestras Pautas para la comunidad (incluso a través de la provisión de contenido manifiestamente ilegal) y las cuentas que perpetran daños graves se desactivan rápidamente. Para todas las demás violaciones de nuestras Pautas para la comunidad, Snap generalmente usa un proceso de aplicación de las normas en tres partes:
Paso uno: se elimina el contenido que viola las normas.
Paso dos: el usuario recibe una notificación que indica que ha infringido nuestras Pautas para la comunidad, que su contenido se ha eliminado y que las infracciones repetidas darán lugar a acciones de cumplimiento adicionales, incluida la inhabilitación de su cuenta.
Paso tres: nuestro equipo registra una “falta” hacia la cuenta del usuario.
La información sobre el número de faltas (es decir, advertencias) y bloqueos impuestos en el segundo semestre de 2024 en cuentas en la UE se puede encontrar anteriormente, en las Secciones 3(a) y 3(b).
Suspensiones en conformidad con el artículo 23.2: suspensión en el procesamiento de avisos y quejas de individuos, entidades y denunciantes que con frecuencia presentan avisos o quejas que son manifiestamente infundadas
Aplicando nuestra definición interna de avisos y quejas “manifiestamente infundadas” y nuestros umbrales internos para lo que consideramos la presentación frecuente de dichos avisos y quejas, el número de suspensiones en el procesamiento de los avisos y quejas impuesto en el segundo semestre de 2024 en conformidad con el artículo 23.2 de la DSA es el siguiente
Nuestros equipos de moderación de contenido trabajan en todo el mundo, las 24 horas del día, los 7 días de la semana, lo que nos permite ayudar a mantener a nuestra comunidad a salvo. A continuación vas a ver el desglose de nuestros recursos de moderación humana por las especialidades de idiomas de los moderadores (tené en cuenta que algunos moderadores se especializan en varios idiomas) a partir del 31 de diciembre de 2024:
La tabla anterior incluye todos los recursos humanos dedicados a la moderación de contenido que admiten las lenguas oficiales de los Estados Miembros de la UE al 31 de diciembre de 2024. En situaciones en las que necesitamos ayuda lingüística adicional, usamos servicios de traducción.
Los moderadores se reclutan usando una descripción de trabajo estándar que incluye un requisito de idioma (dependiendo de la necesidad). El requisito de idioma establece que el candidato debe poder demostrar fluidez escrita y hablada en el idioma y, para los puestos de nivel básico, los candidatos deben tener al menos un año de experiencia laboral. Los candidatos deben cumplir con los requisitos educativos y de antecedentes para ser considerados. Los candidatos también deben demostrar una comprensión de los eventos actuales del país o la región de la moderación de contenido a la que le brindarán soporte.
Ver arriba, para obtener información sobre la capacitación y la ayuda que Snap proporciona a los moderadores de contenido, lo que se requiere por separado en el artículo 15(1)(c) de la DSA y, por lo tanto, se incluye en la Sección 3(b), en la subsección final denominada: “Medidas tomadas para proporcionar capacitación y asistencia a las personas encargadas de la moderación de contenido”
Publicado: 31 de enero de 2025
Última actualización: 31 de enero de 2025
Este informe abarca el período que comienza el 1 de enero de 2024 y termina el 31 de diciembre de 2024.
Antecedentes
La explotación sexual de cualquier miembro de nuestra comunidad, especialmente de menores, es ilegal, abominable y está prohibida por nuestras Pautas para la comunidad. Prevenir, detectar y erradicar la explotación y el abuso sexual infantil (CSEA) en nuestra plataforma es una prioridad importante para Snap y evolucionamos continuamente nuestras capacidades para combatir estos y otros delitos.
Las tecnologías que usamos incluyen (a) coincidencia robusta de hash de PhotoDNA y coincidencia de imágenes de abuso sexual infantil (CSAI) de Google para identificar imágenes y videos ilegales conocidos de CSEA, respectivamente; y (b) la API de seguridad de contenido de Google para identificar imágenes de CSEA inéditas y "nunca antes hashadas". Denunciamos las imágenes de CSEA al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de los Estados Unidos, según lo exige la ley. NCMEC, a su vez, coordina con las fuerzas de seguridad en los Estados Unidos y otros países, según sea necesario.
Informe
La siguiente tabla contiene datos sobre la detección proactiva y las penalizaciones resultantes contra usuarios de la UE debido a imágenes de CSEA durante 2024. (Tené en cuenta que algunas penalizaciones resultantes de dicho escaneo proactivo en 2024 aún pueden estar sujetas a apelación al momento de compilar este informe y, por lo tanto, no se reflejarían en los datos de apelaciones y reintegraciones que se encuentran a continuación).
*Esta categoría informa sobre penalizaciones por infracciones de las Pautas para la comunidad de Snap que prohíben la explotación sexual infantil. El contenido detectado proactivamente que se aplica a otras infracciones de las Pautas para la comunidad de Snap no se informa acá.
**Una ejecución puede ser anulada si determinamos que fue errónea en función de nuestras políticas en vigor al momento de la ejecución, o si determinamos que se aplicó de forma correcta originalmente, pero nuestra política aplicable ha cambiado al momento de revisar la apelación.
Salvaguardas de la moderación de contenido
Las salvaguardas aplicadas para el Escaneo de medios de CSEA se establecen en el Informe de transparencia de la DSA de la UE que aparece más arriba.
Publicado: 28 de febrero de 2025
Última actualización: 28 de febrero de 2025
Ciclo de informes: 1 de enero de 2024 - 31 de diciembre de 2024
Este informe de transparencia se publica de acuerdo con los artículos 7(2) y 7(3) de la Regulación 2021/784 del Parlamento Europeo y del Consejo de la UE, que aborda la difusión de contenido terrorista en línea (la Regulación). Cubre el período de informe del 1 de enero al 31 de diciembre de 2024.
Artículo 7(3)(a): información sobre las medidas del proveedor de servicios de hosting en relación con la identificación y la eliminación o la desactivación del acceso al contenido terrorista
Artículo 7(3)(b): información sobre las medidas del proveedor de servicios de hosting para abordar la reaparición en línea de material que se ha eliminado previamente o al que se ha desactivado el acceso porque se consideró contenido terrorista, en particular cuando se han usado herramientas automatizadas
Snapchat experimenta una incidencia muy baja de contenido terrorista y no recibió una orden de eliminación en virtud del Reglamento en 2024.
Los terroristas, las organizaciones terroristas y los extremistas violentos tienen prohibido usar Snapchat. El contenido que defienda, promueva, glorifique el avance del terrorismo u otros actos criminales violentos está prohibido en nuestras Pautas para la Comunidad. Los usuarios pueden denunciar contenido que infringe nuestras Pautas para la comunidad a través de nuestro menú de denuncias dentro de la aplicación y nuestro Sitio de ayuda. También usamos la detección proactiva para intentar identificar contenido infractor en superficies públicas como Spotlight y Descubrí.
Independientemente de cómo tengamos conocimiento de contenidos que infringen las normas, nuestros equipos de seguridad, mediante una combinación de automatización y moderación humana, revisan rápidamente los contenidos identificados y toman decisiones sobre su aplicación. Las medidas de cumplimiento pueden incluir eliminar el contenido, advertir o inhabilitar la cuenta infractora y, si se justifica, denunciar la cuenta a las fuerzas de seguridad. Para evitar la reaparición de contenido terrorista u otro contenido extremista violento en Snapchat, además de trabajar con las fuerzas de seguridad, tomamos medidas para bloquear el dispositivo asociado con la cuenta que lo infringe y evitar que el usuario cree otra cuenta de Snapchat.
Se pueden encontrar detalles adicionales sobre nuestras medidas para identificar y eliminar el contenido terrorista en nuestra Explicación sobre contenido de odio, terrorismo y extremismo violento y nuestra Explicación sobre la moderación, la aplicación y las apelaciones.
Artículo 7(3)(c): el número de elementos de contenido terrorista eliminados o a los que se ha desactivado el acceso después de las órdenes de eliminación o medidas específicas, y el número de órdenes de eliminación donde el contenido no se ha eliminado o el acceso no se ha desactivado en conformidad con el primer subpárrafo del artículo 3(7) y el primer subpárrafo del artículo 3(8), junto con los motivos
Durante el período de informe, Snap no recibió ninguna orden de eliminación, ni nos requirieron implementar ninguna medida específica de conformidad con el artículo 5 de la Regulación. En consecuencia, no nos requirieron tomar medidas de cumplimiento en virtud de la Regulación.
La siguiente tabla describe las medidas de cumplimiento tomadas en función de las denuncias de los usuarios y la detección proactiva contra el contenido y las cuentas, tanto en la UE como en otras partes del mundo, que infringió nuestras Pautas para la comunidad, relacionadas con el contenido de terrorismo y extremismo violento.
Artículo 7(3)(d): el número y el resultado de las quejas manejadas por el proveedor de servicios de alojamiento de acuerdo con el artículo 10
Artículo 7(3)(g): el número de casos en los que el proveedor de servicios de alojamiento restableció el contenido o el acceso al mismo después de una queja del proveedor de contenido
Debido a que no tuvimos ninguna acción de cumplimiento requerida en virtud del Reglamento durante el período de informe como se señaló anteriormente, no manejamos ninguna queja en conformidad con el artículo 10 del Reglamento y no tuvimos restablecimientos asociados.
La siguiente tabla contiene información relacionada con las apelaciones y restablecimientos, tanto en la UE como en otras partes del mundo, que involucra contenido extremista violento y terrorista aplicado en virtud de nuestras Pautas para la comunidad.
Artículo 7(3)(e): el número y el resultado de los procedimientos de revisión administrativa o judicial presentados por el proveedor de servicios de alojamiento
Artículo 7(3)(f): el número de casos en los que el proveedor de servicios de alojamiento tuvo que restablecer contenido o acceder al mismo como resultado de procedimientos de revisión administrativa o judicial
Como no tuvimos ninguna acción de cumplimiento requerida en virtud del reglamento durante el período de informe, como se señaló anteriormente, no tuvimos ningún procedimiento de revisión administrativa o judicial asociado y no nos requirieron restablecer el contenido como resultado de dicho procedimiento.
Este informe fue preparado para cumplir con las obligaciones de Snap en virtud de los artículos 34 y 35 del Reglamento (UE) 2022/2065 y proporciona los resultados de nuestra evaluación de riesgos del sistema derivados del diseño, la función y el uso de las plataformas en línea de Snapchat, junto con la metodología utilizada para evaluar esos riesgos y las medidas de mitigación implementadas para abordar esos riesgos.
Informe de evaluación de riesgos y mitigación de DSA | Snapchat | Agosto de 2023 (PDF)
Estos informes fueron preparados para cumplir con las obligaciones de Snap en virtud del artículo 37 del Reglamento (UE) 2022/2065 y proporcionan: (i) los resultados de la auditoría independiente del cumplimiento de Snap con las obligaciones establecidas en el Capítulo III del Reglamento (UE) 2022/2065 y (ii) las medidas tomadas para implementar las recomendaciones operativas de esa auditoría independiente.
Informe de auditoría independiente de DSA | Snapchat | Agosto de 2024 (PDF)
Informe de implementación de auditoría de DSA | Snapchat | Septiembre de 2024 (PDF)
Código de prácticas VSP de la UE
Snap es un proveedor de “servicio de plataforma para compartir videos” (”VSP”) de conformidad con el artículo 1(1)(aa) AVMSD. Este Código de Conducta (“Código”) fue preparado para describir cómo Snap cumple con sus obligaciones como VSP en virtud de la Ley de Medios de los Países Bajos (“DMA”) y la Directiva (UE) 2010/13 (modificada por la Directiva (UE) 2018/1808 (la “Directiva de Servicios de Medios Audiovisuales” o “AVMSD”)). El Código es aplicable en toda la Unión Europea, así como en el Espacio Económico Europeo.
Código de conducta VSP de la UE | Snapchat | Marzo de 2025 (PDF)
Búlgaro | Croata | Checo | Danés | Holandés | Estonio | Finlandés | Francés | Alemán | Griego | Húngaro | Irlandés | Italiano | Letón | Lituano | Maltés | Polaco | Portugués | Rumano | Eslovaco | Esloveno | Español | Sueco