Nuestro informe de transparencia del primer semestre de 2021

22 de noviembre de 2021

Hoy lanzamos nuestro informe de transparencia correspondiente al primer semestre de 2021, que abarca el periodo comprendido entre el 1º de enero y el 30 de junio de este año. Al igual que en informes recientes, en esta entrega compartimos datos sobre las infracciones de nuestras Pautas para la Comunidad ocurridas en todo el mundo durante este periodo; el número de denuncias sobre contenidos que hemos recibido y aplicado en categorías específicas de infracciones; y cómo hemos respondido a las solicitudes de los organismos encargados de la aplicación de la ley y de los gobiernos; las infracciones desglosadas por países; el índice de visionado de contenidos violentos en Snapchat; y las incidencias de información falsa en la plataforma.
En este periodo añadimos varias actualizaciones a nuestros informes, como indicar nuestro tiempo promedio de respuesta en minutos, en lugar de horas, para ofrecer más detalles sobre nuestras prácticas operativas y nuestra eficacia.
Cada día, en promedio se crean más de cinco mil millones de Snaps usando nuestra cámara de Snapchat. Del 1º de enero al 30 de junio de 2021, aplicamos medidas contra 6 629 165 contenidos en todo el mundo que incumplían nuestras Pautas. Durante este periodo, nuestro índice de visualizaciones infractoras (VVR) fue del 0.10 %, lo que significa que de cada 10 000 visualizaciones de contenido en Snap, 10 contenían contenidos que incumplían nuestras Pautas. Además, mejoramos significativamente nuestro tiempo de respuesta a los reportes de infracción, en particular por contenido sexual explícito, acoso e intimidación, fármacos ilegales y falsificados, y otros productos regulados.
Nuestro trabajo para combatir el material de abuso sexual infantil
La seguridad de nuestra comunidad es nuestra máxima prioridad. Como plataforma creada para comunicarse con amigos de verdad, hemos diseñado Snapchat de forma intencionada para que a los desconocidos les resulte mucho más complicado encontrar a los jóvenes. Por ejemplo, los Snapchatters no pueden ver las listas de amigos de los demás y, por defecto, no pueden recibir un mensaje de alguien que no sea su amigo.
Tenemos cero tolerancia con los abusos dirigidos a cualquier miembro de nuestra comunidad, en especial a menores, ya que es ilegal, inaceptable y está prohibido por nuestras Pautas para la Comunidad. Trabajamos arduamente para combatir estas infracciones mediante la evolución de nuestras capacidades para prevenir, detectar y erradicar el abuso en nuestra plataforma, incluyendo Material de Abuso Sexual Infantil (CSAM) y otros tipos de contenido de explotación sexual infantil.
Nuestros equipos de Confianza y Seguridad usan herramientas de detección proactivas, como PhotoDNA y la tecnología Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y vídeos ilegales de CSAM conocidos y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC). A su vez, el NCMEC coordina su labor con las fuerzas del orden nacionales e internacionales.
En el primer semestre de 2021, de todas las cuentas que perseguimos en todo el mundo, el 5.43 % contenían CSAM. De este total, nosotros detectamos y adoptamos medidas de manera proactiva contra el 70 por ciento de las violaciones de CSAM. Esta mayor capacidad de detección proactiva, combinada con un aumento de los ataques coordinados de spam que propagan CSAM, se tradujo en un notable incremento de esta categoría en el periodo cubierto por este informe.
Hemos seguido ampliando nuestras alianzas con expertos en seguridad, así como nuestras funciones dentro de la aplicación para ayudar a educar a los Snapchatters sobre los riesgos del contacto con desconocidos y cómo utilizar las denuncias desde la aplicación para alertar a nuestros equipos de Confianza y Seguridad sobre cualquier tipo de preocupación o abuso. También, hemos seguido incorporando colaboradores a nuestro programa de informantes de confianza, que ofrece a expertos en seguridad acreditados un canal confidencial para informar de situaciones de emergencia, como una amenaza de muerte inminente o un caso relacionado con CSAM. Trabajamos en estrecha colaboración con estos socios para ofrecer educación sobre seguridad, recursos de bienestar y otras orientaciones de modo que puedan ayudar a apoyar a la comunidad de Snapchat.
Nuestro enfoque frente a la difusión de información falsa
El periodo de tiempo que abarca este informe de transparencia pone aún más de manifiesto lo fundamental que es garantizar que el público tenga acceso a información exacta y fidedigna. Evaluamos con regularidad e invertimos en nuevos medios para proteger a nuestra comunidad de Snapchatters de la propagación de información falsa relacionada con los procesos democráticos, la salud pública y el COVID-19.
En el primer semestre de 2021, en todo el mundo, aplicamos medidas contra un total combinado de 2597 cuentas y creadores de contenidos por infracciones de nuestras directrices sobre información falsa, casi la mitad del número de infracciones del periodo del informe anterior. Dado que el contenido de Descubre y Spotlight es moderado de forma proactiva para evitar la distribución de contenido ilegal a gran escala, la mayoría de estas infracciones procedían de Snaps e Historias privadas, y la mayor parte de estas infracciones nos fueron comunicadas a través de nuestros propios esfuerzos de moderación activa, así como de informes de Snapchatters. 
Siempre hemos creído que, cuando se trata de contenidos nocivos, no basta con pensar en las políticas y su aplicación, las plataformas tienen que tener en cuenta su arquitectura fundamental y el diseño del producto. Desde el principio, Snapchat se construyó de forma diferente a las tradicionales plataformas de redes sociales, para favorecer el uso principal de hablar con amigos en lugar de un canal de noticias abierto en el que cualquiera puede distribuir cualquier cosa a quien quiera. El propio diseño de Snapchat limita la viralidad, lo que elimina los incentivos para los contenidos basados en los peores instintos de la gente, limitando así las preocupaciones asociadas a la difusión de contenidos ilegales y nocivos.
Este enfoque también se aplica a nuestro trabajo para prevenir la difusión de contenidos extremistas. Durante el periodo del informe, eliminamos cinco cuentas por infringir nuestra política de prohibir contenidos terroristas y extremistas, lo que supone un ligero descenso con respecto al último ciclo del informe. En Snap, seguimos con regularidad los acontecimientos en este ámbito, tratando de reducir cualquier posible riesgo de abuso en nuestra plataforma. Tanto la arquitectura de nuestra plataforma como el diseño de nuestra funcionalidad de Chat grupal ayudan a reducir la propagación de contenidos nocivos y las oportunidades de organizarse. Ofrecemos Chats grupales, pero son de tamaño limitado, no están recomendados por algoritmos y no se pueden descubrir en nuestra plataforma por nadie que no sea miembro de ese grupo en particular.
Durante este periodo, continuamos promoviendo de forma proactiva información objetiva de seguridad pública sobre el COVID-19 para nuestra comunidad, incluso a través de la cobertura proporcionada por nuestros socios editoriales de Descubre, a través de anuncios de servicio público (PSA), así como sesiones de Preguntas y Respuestas con los funcionarios de salud pública, organismos y expertos en medicina, y a través de herramientas creativas, tales como Lentes de Realidad Aumentada y Filtros, todos diseñados para recordar a los Snapchatters sobre la orientación de expertos en salud pública. A principios de este año, cuando empezaron a estar disponibles las vacunas para los jóvenes en EE. UU., lanzamos una nueva iniciativa con la Casa Blanca para ayudar a los Snapchatters a responder a las preguntas más comunes y, en julio, colaboramos con el Servicio Nacional de Salud del Reino Unido en una iniciativa similar. 
De ahora en adelante, nos comprometemos a seguir haciendo que nuestros informes de transparencia sean más completos y útiles para las diversas partes interesadas que se preocupan por la seguridad en línea, la transparencia y la responsabilidad multisectorial. Estamos en constante evaluación de cómo podemos fortalecer nuestros esfuerzos integrales para combatir los contenidos nocivos y maliciosos, y estamos agradecidos a los muchos socios y colaboradores en el ámbito de la seguridad que nos ayudan a mejorar con regularidad.
Volver a Noticias