Nuestro informe de transparencia del primer semestre de 2021
22 de noviembre de 2021
Nuestro informe de transparencia del primer semestre de 2021
22 de noviembre de 2021
Hoy lanzamos nuestro informe de transparencia correspondiente al primer semestre de 2021, que abarca el periodo comprendido entre el 1º de enero y el 30 de junio de este año. Al igual que en informes recientes, en esta entrega compartimos datos sobre las infracciones de nuestras Pautas para la Comunidad ocurridas en todo el mundo durante este periodo; el número de denuncias sobre contenidos que hemos recibido y aplicado en categorías específicas de infracciones; y cómo hemos respondido a las solicitudes de los organismos encargados de la aplicación de la ley y de los gobiernos; las infracciones desglosadas por países; el índice de visionado de contenidos violentos en Snapchat; y las incidencias de información falsa en la plataforma.
En este periodo añadimos varias actualizaciones a nuestros informes, como indicar nuestro tiempo promedio de respuesta en minutos, en lugar de horas, para ofrecer más detalles sobre nuestras prácticas operativas y nuestra eficacia.
Cada día se crean una media de más de cinco mil millones de Snaps con la cámara de Snapchat. Del 1 de enero al 30 de junio de 2021, aplicamos medidas contra 6.629.165 contenidos en todo el mundo que incumplían nuestras Pautas. Durante este periodo, nuestro índice de visualizaciones infractoras (VVR) fue del 0,10%, lo que significa que de cada 10.000 visualizaciones de contenido en Snap, 10 contenían contenidos que incumplían nuestras Pautas. Además, mejoramos significativamente nuestro tiempo de respuesta a los reportes de infracción, en particular por contenido sexual explícito, acoso e intimidación, fármacos ilegales y falsificados, y otros productos regulados.
Nuestro trabajo para combatir el material de abuso sexual infantil
La seguridad de nuestra comunidad es nuestra máxima prioridad. Como plataforma creada para comunicarse con amigos de verdad, hemos diseñado Snapchat de forma intencionada para que a los desconocidos les resulte mucho más complicado encontrar a los jóvenes. Por ejemplo, los Snapchatters no pueden ver las listas de amigos de los demás y, por defecto, no pueden recibir un mensaje de alguien que no sea su amigo.
Tenemos tolerancia cero con los abusos dirigidos a cualquier miembro de nuestra comunidad, en especial a menores, ya que es ilegal, inaceptable y está prohibido por nuestras Pautas para la Comunidad. Trabajamos arduamente para combatir estas infracciones mediante la evolución de nuestras capacidades para prevenir, detectar y erradicar el abuso en nuestra plataforma, incluyendo Material de Abuso Sexual Infantil (CSAM) y otros tipos de contenido de explotación sexual infantil.
Nuestros equipos de Confianza y Seguridad usan herramientas de detección proactivas, como PhotoDNA y la tecnología Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y videos ilegales de CSAM conocidos y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC). A su vez, el NCMEC coordina su labor con las fuerzas del orden nacionales e internacionales.
En el primer semestre de 2021, de todas las cuentas que perseguimos en todo el mundo, el 5,43% contenían CSAM. De este porcentaje, detectamos y actuamos de forma proactiva un 70 % de incumplimiento de CSAM. Esta mayor capacidad de detección proactiva, combinada con un aumento de los ataques coordinados de spam que propagan CSAM, resultó en un notable aumento en esta categoría para este período de información.
Hemos seguido ampliando nuestras alianzas con expertos en seguridad, así como nuestras funciones dentro de la aplicación para ayudar a educar a los Snapchatters sobre los riesgos del contacto con desconocidos y cómo utilizar las denuncias desde la aplicación para alertar a nuestros equipos de Confianza y Seguridad sobre cualquier tipo de inquietud o abuso. También, hemos seguido incorporando colaboradores a nuestro programa de informantes de confianza, que ofrece a expertos en seguridad acreditados un canal confidencial para informar de situaciones de emergencia, como una amenaza de muerte inminente o un caso relacionado con CSAM. Trabajamos estrechamente con estos colaboradores para aportarles formación en materia de seguridad, recursos de bienestar, así como otras recomendaciones sobre denuncias para que puedan ayudar a la comunidad de Snapchat.
Nuestro enfoque frente a la difusión de información falsa
El periodo de tiempo que abarca este informe de transparencia pone aún más de manifiesto lo fundamental que es garantizar que el público tenga acceso a información exacta y fidedigna. Evaluamos con regularidad e invertimos en nuevos medios para proteger a nuestra comunidad de Snapchatters de la propagación de información falsa relacionada con los procesos democráticos, la salud pública y el COVID-19.
En el primer semestre de 2021, en todo el mundo, aplicamos medidas contra un total combinado de 2.597 cuentas y creadores de contenidos por infracciones de nuestras directrices sobre información falsa, casi la mitad del número de infracciones del periodo del informe anterior. Dado que el contenido de Descubre y Spotlight es moderado de forma proactiva para evitar la distribución de contenido ilegal a gran escala, la mayoría de estas infracciones procedían de Snaps e Historias privadas, y la mayor parte de estas infracciones nos fueron comunicadas a través de nuestros propios esfuerzos de moderación activa, así como de informes de Snapchatters.
Siempre hemos creído que, cuando se trata de contenidos nocivos, no basta con pensar en las políticas y su aplicación: las plataformas tienen que tener en cuenta su arquitectura fundamental y el diseño del producto. Desde el principio, Snapchat se construyó de forma diferente a las tradicionales plataformas de redes sociales, para favorecer el uso principal de hablar con amigos en lugar de un canal de noticias abierto en el que cualquiera puede distribuir cualquier cosa a quien quiera. El propio diseño de Snapchat limita la viralidad, lo que elimina los incentivos para los contenidos basados en los peores instintos de la gente, limitando así las preocupaciones asociadas a la difusión de contenidos ilegales y nocivos.
Este enfoque también se aplica a nuestro trabajo para prevenir la difusión de contenidos extremistas. Durante el periodo del informe, eliminamos cinco cuentas por infringir nuestra política de prohibir contenidos terroristas y extremistas, lo que supone un ligero descenso con respecto al último ciclo del informe. En Snap, seguimos con regularidad los acontecimientos en este ámbito, tratando de reducir cualquier posible riesgo de abuso en nuestra plataforma. Tanto la arquitectura de nuestra plataforma como el diseño de nuestra funcionalidad de chat grupal ayudan a reducir la propagación de contenidos nocivos y las oportunidades de organizarse. Ofrecemos chats grupales, pero son de tamaño limitado, no están recomendados por algoritmos y no se pueden descubrir en nuestra plataforma por nadie que no sea miembro de ese grupo en particular.
Durante este periodo, continuamos promoviendo de forma proactiva información objetiva de seguridad pública sobre el COVID-19 para nuestra comunidad, incluso a través de la cobertura proporcionada por nuestros socios editoriales de Descubre, a través de anuncios de servicio público (PSA), así como sesiones de Preguntas y Respuestas con los funcionarios de salud pública, organismos y expertos en medicina, y a través de herramientas creativas, tales como Lentes de Realidad Aumentada y filtros, todos diseñados para recordar a los Snapchatters sobre la orientación de expertos en salud pública. A principios de este año, cuando empezaron a estar disponibles las vacunas para los jóvenes en EE. UU., lanzamos una nueva iniciativa con la Casa Blanca para ayudar a los Snapchatters a responder a las preguntas más comunes y, en julio, colaboramos con el Servicio Nacional de Salud del Reino Unido en una iniciativa similar.
De cara al futuro, nos comprometemos a seguir haciendo que nuestros informes de transparencia sean más completos y útiles para las diversas partes interesadas que se preocupan por la seguridad en línea, la transparencia y la responsabilidad multisectorial. Estamos en constante evaluación de cómo podemos fortalecer nuestros esfuerzos integrales para combatir los contenidos nocivos y los malos actores, y estamos agradecidos a los muchos socios y colaboradores en el ámbito de la seguridad que nos ayudan a mejorar con regularidad.