Nuestro informe de transparencia para el primer semestre de 2021
22 de noviembre de 2021
Nuestro informe de transparencia para el primer semestre de 2021
22 de noviembre de 2021
Hoy publicamos nuestro informe de transparencia para la primera mitad de 2021, que abarca el período entre el 1 de enero y el 30 de junio de este año. Al igual que en informes recientes, en esta ocasión compartimos datos sobre las infracciones de nuestras Pautas para la comunidad en todo el mundo durante dicho periodo; el número de denuncias de contenidos que recibimos y que aplicamos en categorías específicas de infracciones; cómo respondimos a las peticiones de las fuerzas del orden y de los gobiernos; nuestras medidas de aplicación desglosadas por países; la tasa de visualización infractora de los contenidos de Snapchat; y los casos de información falsa en la plataforma.
En este periodo hemos agregado varias actualizaciones a nuestros informes, entre ellas la indicación de nuestro tiempo medio de respuesta en minutos, en lugar de horas, para ofrecer más detalles sobre nuestras prácticas operativas y nuestra eficacia.
Todos los días, con el uso de nuestra cámara de Snapchat se crean, en promedio, más de cinco mil millones de Snaps. Entre el 1 de enero y el 30 de junio de 2021, tomamos medidas contra 6 629 165 contenidos a nivel global que infringieron nuestras pautas. Durante este periodo, la tasa de visualización infractora (VVR) fue del 0,10 %, lo que significa que de cada 10 000 visualizaciones de contenidos en Snap, 10 contenían contenidos que infringían nuestras pautas. Además, mejoramos significativamente nuestro tiempo de respuesta a las denuncias de infracciones, en especial por contenidos sexualmente explícitos, acoso y hostigamiento, medicamentos ilegales y falsificados y otros productos regulados.
Nuestro trabajo para combatir el material sobre abuso sexual infantil
La seguridad de nuestra comunidad es una prioridad absoluta. Como plataforma creada para comunicarse con amigos reales, hemos diseñado Snapchat para dificultar que los desconocidos encuentren a los jóvenes. Por ejemplo, los Snapchatters no pueden ver las listas de amigos de los demás y, por defecto, no pueden recibir un mensaje de alguien que no sea amigo suyo.
Tenemos tolerancia cero con los abusos dirigidos a cualquier miembro de nuestra comunidad, especialmente a menores, que son ilegales, inaceptables y están prohibidos por nuestras Pautas para la comunidad. Trabajamos con diligencia para combatir estas infracciones mediante la evolución de nuestras capacidades para prevenir, detectar y erradicar los abusos en nuestra plataforma, incluido el material de abuso sexual infantil (CSAM) y otros tipos de contenido de explotación sexual infantil.
Nuestros equipos de Confianza y seguridad utilizan herramientas de detección proactiva, como PhotoDNA y la tecnología Child Sexual Abuse Imagery (CSAI) Match para identificar imágenes y vídeos ilegales conocidos de CSAM y denunciarlos al Centro Nacional para Menores Desaparecidos y Explotados (NCMEC). El NCMEC, a su vez, se coordina con las fuerzas del orden nacionales o internacionales.
En el primer semestre de 2021, el 5,43 % del número total de cuentas que sancionamos en todo el mundo contenían CSAM. Detectamos y tomamos medidas de forma proactiva en el 70% de esos casos de violación de CSAM. Esta mayor capacidad de detección proactiva, combinada con un aumento de los ataques coordinados de spam con difusión CSAM, se tradujo en un notable incremento de esta categoría en el periodo cubierto por este informe.
Seguimos ampliando nuestras colaboraciones con expertos en seguridad, así como nuestras funciones dentro de la aplicación, para ayudar a educar a los Snapchatters sobre los riesgos de ponerse en contacto con extraños y sobre cómo usar las denuncias dentro de la aplicación para alertar a nuestros equipos de Confianza y seguridad sobre cualquier tipo de inquietud o abuso. Además, hemos seguido incorporando socios a nuestro programa de informantes de confianza, que ofrece a expertos en seguridad acreditados un canal confidencial para informar de situaciones de emergencia, como una amenaza inminente para la vida o un caso de CSAM. Trabajamos de cerca con estos socios para proporcionar educación de seguridad, recursos de bienestar y otros servicios de denuncia de manera que puedan ayudar de manera efectiva a la comunidad de Snapchat.
Nuestro enfoque de la difusión de información falsa
El periodo de tiempo que abarca este informe de transparencia subraya aún más lo fundamental que es garantizar que el público tenga acceso a información precisa y fidedigna. Periódicamente evaluamos e invertimos en nuevos medios para proteger a nuestra comunidad de Snapchatters de la difusión de información falsa relacionada con los procesos democráticos, la salud pública y el COVID-19.
En el primer semestre de 2021, en todo el mundo, sancionamos un total de 2597 cuentas y contenidos por infracciones de nuestras pautas sobre información falsa, casi la mitad que en el periodo anterior. Dado que los contenidos de Descubrí y Spotlight se moderan de forma proactiva para evitar la distribución de contenidos infractores a gran escala, la mayoría de estas infracciones procedían de Snaps e Historias privadas, y la mayoría de estas infracciones nos fueron comunicadas a través de nuestros propios esfuerzos de moderación activa, así como de informes de Snapchatters.
Siempre creímos que cuando se trata de contenido dañino, no basta con solo pensar en políticas y aplicación, sino que las plataformas deben tener en cuenta su arquitectura fundamental y diseño del producto. Desde el principio, Snapchat se creó de manera diferente a las plataformas de redes sociales tradicionales, para apoyar nuestro caso de uso principal de hablar con amigos cercanos (en lugar de un feed de noticias abierto en el que cualquier persona tiene derecho a distribuir cualquier cosa a cualquier persona). El propio diseño de Snapchat limita la viralidad, lo que elimina los incentivos para los contenidos que apelan a los peores instintos de la gente, limitando así las preocupaciones asociadas a la difusión de contenidos ilegales y nocivos.
Este enfoque se traslada también a nuestra labor de prevención de la difusión de contenidos extremistas. Durante el período de denuncias, eliminamos cinco cuentas por infracciones a nuestra prohibición de contenido extremista y terrorista, lo que es una pequeña disminución respecto del último ciclo de denuncias. En Snap, vigilamos con regularidad los avances en este ámbito, tratando de mitigar cualquier posible riesgo de abuso en nuestra plataforma. Tanto la arquitectura de nuestra plataforma como el diseño de nuestras funciones de chat grupal ayudan a limitar la difusión de contenidos nocivos y las oportunidades de organizarse. Ofrecemos chats grupales, pero son de tamaño limitado, no están recomendados por algoritmos y no son visibles en nuestra plataforma si no se es miembro del grupo en cuestión.
Durante este período, hemos seguido promoviendo de forma proactiva la información objetiva de seguridad pública sobre COVID-19 a nuestra comunidad, incluso a través de la cobertura realizada por nuestros socios editoriales de Descubrí, a través de anuncios de servicio público (PSA), así como preguntas y respuestas con funcionarios de salud pública, agencias y expertos médicos, y a través de herramientas creativas, tales como Lentes de realidad aumentada y filtros; todo ello diseñado para recordar a los Snapchatters las orientaciones de expertos en salud pública. A principios de este año, cuando las vacunas empezaron a estar disponibles para los jóvenes en EE. UU., pusimos en marcha una nueva iniciativa con la Casa Blanca para ayudar a los Snapchatters a dar respuesta a preguntas comunes y, en julio, nos asociamos con el Servicio Nacional de Salud del Reino Unido en un esfuerzo similar.
De cara al futuro, nos comprometemos a seguir haciendo que nuestros informes de transparencia sean más completos y útiles para todas las partes interesadas que se preocupan por la seguridad en línea, la transparencia y la responsabilidad multisectorial. Evaluamos constantemente cómo podemos incrementar nuestros esfuerzos para combatir los contenidos nocivos y a los malos actores, y damos las gracias a todos los socios y colaboradores que nos ayudan regularmente a mejorar.