05 декабря 2024 г.
05 декабря 2024 г.
Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. Мы прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat.
Данный отчёт о правительственных запросах охватывает первое полугодие 2024 года (1 января — 30 июня). Как и в предыдущих отчётах, мы делимся данными о глобальном объеме полученных жалоб на контент в приложении и аккаунтах, которые получила наши команды по вопросам доверия и безопасности, и в отношении которых приняли меры по определённым категориям нарушений Правил сообщества, а также о том, как мы реагировали на запросы правоохранительных и государственных органов; и как мы реагировали на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию по конкретным странам в файлах, ссылки на которые находятся в нижней части этой страницы.
В рамках нашего постоянного стремления постоянно совершенствовать наши отчёты о правительственных запросах мы также представляем новые данные, рассказывающие о наших активных усилиях по выявлению и пресечению более широкого спектра Мы включили в этот отчет данные как на глобальном уровне, так и на уровне страны, и будем продолжать делать это в дальнейшем. Мы также исправили ошибку в маркировке в наших предыдущих отчётах: там, где ранее мы упоминали «Общее количество исполненных материалов», теперь мы указываем «Общее количество исполненных мер», чтобы отразить тот факт, что данные, представленные в соответствующих столбцах, включают как принудительные меры на уровне контента, так и на уровне аккаунтов.
Более подробную информацию о нашей политике по борьбе с потенциальным вредом в Интернете и о планах по дальнейшему совершенствованию наших методов подачи жалоб можно найти в нашем недавнем блоге «Безопасность и поддержка», посвященном этому отчёту о правительственных запросах. Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку «Об отчётах о правительственных запросах» внизу страницы.
Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на американском варианте английского языка.
Обзор действий наших команд по вопросам доверия и безопасности в отношении соблюдения наших Правил сообщества
Наши команды по вопросам доверия и безопасности следят за соблюдением наших Правил сообщества как упреждающе (с помощью автоматизированных инструментов), так и в качестве ответной меры (в ответ на жалобы), о чем подробнее говорится в следующих разделах данного отчета. В этом отчетном цикле (первое полугодие 2024 года) наши команды по вопросам доверия и безопасности предприняли следующие меры по соблюдению законодательства:
Обзор нарушений, связанных с контентом и аккаунтами
В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.
Обзор нарушений, связанных с контентом и аккаунтами
В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.
Обзор нарушений, связанных с контентом и аккаунтами
В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.
Анализ нарушений, связанных с контентом и аккаунтами
Общие показатели жалоб и правоприменительных мер остались примерно такими же, как и в предыдущие шесть месяцев. В этот период мы заметили увеличение общего количества жалоб на контент и аккаунты приблизительно на 10 %.
В это время также начался конфликт между Израилем и Хамасом, и в результате мы заметили рост вредоносного контента. Общее количество жалоб, связанных с враждебными высказываниями, увеличилось на ~61 %, в то время как общее число правоприменительных мер в отношении контента, связанного с враждебными высказываниями, увеличилось на ~97 %, а количество правоприменительных мер в отношении уникальных аккаунтов — на ~124 %. Также увеличилось количество жалоб и правоприменительных мер в отношении контента, связанного с терроризмом и насильственным экстремизмом, хотя эти жалобы составляют <0,1 % от общего числа правоприменительных мер, принятых в отношении контента на нашей платформе. Наши команды по вопросам доверия и безопасности продолжают проявлять бдительность в условиях глобальных конфликтов, чтобы обеспечить безопасность Snapchat. Мы также расширили наш отчёт о правительственных запросах, включив в него больше информации по отдельным странам и миру в целом об общем количестве жалоб, а также принятых мерах в отношении контента и уникальных аккаунтов за нарушения нашей политики в отношении терроризма и насильственного экстремизма.
Обзор нарушений, связанных с контентом и аккаунтами
В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.
Борьба с сексуальной эксплуатацией и насилием над детьми
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.
Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.
*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество отдельных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры. Мы также исключили из этого числа отозванные материалы, отправленные в NCMEC.
Контент, связанный с членовредительством и самоубийствами
Мы глубоко заботимся о психическом здоровье и благополучии снапчаттеров, что продолжает влиять на многие наши решения в отношении того, как сделать структуру Snapchat отличной от других платформ. Будучи платформой, созданной для общения настоящих друзей, мы считаем, что Snapchat может сыграть уникальную роль в предоставлении друзьям возможности помогать друг другу в трудные времена.
Когда наши специалисты по вопросам доверия и безопасности обнаруживают, что кто-то из снапчаттеров переживает сложные времена, они могут направить им ресурсы по предотвращению членовредительства и поддержке, а также уведомить персонал службы экстренной помощи, когда это необходимо. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, и они общедоступны для всех пользователей Snapchat.
Апелляции
Наш предыдущий отчёт содержал статистику по обжалованиям, в которой мы указали, сколько раз пользователи просили нас пересмотреть наше первоначальное решение о модерации их аккаунта. В этот отчёт мы включили больше деталей об обжалованиях, чтобы учесть все категории правил в отношении нарушений на уровне аккаунта.
* Прекращение распространения контента или деятельности, связанной с сексуальной эксплуатацией детей, является главным приоритетом. Snap выделяет значительные ресурсы для достижения этой цели и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и контроля качества. Мы ожидаем, что в следующем отчёте Snap о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.
Обзор по регионам и странам
В этом разделе представлен обзор действий наших команд по вопросам доверия и безопасности в отношении соблюдения наших Правил сообщества как в упреждающем порядке, так и в ответ на жалобы о нарушениях в приложении в отдельных географических регионах. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех снапчаттеров по всему земному шару независимо от их местоположения.
Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прилагаемом CSV-файле.
Борьба с сексуальной эксплуатацией и насилием над детьми
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.
Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.
Борьба с сексуальной эксплуатацией и насилием над детьми
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.
Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.
Модерация рекламы
Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы придерживаемся ответственного и уважительного подхода к рекламе, создавая безопасные и комфортные возможности для всех наших пользователей. Ниже мы приводим информацию о модерации платной рекламы в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, в навигационной панели данного отчёта о правительственных запросах теперь можно найти галерею рекламы Snapchat.

























