Отчёт о правительственных запросах
1 июля 2023 г. – 31 декабря 2023 г.

Дата публикации:

25 апреля 2024 г.

Обновление:

25 апреля 2024 г.

Чтобы рассказать об усилиях Snap по обеспечению безопасности и дать представление о характере и объёме нарушений на контент на нашей платформе, мы дважды в год публикуем отчёты о правительственных запросах. Наша задача — сделать эти отчёты более полезными и информативными для безопасности и благополучия нашего сообщества и многих заинтересованных сторон, которые глубоко заботятся о модерации контента и правоприменительной практике.

Этот отчёт о правительственных запросах охватывает второе полугодие 2023 года (с 1 июля по 31 декабря). Как и в предыдущих отчётах, мы делимся данными о глобальном количестве полученных жалоб на контент в приложении и аккаунтах, которые мы получили и в отношении которых приняли меры по определённым категориям нарушений, а также о том, как мы реагировали на запросы правоохранительных и государственных органов; и о наших правоприменительных действиях с разбивкой по странам.

В рамках нашего неизменного стремления постоянно совершенствовать отчётность о правительственных запросах мы представляем несколько новых элементов в этом выпуске.

Во-первых, мы расширили нашу основную таблицу, включив в неё отчёты и правоприменительные меры в отношении контента и аккаунтов, связанных с терроризмом и насильственным экстремизмом, а также сексуальной эксплуатацией детей и насилия над ними (CSEA). В предыдущих отчётах мы вынесли удаление аккаунтов, совершённое в ответ на эти нарушения, в отдельные разделы. Мы будем продолжать освещать в отдельном разделе наши превентивные и ответные меры в отношении контента, связанного с сексуальной эксплуатацией детей и насилием над ними, а также решения, о которых мы сообщали NCMEC.

Во-вторых, мы предоставили расширенную информацию по обжалованиям, указав общее количество обжалований и восстановленных аккаунтов с указанием причин в соответствии с Правилами сообщества. 

Наконец, мы расширили наш раздел Европейского союза, предоставив более подробную информацию о деятельности Snap в ЕС. В частности, мы публикуем наш последний отчёт о правительственных запросах DSA и дополнительную статистику относительно проверки контента на предмет содержания материалов, связанных с сексуальной эксплуатацией детей и насилием над ними.

Чтобы получить больше информации о нашей политике по борьбе с вредоносными действиями в Интернете и планах по дальнейшему развитию методов отчётности, вы можете прочитать недавнюю публикацию в нашем блоге «Безопасность и поддержка», посвящённую этому отчёту о правительственных запросах.  Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку «Об отчётах о правительственных запросах» внизу страницы.

Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на американском варианте английского языка.

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.

За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.

За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.

За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.

За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.

Анализ нарушений, связанных с контентом и аккаунтами

Общие показатели жалоб и правоприменительных мер остались примерно такими же, как и в предыдущие шесть месяцев. В этот период мы заметили увеличение общего количества жалоб на контент и аккаунты приблизительно на 10 %.

В это время также начался конфликт между Израилем и Хамасом, и в результате мы заметили рост вредоносного контента. Общее количество жалоб, связанных с враждебными высказываниями, увеличилось на ~61 %, в то время как общее число правоприменительных мер в отношении контента, связанного с враждебными высказываниями, увеличилось на ~97 %, а количество правоприменительных мер в отношении уникальных аккаунтов — на ~124 %. Также увеличилось количество жалоб и правоприменительных мер в отношении контента, связанного с терроризмом и насильственным экстремизмом, хотя эти жалобы составляют <0,1 % от общего числа правоприменительных мер, принятых в отношении контента на нашей платформе. Наши команды по вопросам доверия и безопасности продолжают проявлять бдительность в условиях глобальных конфликтов, чтобы обеспечить безопасность Snapchat. Мы также расширили наш отчёт о правительственных запросах, включив в него больше информации по отдельным странам и миру в целом об общем количестве жалоб, а также принятых мерах в отношении контента и уникальных аккаунтов за нарушения нашей политики в отношении терроризма и насильственного экстремизма. 

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 июля по 31 декабря 2023 года компания Snap приняла меры в отношении 5 376 714 единиц контента по всему миру, на который мы получили жалобы и который нарушал наши Правила сообщества.

За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01 %, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши правила. Среднее время принятия мер в отношении такого контента составило ~10 минут.

Борьба с сексуальной эксплуатацией и насилием над детьми

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.

Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.

*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество отдельных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры. Мы также исключили из этого числа отозванные материалы, отправленные в NCMEC.

Контент, связанный с членовредительством и самоубийствами

Мы глубоко заботимся о психическом здоровье и благополучии снапчаттеров, что продолжает влиять на многие наши решения в отношении того, как сделать структуру Snapchat отличной от других платформ. Будучи платформой, созданной для общения настоящих друзей, мы считаем, что Snapchat может сыграть уникальную роль в предоставлении друзьям возможности помогать друг другу в трудные времена.

Когда наши специалисты по вопросам доверия и безопасности обнаруживают, что кто-то из снапчаттеров переживает сложные времена, они могут направить им ресурсы по предотвращению членовредительства и поддержке, а также уведомить персонал службы экстренной помощи, когда это необходимо. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, и они общедоступны для всех пользователей Snapchat.

Апелляции

Наш предыдущий отчёт содержал статистику по обжалованиям, в которой мы указали, сколько раз пользователи просили нас пересмотреть наше первоначальное решение о модерации их аккаунта. В этот отчёт мы включили больше деталей об обжалованиях, чтобы учесть все категории правил в отношении нарушений на уровне аккаунта.

* Прекращение распространения контента или деятельности, связанной с сексуальной эксплуатацией детей, является главным приоритетом. Snap выделяет значительные ресурсы для достижения этой цели и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и контроля качества. Мы ожидаем, что в следующем отчёте Snap о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Обзор по регионам и странам

В этом разделе представлена информация о применении наших Правил сообщества в определённых географических регионах. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех снапчаттеров, независимо от страны проживания.

Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прилагаемом CSV-файле.

Борьба с сексуальной эксплуатацией и насилием над детьми

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.

Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.

Борьба с сексуальной эксплуатацией и насилием над детьми

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.

Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.

Борьба с сексуальной эксплуатацией и насилием над детьми

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.

Во втором полугодии 2023 года мы заблаговременно обнаружили и приняли соответствующие меры в отношении 59 % от общего числа зарегистрированных нарушений, связанных с сексуальной эксплуатацией и насилием над детьми. Это отражает общее снижение на 39 % по сравнению с предыдущим периодом из-за улучшения возможностей снапчаттеров сообщать о нарушениях, что позволяет нам лучше распознавать отправляемые в Snapchat материалы, потенциально связанные с сексуальной эксплуатацией и насилием над детьми.

Модерация рекламы

Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы придерживаемся ответственного и уважительного подхода к рекламе, создавая безопасные и комфортные возможности для всех наших пользователей. Ниже мы приводим информацию о модерации платной рекламы в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, в навигационной панели данного отчёта о правительственных запросах теперь можно найти галерею рекламы Snapchat.

Запросы на удаление государственной и интеллектуальной собственности

Об отчётности о правительственных запросах

Глоссарий отчёта о правительственных запросах