Отчёт о правительственных запросах
1 января 2023 г. – 30 июня 2023 г.
Дата публикации:
25 октября 2023 г.
Обновление:
13 декабря 2023 г.

Чтобы рассказать об усилиях Snap по обеспечению безопасности и дать представление о характере и объёме нарушений на контент на нашей платформе, мы дважды в год публикуем отчёты о правительственных запросах. Мы намерены продолжать делать эти отчёты более исчерпывающими и информативными для многих заинтересованных сторон, которым небезразлична наша практика модерации контента и работы с правоохранительными органами, а также благополучие нашего сообщества. 
Этот отчёт о правительственных запросах охватывает первое полугодие 2023 года (1 января – 30 июня). Как и в предыдущих отчетах, мы делимся данными о глобальном количестве сообщений о нарушениях политики в отношении контента в приложении и учетных записей, которые мы получали и по которым принимали меры по определенным категориям нарушений, а также о том, как мы реагировали на запросы правоохранительных и государственных органов; и о наших правоприменительных действиях с разбивкой по странам.

В рамках нашего стремления постоянно совершенствовать отчетность о правительственных запросах мы представляем несколько новых элементов в этом выпуске. Мы добавили дополнительные данные о наших рекламных практиках и модерации, а также о контенте и обжаловании мер в отношении аккаунта. В соответствии с Законом ЕС о цифровых услугах мы также добавили новую контекстную информацию о нашей деятельности в странах-членах ЕС, такую как количество модераторов контента и ежемесячных активных пользователей (MAU) в регионе. Большую часть этой информации можно найти в отчёте, а также на специальной странице нашего Центра прозрачности, посвященной Европейскому союзу.
Наконец, мы обновили наш глоссарий со ссылками на пояснения Правил сообщества, которые предоставляют дополнительный контекст о политике и операционной деятельности нашей платформы. 
Чтобы получить больше информации о нашей политике по борьбе с вредным контентом в Интернете и планах по дальнейшему развитию методов отчётности, вы можете прочитать недавнюю публикацию в нашем блоге «Безопасность и воздействие », посвящённую этому отчёту о правительственных запросах. 
Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку «Об отчётах о правительственных запросах» внизу страницы.
Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на английском языке.

Обзор нарушений, связанных с контентом и аккаунтами

В период с 1 января по 30 июня 2023 года компания Snap приняла меры против 6 216 118 единиц контента, нарушающих нашу политику.
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,02 процента, т. е. из каждых 10 000 просмотров Snap и Snapchat историй, 2 включали в себя контент, нарушающий нашу политику.

Анализ нарушений, связанных с контентом и аккаунтами

Общие показатели жалоб и правоприменительных мер остались примерно такими же, как и в предыдущие шесть месяцев, за некоторыми исключениями в ключевых категориях. Мы заметили снижение в этот период общего количества жалоб на контент и аккаунты и правоприменительных мер приблизительно на 3%.
Наиболее заметные колебания наблюдались в таких категориях, как «Оскорбления и буллинг», «Спам», «Оружие» и «Ложная информация». Количество жалоб на оскорбления и буллинг увеличилось на 56%, а количество правоприменительных мер в отношении контента и уникальных аккаунтов — на 39%. Увеличение количества правоприменительных мер сопровождалось сокращением времени выполнения на 46%, что свидетельствует о повышении операционной эффективности нашей команды при принятии мер против такого типа нарушающего контента. Аналогичным образом общее количество жалоб на спам увеличилось на 65%, при этом количество правоприменительных мер в отношении контента возросло на 110%, а в отношении уникальных — на 80%, при этом наши сотрудники также сократили время обработки жалоб на 80%. В категории «Оружие» общее количество жалоб сократилось на 13%, количество правоприменительных мер в отношении контента уменьшилось на 51%, а в отношении уникальных аккаунтов — на 53%. Наконец, в категории «Ложная информация» количество жалоб увеличилось на 14%, но при этом на 78% сократилось количество правоприменительных мер в отношении контента и на 74% — в отношении уникальных аккаунтов. Это может быть связано с тем, что постоянно ведется контроль качества (QA) и выделяются ресурсы для обработки сообщений о ложной информации, позволяющие нашим специалистам точно выявлять и устранять ложную информацию.
В целом, несмотря на схожие с прошлым периодом показатели, мы считаем важным продолжать совершенствовать инструменты, используемые нашим сообществом для активного и точного информирования о потенциальных нарушениях по мере их появления на платформе.

Борьба с сексуальной эксплуатацией и насилием над детьми

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEAI), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем активные технологические средства обнаружения, такие как инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.
В первом полугодии 2023 года мы заблаговременно обнаружили и приняли меры в отношении 98 % нарушений, связанных с материалами о сексуальной эксплуатации и жестоком обращении с детьми, о которых здесь сообщалось. Это на 4 % больше с момента публикации нашего предыдущего отчёта.
**Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество отдельных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.

Контент, связанный с членовредительством и самоубийствами

Мы глубоко заботимся о психическом здоровье и благополучии снапчаттеров, что повлияло и продолжает влиять на наши решения в отношении того, как сделать структуру Snapchat отличной от других платформ. Будучи платформой, созданной для общения настоящих друзей, мы считаем, что Snapchat может сыграть уникальную роль в предоставлении друзьям возможности помогать друг другу в трудные времена.
Когда наши специалисты по вопросам доверия и безопасности обнаруживают, что кто-то из снапчаттеров переживает сложные времена, они могут направить им ресурсы по предотвращению членовредительства и поддержке, а также уведомить персонал службы экстренной помощи, когда это необходимо. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, и они общедоступны для всех пользователей Snapchat.

Апелляции

Начиная с этого отчета, мы начинаем сообщать о количестве апелляций пользователей, чьи учетные записи были заблокированы за нарушение нашей политики. Мы восстанавливаем только те учетные записи, которые, по мнению наших модераторов, были заблокированы ошибочно. В течение этого периода мы сообщаем об апелляциях, касающихся контента о наркотиках.  В нашем следующем отчете мы планируем опубликовать больше данных, касающихся обжалований в связи с другими нарушениями нашей политики.
**Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество отдельных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.

Модерация рекламы

Компания Snap неуклонно следит за тем, чтобы все рекламные объявления полностью соответствовали политике нашей платформы. Мы придерживаемся ответственного и уважительного подхода к рекламе, создавая безопасные и комфортные возможности для всех наших пользователей. Ниже мы приводим сведения о модерации рекламы. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или вызывающий тревогу контент, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, в навигационной панели данного отчета о правительственных запросах теперь можно найти галерею рекламы Snapchat

Обзор стран

В этом разделе представлена информация о применении наших Правил сообщества в определённых географических регионах. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех снапчаттеров, независимо от страны проживания.
Информацию для отдельных стран можно скачать в прилагаемом CSV-файле:
Запросы на удаление государственной и интеллектуальной собственности
Об отчётности о правительственных запросах
Глоссарий отчёта о правительственных запросах