Европейский союз
Последнее обновление: 25 октября 2023 г.
Добро пожаловать на нашу страницу прозрачности Европейского Союза (ЕС), где мы публикуем информацию, относящуюся к ЕС, требуемую Законом ЕС о цифровых услугах (DSA).  
Среднемесячное количество активных пользователей 
По состоянию на 1 августа 2023 г. в ЕС насчитывается 102 млн среднемесячных активных пользователей (AMAR) приложения Snapchat. Это означает, что в среднем за последние 6 месяцев 102 млн зарегистрированных пользователей в ЕС хотя бы раз открывали приложение Snapchat в течение определённого месяца.
В разбивке по государствам-членам ЕС эти данные представлены следующим образом:
Эти показатели были рассчитаны в соответствии с действующими правилами DSA и на них следует опираться только в целях DSA. Мы через некоторое время можем изменить методы расчета этого показателя, в том числе в качестве ответа на новые требования регуляторов и технологии. Они могут отличаться от расчетов, используемых для получения показателей активных пользователей, которые мы публикуем для других целей.
Юридический представитель 
Компания Snap Group Limited назначила компанию Snap B.V. своим юридическим представителем для целей DSA. Вы можете связаться с представителем по адресу dsa-enquiries [at] snapchat.com, через наш сайт поддержки [здесь] или по следующему адресу:
Snap B.V.
Keizersgracht 165, 1016 D
PАмстердам, Нидерланды
Если вы являетесь правоохранительным органом, следуйте описанным здесь инструкциям.
Регулирующие органы
Что касается DSA, наша деятельность регулируется Европейской комиссией и Управлением по делам потребителей и рынков Нидерландов (ACM). 
Отчет о правительственных запросах DSA
Согласно статьям 15, 24 и 42 DSA компания Snap обязана публиковать отчеты, содержащие предписанную информацию о модерации контента Snap для сервисов Snapchat, которые считаются «онлайн-платформами», то есть Spotlight, For You, публичных профилей, карт, линз и рекламы. Этот отчет должен публиковаться каждые 6 месяцев, начиная с 25 октября 2023 г.
Компания Snap публикует отчеты о прозрачности два раза в год, предоставляя информацию о мерах Snap по обеспечению безопасности, а также о характере и объеме контента, на который поступают жалобы на нашей платформе. Наш последний отчет за первое полугодие 2023 г. (1 января – 30 июня) можно найти здесь. Этот отчет содержит следующую информацию:
  • Правительственные запросы, включая запросы на удаление информации и контента; 
  • Нарушения контента, включая меры, принятые в отношении незаконного контента, и среднее время отклика; 
  • Апелляции, получаемые и рассматриваемые в рамках нашего внутреннего процесса обработки жалоб.
Эти разделы имеют отношение к информации, требуемой в соответствии со статьёй 15.1(а), (b) и (d) DSA. Обратите внимание, что в них пока не включен полный комплект данных, так как последний отчет охватывает первое полугодие 2023 г. и предшествует вступлению DSA в силу. 
Ниже мы приводим некоторую дополнительную информацию об аспектах, не охваченных нашим отчетом о правительственных запросах за первое полугодие 2023 г.:
Модерация контента (статьи 15.1(c) и (e), статья 42.2)
Весь контент Snapchat должен соответствовать нашим Правилам сообщества и Условиям оказания услуг, а также сопутствующим условиям, руководствам и разъяснениям. Механизмы упреждающего обнаружения и сообщения о незаконном или нарушающем правила контенте или аккаунтах влекут за собой проверку, после чего наши инструментальные системы обрабатывают запрос, собирают соответствующие метаданные и направляют соответствующий контент нашей команде модераторов через структурированный пользовательский интерфейс, который призван обеспечивать эффективность и результативность проверок. Когда наши специалисты по модерации делают вывод (посредством аналитических исследований или автоматизированных средств), что пользователь нарушил наши Условия, мы можем удалить нарушающий правила контент или аккаунт, закрыть соответствующий аккаунт либо ограничить его видимость и/или уведомить правоохранительные органы, как описано в Объяснении Snapchat по вопросам модерации, принудительных мер и апелляций.  Пользователи, чьи аккаунты были заблокированы нашей командой по безопасности за нарушения Правил сообщества, могут подать апелляцию на блокирование аккаунта или апелляцию на определенные меры принуждения.
Инструменты автоматизированной модерации контента
Перед тем, как получить разрешение на распространение в широкой аудитории, открытый контент на наших публичных площадках, как правило, проходит автоматическую модерацию и проверку человеком. Что касается автоматизированных инструментов, то они включают в себя:
  • Упреждающее выявление незаконного и нарушающего правила контента с помощью машинного обучения;
  • Инструменты сопоставления хэш-данных (например, PhotoDNA и CSAI Match Google);
  • Обнаружение бранной лексики в целях отклонения контента на основе регулярно обновляемого списка выявленных ключевых оскорбительных слов и эмодзи.
В период, указанный в нашем последнем отчете о правительственных запросах (первое полугодие 2023 г.), официальные показатели / коэффициенты ошибок для данных автоматизированных систем не сопоставлялись ввиду отсутствия такого требования. Однако мы регулярно отслеживаем работу этих систем на предмет проблем, и решения о модерации, принимаемые людьми, проходят регулярную проверку на корректность.

Модерация человеком
Наши специалисты по модерации контента работают по всему миру, что позволяет обеспечивать безопасность снапчаттеров круглые сутки. Ниже представлена информация о наших специалистах по модерации с указанием рабочих языков (некоторые модераторы владеют несколькими языками) по состоянию на август 2023 года:
Вышеуказанные цифры часто меняются в зависимости от динамики объёма поступающих материалов по языкам/странам. В ситуациях, когда нам необходима дополнительная языковая поддержка, мы прибегаем к услугам переводчиков.
Модераторов нанимают в соответствии со стандартными должностными обязанностями, включая требование к знанию языка (в зависимости от потребности). В соответствии с требованием к знанию языка кандидат должен свободно владеть письменной и устной речью на соответствующем языке и иметь опыт работы не менее года на должностях начального уровня. Кроме того, кандидаты должны соответствовать требованиям к образованию и биографическим данным. Кандидаты также должны знать о текущих событиях в стране или регионе, где они будут модерировать контент. 
Наши специалисты по модерации применяют наши политики и правоприменительные меры для защиты сообщества Snapchat. Обучение, в ходе которого новые сотрудники знакомятся с политиками и инструментами Snap, а также её процедурами передачи рассмотрения проблем на более высокий уровень, проводится в течение нескольких недель. После обучения каждый модератор должен сдать сертификационный экзамен, прежде чем он будет допущен к проверке контента. Наши специалисты по модерации регулярно проходят курсы переподготовки в соответствии со своими рабочими обязанностями, особенно в тех случаях, когда мы сталкиваемся с ситуациями, пограничными с точки зрения политики или зависящими от контекста. Мы также проводим программы повышения квалификации, сертификационные мероприятия и викторины, чтобы убедиться, что все модераторы обладают актуальными знаниями и соблюдают все обновлённые политики. Наконец, когда на фоне текущих событий возникают неотложные проблемы в отношении контента, мы оперативно распространяем информацию, разъясняющую политики, чтобы специалисты могли реагировать на них в соответствии с политиками Snap.
Мы предоставляем нашим специалистам по модерации контента, или так называемым «специалистам по реагированию на цифровые события» Snap, значительную поддержку и ресурсы, в том числе оздоровительные услуги на рабочем месте и простой доступ к психиатрической помощи. 

Меры предосторожности при модерации контента
Мы признаём, что существуют риски, связанные с модерацией контента, включая риски для свободы слова и собраний, которые могут быть вызваны предвзятостью со стороны автоматизированных систем модерации и специалистов по модерации, а также в отношении неправомерных жалоб, в том числе со стороны государственных органов, политических организаций или хорошо организованных лиц. Snapchat, как правило, не является местом для размещения контента, который несёт политический или активистский характер, особенно в наших публичных пространствах. 
Тем не менее для защиты от этих рисков Snap проводит тестирование и обучение, а также применяет надёжные и последовательные процедуры обработки жалоб на незаконный или нарушающий правила контент, в том числе поступающих от правоохранительных и государственных органов. Мы постоянно оцениваем и совершенствуем наши алгоритмы модерации контента. Хотя потенциальный ущерб свободе слова трудно выявить, нам неизвестно о каких-либо существенных проблемах в этой области, и мы предоставляем нашим пользователям возможность сообщать об ошибках, если они имеют место. 
Наши политики и системы способствуют последовательному и справедливому правоприменению и, как описано выше, предоставляют снапчаттерам возможность оспаривать результаты правоприменения с помощью процедур уведомления и обжалования, которые направлены на защиту интересов нашего сообщества, а также прав отдельных снапчаттеров.
Мы постоянно стремимся совершенствовать наши правоприменительные политики и процедуры и добились значительных успехов в борьбе с потенциально вредным и незаконным контентом и деятельностью в Snapchat. Об этом свидетельствует тенденция к увеличению количества жалоб и правоприменительных мер, представленная в нашем последнем отчёте о правительственных запросах, а также снижение показателей распространённости нарушений в Snapchat в целом. 

Уведомления от доверенных информаторов (статья 15.1(b))
За период, указанный в нашем последнем отчёте о правительственных запросах (первое полугодие 2023 г.), в соответствии с DSA не было ни одного официально назначенного доверенного информатора. В результате количество уведомлений, отправленных такими доверенными информаторами за этот период, было равно нулю (0).

Внесудебные споры (статья 24.1(а))
За период, указанный в нашем последнем отчёте о правительственных запросах (первое полугодие 2023 г.), в соответствии с DSA не было ни одного официально назначенного органа по урегулированию внесудебных споров. В результате количество споров, переданных в такие органы за этот период, было равно нулю (0).

Приостановка действия аккаунтов в соответствии со статьёй 23 (статья 24.1(b))
За период, указанный в нашем последнем отчёте о правительственных запросах (первое полугодие 2023 г.), в соответствии со статьёй 23 DSA не было необходимости приостанавливать действие аккаунтов за предоставление явно незаконного контента, а также необоснованных уведомлений или жалоб. В результате количество таких приостановок было равно нулю (0). Однако Snap принимает соответствующие правоприменительные меры в отношении аккаунтов, как описано в нашем пояснении по вопросам модерации, правоприменения и обжалования Snapchat, а информацию об уровне правоприменения в отношении аккаунтов Snap можно найти в нашем отчёте о правительственных запросах (первое полугодие 2023 г.).