Европейский союз
1 июля 2023 г. – 31 декабря 2023 г.

Дата публикации:

25 апреля 2024 г.

Обновление:

25 апреля 2024 г.

Добро пожаловать на нашу страницу прозрачности Европейского Союза (ЕС), где мы публикуем специальную информацию ЕС, требуемую Законом ЕС о цифровых услугах (DSA), Директивой об аудиовизуальных медиа-услугах (AVMSD) и Законом Нидерландов о СМИ (DMA). Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на американском варианте английского языка.

Юридический представитель 

Компания Snap Group Limited назначила компанию Snap B.V. своим юридическим представителем для целей DSA. Вы можете связаться с представителем по адресу dsa-enquiries [at] snapchat.com для DSA, vsp-enquiries [at] snapchat.com для AVMSD и DMA, через наш сайт поддержки [здесь] или по адресу:

Snap B.V.
Keizersgracht 165, 1016 DP
Амстердам, Нидерланды

Если вы являетесь правоохранительным органом, следуйте приведенным здесь инструкциям. В общении с нами просим использовать голландский или английский языки.

Регулирующие органы

Что касается DSA, наша деятельность регулируется Европейской комиссией и Управлением по делам потребителей и рынков Нидерландов (ACM). Что касается AVMSD и DMA, наша деятельность регулируется в соответствии с Управлением по делам СМИ Нидерландов (CvdM).

Отчет о правительственных запросах DSA

Согласно статьям 15, 24 и 42 DSA компания Snap обязана публиковать отчеты, содержащие предписанную информацию о модерации контента Snap для сервисов Snapchat, которые считаются «онлайн-платформами», таких как Spotlight, For You, публичных профилей, карт, линз и рекламы. Этот отчет должен публиковаться каждые 6 месяцев, начиная с 25 октября 2023 г.

Компания Snap публикует отчеты о прозрачности два раза в год, предоставляя информацию о мерах Snap по обеспечению безопасности, а также о характере и объеме контента, на который поступают жалобы на нашей платформе. Наш последний отчёт за второе полугодие 2023 года (1 июля — 31 декабря) можно найти здесь. Показатели, относящиеся к Закону о цифровых услугах, можно найти на этой странице:

Среднемесячное количество активных пользователей 
(Статьи DSA 24.2 и 42.3)

По состоянию на 31 декабря 2023 г. в ЕС насчитывается 90,9 млн среднемесячных активных пользователей (AMAR) приложения Snapchat. Это означает, что в среднем за последние 6 месяцев 90,9 млн зарегистрированных пользователей в ЕС хотя бы раз открывали приложение Snapchat в течение определённого месяца.

В разбивке по государствам-членам ЕС эти данные представлены следующим образом:

Эти показатели были рассчитаны в соответствии с действующими правилами DSA и на них следует опираться только в целях DSA. Мы изменили способ расчета этого показателя с течением времени, в том числе в связи с изменением внутренней политики, указаний регулирующих органов и технологий, и цифры не предназначены для сравнения между периодами. Они могут отличаться от расчетов, используемых для получения показателей активных пользователей, которые мы публикуем для других целей.


Запросы на получение полномочий государств-участников
(Статья 15.1(a) DSA)

Запросы на удаление контента 

В течение этого периода мы получили 0 запросов на удаление контента от государств-участников в соответствии со статьей 9 DSA. 

Запросы на предоставление информации 

В течение этого периода мы получили следующие запросы на предоставление информации от стран-участников в соответствии со статьей 10 DSA:

Среднее время уведомления органов власти о получении запросов на получение информации составляет 0 минут — мы предоставляем автоматическое подтверждение получения. Средний срок выполнения запросов на предоставление информации составляет примерно 10 дней. Этот показатель отражает период времени от получения платформой Snap запросов на предоставление информации, до того времени, когда сотрудники Snap посчитают запрос полностью выполненным. В некоторых случаях продолжительность этого процесса зависит отчасти от скорости, с которой правоохранительные органы реагируют на любые запросы от сотрудников Snap, необходимые для обработки их запроса.

Модерация контента 


Весь контент Snapchat должен соответствовать нашим Правилам сообщества и Условиям оказания услуг, а также сопутствующим условиям, руководствам и разъяснениям. Механизмы упреждающего обнаружения и сообщения о незаконном или нарушающем правила контенте или аккаунтах влекут за собой проверку, после чего наши инструментальные системы обрабатывают запрос, собирают соответствующие метаданные и направляют соответствующий контент нашей команде модераторов через структурированный пользовательский интерфейс, который призван обеспечивать эффективность и результативность проверок. Когда наши специалисты по модерации делают вывод (посредством аналитических исследований или автоматизированных средств), что пользователь нарушил наши Условия, мы можем удалить нарушающий правила контент или аккаунт, закрыть соответствующий аккаунт либо ограничить его видимость и/или уведомить правоохранительные органы, как описано в Объяснении Snapchat по вопросам модерации, принудительных мер и апелляций.  Пользователи, чьи аккаунты были заблокированы нашей командой по безопасности за нарушения Правил сообщества, могут подать апелляцию на блокирование аккаунта или апелляцию на определенные меры принуждения.

Уведомления о контенте и аккаунтах (Статья DSA 15.1(b))

Платформа Snap внедрила механизмы, позволяющие пользователям и непользователям жаловаться сотрудникам Snap на контент и аккаунты, нарушающие Правила сообщества и Условия оказания услуг на платформе, в том числе на те, которые они считают незаконными в соответствии со статьей 16 DSA.  Эти механизмы отчетности доступны в самом приложении (т. е. непосредственно в контенте) и на нашем веб-сайте.

В течение соответствующего периода мы получили следующие жалобы на контент и аккаунты в ЕС:

Во втором полугодии 23-го года мы обработали 664 896 уведомлений исключительно с помощью автоматизированных средств. Все они были внедрены против наших Правил сообщества, потому что в наших Правилах сообщества содержится незаконный контент. 

Помимо пользовательского контента и аккаунтов, мы модерируем рекламу, если она нарушает политику нашей платформы. Ниже приведено общее количество рекламных объявлений, на которые жаловались пользователи и которые были удалены в ЕС. 

Уведомления от доверенных контролеров (статья 15.1(b))

За период, указанный в нашем последнем Отчете о правительственных запросах (второе полугодие 2023 года), не было ни одного официально назначенного доверенного контролера в соответствии с DSA. В результате количество уведомлений, отправленных доверенными контролерами за этот период, было равно нулю (0).

Профилактическая модерация контента (Статья 15.1(c))

В течение соответствующего периода платформа Snap по собственной инициативе применяла меры в отношении следующего контента и аккаунтов в ЕС после внедрения модерации контента:

Во всех мероприятиях по модерации по инициативе Snap использовались человеческие или автоматизированные средства. Перед тем, как получить разрешение на распространение в широкой аудитории, открытый контент на наших публичных площадках, как правило, проходит автоматическую модерацию и проверку человеком. Что касается автоматизированных инструментов, то они включают в себя:

  • Упреждающее выявление незаконного и нарушающего правила контента с помощью машинного обучения;

  • Инструменты сопоставления хеша (такие, как PhotoDNA и Google's CSAI Match);

  • Обнаружение бранной лексики в целях отклонения контента на основе регулярно обновляемого списка выявленных ключевых оскорбительных слов, включая эмодзи.


Апелляции (Статья 15.1(d))

В течение соответствующего периода платформа Snap обработала следующие апелляции относительно контента и аккаунтов в ЕС через свои внутренние системы обработки апелляций:


* Прекращение сексуальной эксплуатации детей — главный приоритет. Snap выделяет на это значительные ресурсы и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и строгого контроля качества. Мы ожидаем, что в следующем отчёте о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Автоматизированные средства модерации контента (Статья 15.1(e))

Перед тем, как получить разрешение на распространение в широкой аудитории, открытый контент на наших публичных площадках, как правило, проходит автоматическую модерацию и проверку человеком. Что касается автоматизированных инструментов, то они включают в себя:

  • Упреждающее выявление незаконного и нарушающего правила контента с помощью машинного обучения;

  • Инструменты сопоставления хэш-данных (например, PhotoDNA и CSAI Match Google);

  • Обнаружение бранной лексики в целях отклонения контента на основе регулярно обновляемого списка выявленных ключевых оскорбительных слов и эмодзи.


Точность технологий автоматизированной модерации по всем видам вредоносного контента составила примерно 96,61 %, а уровень ошибок — примерно 3,39 %.


Гарантии модерации контента (Статья 15.1(е))

Мы признаём, что существуют риски, связанные с модерацией контента, включая риски для свободы слова и собраний, которые могут быть вызваны предвзятостью со стороны автоматизированных систем модерации и специалистов по модерации, а также в отношении неправомерных жалоб, в том числе со стороны государственных органов, политических организаций или хорошо организованных лиц. Snapchat, как правило, не является местом для размещения контента, который несёт политический или активистский характер, особенно в наших публичных пространствах. 


Тем не менее для защиты от этих рисков Snap проводит тестирование и обучение, а также применяет надёжные и последовательные процедуры обработки жалоб на незаконный или нарушающий правила контент, в том числе поступающих от правоохранительных и государственных органов. Мы постоянно оцениваем и совершенствуем наши алгоритмы модерации контента. Хотя потенциальный ущерб свободе слова трудно выявить, нам неизвестно о каких-либо существенных проблемах в этой области, и мы предоставляем нашим пользователям возможность сообщать об ошибках, если они имеют место. 


Наши политики и системы способствуют последовательному и справедливому правоприменению и, как описано выше, предоставляют снапчаттерам возможность оспаривать результаты правоприменения с помощью процедур уведомления и обжалования, которые направлены на защиту интересов нашего сообщества, а также прав отдельных снапчаттеров.

Мы постоянно стремимся совершенствовать нашу правоприменительную политику и процедуры и добились значительных успехов в борьбе с потенциально вредным и незаконным контентом и деятельностью в Snapchat. Об этом свидетельствует тенденция к увеличению количества жалоб и правоприменительных мер, представленная в нашем последнем Отчёте о правительственных запросах, а также снижение показателей распространённости нарушений в Snapchat в целом. 


Внесудебное урегулирование (Статья 24.1(а))

За период, указанный в нашем последнем Отчёте о правительственных запросах (за второе полугодие 2023 года), не было ни одного официально назначенного органа для внесудебного урегулирования споров в соответствии с DSA. В результате количество споров, переданных в такие органы, за этот период составило ноль (0), и мы не можем предоставить результаты, средние сроки урегулирования и долю споров, в которых мы реализовали решения исполнительного органа.



Приостановка действия аккаунтов (Статья 24.1(b))

Во втором полугодии 2023 года мы не приостанавливали действие никаких аккаунтов в соответствии со Статьёй 23. Специалисты Snap по вопросам доверия и безопасности ввели процедуры, ограничивающие возможность отправки пользователями уведомлений или жалоб, которые являются явно необоснованными. Эти процедуры включают в себя ограничение создания повторяющихся жалоб и использование фильтров электронной почты для запрета повторного создания и отправки явно необоснованных жалоб. Snap принимает соответствующие правоприменительные меры в отношении аккаунтов, как описано в нашем пояснении по вопросам модерации, правоприменения и обжалования в Snapchat, а информацию об уровне правоприменения в отношении аккаунтов Snap можно найти в нашем Отчёте о правительственных запросах (за второе полугодие 2023 г.). Такие меры будут и дальше пересматриваться и повторяться.


Ресурсы, советы и поддержка для модераторов (Статья 42.2)

Наши специалисты по модерации контента работают по всему миру, что позволяет обеспечивать безопасность снапчаттеров круглые сутки. Ниже представлена информация о наших специалистах по модерации с указанием рабочих языков (некоторые модераторы владеют несколькими языками) по состоянию на 31 декабря 2023 года:

В приведённую выше таблицу включены все модераторы, говорящие на языках государств-членов ЕС по состоянию на 31 декабря 2023 г. В ситуациях, когда нам необходима дополнительная языковая поддержка, мы прибегаем к услугам переводчиков.

Модераторов нанимают в соответствии со стандартными должностными обязанностями, включая требование к знанию языка (в зависимости от потребности). В соответствии с требованием к знанию языка кандидат должен свободно владеть письменной и устной речью на соответствующем языке и иметь опыт работы не менее года на должностях начального уровня. Кроме того, кандидаты должны соответствовать требованиям к образованию и биографическим данным. Кандидаты также должны знать о текущих событиях в стране или регионе, где они будут модерировать контент.

Наши специалисты по модерации применяют нашу политику и правоприменительные меры для защиты сообщества Snapchat. Обучение, в ходе которого новые сотрудники знакомятся с политикой и инструментами Snap, а также её процедурами передачи рассмотрения проблем на более высокий уровень, проводится в течение нескольких недель. После обучения каждый модератор должен сдать сертификационный экзамен, прежде чем он будет допущен к проверке контента. Наши специалисты по модерации регулярно проходят курсы переподготовки в соответствии со своими рабочими обязанностями, особенно в тех случаях, когда мы сталкиваемся с ситуациями, пограничными с точки зрения политики или зависящими от контекста. Мы также проводим программы повышения квалификации, сертификационные мероприятия и викторины, чтобы убедиться, что все модераторы обладают актуальными знаниями и соблюдают все правила обновлённой политики. Наконец, когда на фоне текущих событий возникают неотложные проблемы в отношении контента, мы оперативно распространяем информацию, разъясняющую политику, чтобы специалисты могли реагировать на них в соответствии с политикой Snap.

Мы предоставляем нашим специалистам по модерации контента, или так называемым «специалистам по реагированию на цифровые события» Snap, значительную поддержку и ресурсы, в том числе оздоровительные услуги на рабочем месте и легкий доступ к психиатрической помощи. 

Отчёт о проверке материалов, содержащих контент, связанный с сексуальной эксплуатацией детей и насилием над ними


Справочная информация

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.


Мы используем инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.


Отчёт

Приведённые ниже данные основаны на результатах упреждающей проверки с использованием PhotoDNA и/или CSAI Match медиафайлов, загруженных с помощью камеры пользователя в Snapchat.

Прекращение сексуальной эксплуатации детей — главный приоритет. Snap выделяет на это значительные ресурсы и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и строгого контроля качества. Мы ожидаем, что в следующем отчёте о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Меры предосторожности при модерации контента

Меры предосторожности, применяемые при проверке материалов, связанных с сексуальной эксплуатацией детей и насилием над ними, изложены в разделе «Меры предосторожности при модерации контента» выше в нашем отчёте DSA.


Отчёт о проверке материалов, содержащих контент, связанный с сексуальной эксплуатацией детей и насилием над ними


Справочная информация

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.


Мы используем инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.


Отчёт

Приведённые ниже данные основаны на результатах упреждающей проверки с использованием PhotoDNA и/или CSAI Match медиафайлов, загруженных с помощью камеры пользователя в Snapchat.

Прекращение сексуальной эксплуатации детей — главный приоритет. Snap выделяет на это значительные ресурсы и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и строгого контроля качества. Мы ожидаем, что в следующем отчёте о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Меры предосторожности при модерации контента

Меры предосторожности, применяемые при проверке материалов, связанных с сексуальной эксплуатацией детей и насилием над ними, изложены в разделе «Меры предосторожности при модерации контента» выше в нашем отчёте DSA.


Прекращение сексуальной эксплуатации детей — главный приоритет. Snap выделяет на это значительные ресурсы и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и строгого контроля качества. Мы ожидаем, что в следующем отчёте о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Меры предосторожности при модерации контента

Меры предосторожности, применяемые при проверке материалов, связанных с сексуальной эксплуатацией детей и насилием над ними, изложены в разделе «Меры предосторожности при модерации контента» выше в нашем отчёте DSA.


В разбивке по государствам-членам ЕС эти данные представлены следующим образом:

В разбивке по государствам-членам ЕС эти данные представлены следующим образом: