Privacy, Safety, and Policy Hub
Европейский союз
1 января 2024 г. – 30 июня 2024 г.

Дата публикации:

25 октября 2024 г.

Обновлено:

17 декабря 2024 г.

Добро пожаловать на нашу страницу правительственных запросов Европейского союза (ЕС), где мы публикуем конкретную информацию для ЕС, требуемую Законом о цифровых услугах (DSA), Директивой об аудиовизуальных медиауслугах (AVMSD), Законом о СМИ Нидерландов (DMA) и Положениями о террористическом контенте в Интернете (TCO). Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на американском варианте английского языка.

Юридический представитель 

Компания Snap Group Limited назначила компанию Snap B.V. своим юридическим представителем для целей DSA. Вы можете связаться с представителем по адресу dsa-enquiries [at] snapchat.com для DSA, vsp-enquiries [at] snapchat.com для AVMSD и DMA, а также tco-enquiries [at] snapchat.com для TCO на нашем веб-сайте поддержки [здесь] или по адресу:

Snap B.V.
Keizersgracht 165, 1016 DP
Амстердам, Нидерланды

Если вы являетесь правоохранительным органом, следуйте приведённым здесь инструкциям.

В общении с нами просим использовать английский или голландский языки.

Регулирующие органы

Что касается DSA, наша деятельность регулируется Европейской комиссией и Управлением по делам потребителей и рынков Нидерландов (ACM). Что касается AVMSD и DMA, то мы регулируем нашу деятельность в соответствии с Управлением по делам СМИ Нидерландов (CvdM). Что касается TCO, то наша деятельность регулируется Нидерландским управлением по предотвращению распространения террористического контента и материалов о сексуальном насилии над детьми (ATKM).

Отчёт о правительственных запросах DSA

Последнее обновление: 25 октября 2024 г.

Мы публикуем этот отчет о наших усилиях по модерации контента в Snapchat в соответствии с требованиями о прозрачности, предусмотренными в статьях 15, 24 и 42 Закона Европейского союза (ЕС) о цифровых услугах (Постановление (ЕС) 2022/2065) («DSA»). За исключением случаев, когда указано иное, информация, содержащаяся в данном отчете, относится к отчетному периоду с 1 января 2024 года по 30 июня 2024 года (первое полугодие 2024 года) и охватывает модерацию контента в функциях Snapchat, которые регулируются DSA. 

Мы постоянно стремимся улучшить нашу отчетность. В этом отчетном периоде (первое полугодие 2024 года) мы внесли изменения в структуру нашего отчета, добавив новые и более дифференцированные таблицы, чтобы лучше понять наши усилия по модерации контента. 

1. Среднемесячное количество активных пользователей 
(Статьи 24.2 и 42.3 DSA)


По состоянию на 1 октября 2024 года в ЕС насчитывается 92,9 млн среднемесячных активных пользователей (далее — “AMAR”) приложения Snapchat. Это означает, что в среднем за последние 6 месяцев, заканчивающихся 30 сентября 2024 года, 92,9 млн зарегистрированных пользователей в ЕС хотя бы раз открывали приложение Snapchat в течение определённого месяца.

В разбивке по государствам-членам ЕС эти данные представлены следующим образом:

Эти показатели были рассчитаны в соответствии с действующими правилами Закона о цифровых услугах и на них следует опираться только в целях его применения. Мы изменили способ расчета этого показателя с течением времени, в том числе в связи с изменением внутренней политики, указаний регулирующих органов и технологий, и цифры не предназначены для сравнения между периодами. Они могут отличаться от расчетов, используемых для получения показателей активных пользователей, которые мы публикуем для других целей.

2. Запросы компетентных органов государств-членов
(Статья 15.1(a) Закона о цифровых услугах)
a) Предписания по борьбе с незаконным контентом


За данный отчетный период (первое полугодие 2024 года) мы не получили ни одного предписания от властей государств-членов ЕС по противодействию незаконному контенту, включая предписания, выданные на основании Статьи 9 Закона о цифровых услугах.

Поскольку это число равно нулю (0), мы не можем предоставить данные о количестве противоправного контента или информацию о государствах-членах, издавших распоряжение, или данные о среднем времени, необходимом для подтверждения получения или исполнения предписаний.

b) Предписания о предоставлении информации 


За данный отчетный период (первое полугодие 2024 года) мы получили следующие предписания от компетентных органов государств-членов ЕС о раскрытии пользовательских данных , в том числе предписания, которые были выданы на основании Статьи 10 Закона о цифровых услугах:


Среднее время на информирование соответствующих органов о получении этих распоряжений для предоставления информации составило 0 минут — мы предоставляем автоматизированный ответ, подтверждающий получение.

Среднее время на выполнение этих распоряжений о предоставлении информации составило ~7 дней. Этот показатель отражает период времени с даты получения компанией Snap распоряжения до момента, когда компания Snap сочла вопрос полностью решенным, что в отдельных случаях может зависеть отчасти от скорости, с которой соответствующие органы государства-члена реагируют на любые запросы - разъяснения от Snap, необходимые для обработки заказа.

Обратите внимание, что мы не предоставляем информацию о вышеуказанных распоряжений с разбивкой по типам соответствующего незаконного контента, поскольку эта информация не является для нас общедоступной.

3. Модерация контента 


Любой контент в Snapchat должен соблюдать наши Правила сообщества и Условия оказания услуг. Определенный контент также должен соответствовать дополнительным рекомендациям и политике. Например, контент, предоставленный для алгоритмических рекомендаций для более широкой аудитории на наших публичных платформах вещания, должен соответствовать дополнительным, более высоким стандартам, предусмотренным в Правилах в отношении контента для рекомендаций, а рекламные объявления должны соответствовать Рекламной политике.

Мы обеспечиваем соблюдение этих правил с помощью технологий и человеческого контроля. Мы также предоставляем пользователям Snapchat механизмы, позволяющие сообщать о нарушениях, включая незаконный контент и действия, непосредственно в приложении или через наш веб-сайт. Механизмы проактивного обнаружения и отчеты побуждают к проверке, которая затем использует сочетание автоматизированных инструментов и специалистов - модераторов для принятия соответствующих мер в соответствии с нашими правилами.

Мы предоставляем дополнительную информацию о модерации нашего контента на публичных платформах в первом полугодии 2024 года.

a) Уведомления, поданные в соответствии со статьей 16 Закона о цифровых услугах 
(Статья 15.1(b) Закона о цифровых услугах)

В соответствии со Статьей 16 Закона о цифровых услугах компания Snap внедрила механизмы, позволяющие пользователям и непользователям уведомлять Snap о присутствии в Snapchat определенных элементов информации, которые они считают незаконным контентом. Они могут сделать это, сообщив о конкретных материалах или аккаунтах непосредственно в приложении Snapchat, так и на нашем сайте.

За отчетный период (первое полугодие 2024 года) мы получили следующие уведомления, поданные в соответствии со статьей 16 Закона о цифровых услугах в ЕС:


Ниже мы приводим данные о том, как обрабатывались эти уведомления, т. е. с помощью процесса, включающего проверку специалистом, или исключительно автоматизированными средствами: 

Отправляя жалобу через приложение или сайт, вы можете выбрать соответствующую категорию из списка нарушений, перечисленных в Правилах сообщества (например, враждебные высказывания, распространение или употребление наркотиков). Наши Правила сообщества запрещают контент и действия, которые являются незаконными в ЕС, поэтому категории жалоб по большей части совпадают с категориями незаконного контента в ЕС. Однако, если вы сообщаете о контенте или аккаунте, которые запрещены по правилам ЕС, но не попадают под конкретную категорию наших Правил, вы можете отнести сообщение к категории «Другой запрещенный контент» и обосновать свою точку зрения. 

Если в результате проверки мы определим, что указанный контент или аккаунт нарушают наши Правила сообщества (включая обоснование незаконности), мы можем (i) удалить оскорбительный контент, (ii) сделать предупреждение владельцу аккаунта и/или (iii) заблокировать аккаунт, подробнее об этом в разделе Пояснения по вопросам модерации, правоприменения и обжалования

В первом полугодии 2024 года мы предприняли следующие правоприменительные меры после получения уведомлений, поданных на основании Статьи 16 Закона о цифровых услугах ЕС:

В первом полугодии 2024 года все сообщения о «другом незаконном контенте», по которым мы приняли меры, в конечном счете были приведены в исполнение в соответствии с нашими Правилами сообщества, поскольку Правила сообщества запрещали соответствующий контент или деятельность. Таким образом, мы отнесли эти меры к соответствующей категории нарушений Правил сообщества в таблице выше.

В дополнение к вышеуказанным мерам мы можем принимать меры в отношении контента, о котором нас уведомили, в соответствии с другими применимыми политиками и правилами Snap: 

  • Что касается контента на наших платформах общественного вещания: если мы определим, что представленный контент не соответствует более высоким стандартам Правил в отношении контента для рекомендаций, мы можем отклонить контент для алгоритмических рекомендаций (если контент не соответствует нашим критериям приемлемости) или ограничить распространение контента, чтобы исключить чувствительную аудиторию (если контент соответствует нашим критериям приемлемости для рекомендаций, но в остальном он деликатный или двусмысленный).  

В первом полугодии 2024 года мы предприняли следующие действия в отношении контента на платформах общественного вещания Snapchat, о которых нам сообщили в ЕС, в соответствии с нашими Правилами в отношении контента для рекомендаций:

  • Если мы определим, что реклама нарушает нашу Рекламную политику, мы можем удалить её после проверки.


В первом полугодии 2024 года мы предприняли следующие действия в отношении рекламы, о которой нам сообщили в ЕС:


b) Модерация контента, проводимая по инициативе Snap 
(Статья 15.1(c))


Помимо рассмотрения уведомлений, поданных в соответствии со Статьей 16 Закона о цифровых услугах, компания Snap по собственной инициативе модерирует контент на публичных платформах Snapchat (например, Spotlight, Discover). Ниже мы приводим информацию о модерации контента, проводимой по инициативе Snap, включая использование автоматизированных инструментов, меры по обучению и поддержке специалистов, ответственных за модерацию контента, а также данные по количеству и типам ограничений, наложенных в результате предварительной модерации контента.


  • Использование автоматизированных инструментов в модерации контента, проводимой по инициативе Snap


Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, для принятия мер по пресечению нарушений наших условий и политики на публичных платформах. Сюда входят инструменты хеш-сопоставления (в том числе PhotoDNA и Google CSAI Match), модели обнаружения языка злоупотреблений (которые выявляют и отклоняют контент на основе определенного и регулярно обновляемого списка оскорбительных ключевых слов и эмодзи), а также технологии искусственного интеллекта / машинного обучения. Наши автоматизированные инструменты предназначены для обнаружения нарушений Правил сообщества (которые, помимо прочего, запрещают незаконный контент) и, где это применимо, Правил в отношении контента для рекомендаций и Рекламной политики. 


В первом полугодии 2024 года все наши упреждающие выявления проводились с помощью автоматизированных инструментов. Когда автоматизированные инструменты обнаруживают возможное нарушение нашей политики, они либо автоматически принимают меры в соответствии с правилами, либо создают задачу для проверки человеком.  Ниже представлена информация о количестве и типах ограничений, наложенных в результате этого процесса. 


  • Количество и типы ограничений, наложенных по инициативе Snap


В первом полугодии 2024 года компания Snap предприняла следующие правоприменительные действия после упреждающего обнаружения нарушений Правил сообщества с помощью автоматизированных инструментов (включая нарушения, связанные с незаконным контентом или деятельностью согласно законам ЕС и государств-членов):

Кроме того, в первом полугодии 2024 года мы предприняли следующие действия в отношении контента на наших публичных платформах после того, как с помощью автоматизированных инструментов Snapchat были выявлены нарушения Правил в отношении контента для рекомендаций:

* Как указано в Правилах в отношении контента для рекомендаций, аккаунты, которые неоднократно или грубо нарушают Правила в отношении контента для рекомендаций, могут быть временно или навсегда лишены возможности быть рекомендованными на наших платформах публичного вещания. Мы применяем эти меры в контексте наших упреждающих усилий по модерации.

Кроме того, в первом полугодии 2024 года мы предприняли следующие действия после упреждающего обнаружения в Snapchat с помощью автоматизированных инструментов выявления нарушений нашей Рекламной политики:

  • Меры, направленные на обучение и поддержку модераторов контента


Наша команда модераторов контента следит за соблюдением правил, чтобы сообщество Snapchat оставалось безопасным пространством. Обучение, в ходе которого новые сотрудники знакомятся с политикой, инструментами Snap и процедурами эскалации, проводится в течение нескольких недель. Команды модераторов регулярно проходят тематические курсы повышения квалификации, особенно в ситуациях, когда мы сталкиваемся с пограничными случаями или случаями, решение по которым определяется контекстом. Мы также проводим программы повышения квалификации, сертификационные мероприятия и викторины, чтобы убедиться, что все модераторы обладают актуальными знаниями и соблюдают все правила обновлённой политики. Наконец, когда на фоне текущих событий возникают неотложные проблемы в отношении контента, мы оперативно распространяем информацию, разъясняющую политику, чтобы специалисты могли реагировать на них в соответствии с политикой Snap.


Команды модераторов контента получают значительную поддержку и доступ к различным ресурсам, в том числе оздоровительным мероприятиям на рабочем месте и услугам в области психического здоровья. 

c) Жалобы, полученные через внутреннюю систему обработки жалоб (т.е. апелляций) Snap 
(Статья 15.1(d))


Пользователи, чьи аккаунты заблокированы службой безопасности за нарушения Правил сообщества (в том числе в отношении незаконного контента или деятельности), могут подать апелляцию. Пользователи также могут обжаловать определенные решения по модерации контента.

За отчетный период (первое полугодие 2024 года) компания Snap рассмотрела следующие жалобы (включая апелляции на блокировку аккаунтов и решения о модерации контента), поданные через внутренние системы обработки жалоб в ЕС:

d) Использование автоматизированных средств для модерации контента 
(Статьи 15.1(e) и 42.2(c))

  • Качественное описание и задачи


Как объясняется выше в Разделе 3(b), мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принудительного устранения нарушений наших условий и политики на платформах публичного контента. Сюда входят инструменты хеш-сопоставления (в том числе PhotoDNA и Google CSAI Match), модели обнаружения языка злоупотреблений (которые выявляют и отклоняют контент на основе определенного и регулярно обновляемого списка оскорбительных ключевых слов и эмодзи), а также технологии искусственного интеллекта / машинного обучения. Наши автоматизированные инструменты предназначены для обнаружения нарушений Правил сообщества (которые, помимо прочего, запрещают незаконный контент) и, где это применимо, Правил в отношении контента для рекомендаций и Рекламной политики.

Когда автоматизированные инструменты обнаруживают возможное нарушение нашей политики, они либо автоматически принимают меры в соответствии с правилами, либо создают задачу для проверки человеком. 

  • Показатели точности и возможного уровня ошибок в разбивке по государствам-членам


Мы контролируем точность автоматизированных инструментов модернизации, выбирая случайные образцы заданий, обработанных нашими автоматизированными инструментами на публичных платформах, и отправляя их на повторную проверку нашим командам модераторов-людей. Коэффициент точности — это процент заданий из этих случайных выборок, которые были одобрены нашими модераторами-людьми при повторном рассмотрении. Коэффициент ошибок — это разница между 100% и коэффициентом точности, рассчитанным, как описано выше.

На основе выборки в первом полугодии 2024 года показатели точности и возможной погрешности используемых автоматизированных средств по всем категориям нарушений составили около 93%, а коэффициент погрешности — около 7%.

Мы обычно не отслеживаем язык контента, который модерируем в Snapchat, поэтому не можем предоставить данные о точности и количестве ошибок наших автоматизированных инструментов модерации для каждого официального языка государств-членов. В качестве косвенного подтверждения этой информации мы приводим ниже данные о точности и количестве ошибок, допущенных нами при автоматической модерации контента, поступающего из каждого государства-члена ЕС.

  • Меры предосторожности


Мы помним о потенциальном влиянии автоматизированных инструментов модерации на фундаментальные права и используем меры предосторожности, чтобы свести его к минимуму.

Наши автоматизированные инструменты модерации контента тестируются перед применением в Snapchat. Модели тестируются на производительность в автономном режиме и развёртываются с помощью A/B-тестирования, чтобы обеспечить их надлежащее функционирование до полного запуска в работу. Мы проводим проверки качества перед запуском, проверки при запуске и постоянные проверки качества точности во время частичного (поэтапного развёртывания). 

После запуска автоматизированных инструментов мы постоянно оцениваем их производительность и точность и при необходимости вносим коррективы. Этот процесс включает в себя повторное рассмотрение образцов автоматизированных задач нашими модераторами для выявления моделей, требующих корректировки для повышения точности. Мы также отслеживаем распространённость конкретных видов вреда в Snapchat с помощью случайной ежедневной выборки публичных историй и используем эту информацию для выявления областей, требующих дальнейшего совершенствования. 

Наши политики и системы способствуют последовательному и справедливому правоприменению, в том числе с помощью наших автоматизированных инструментов, и предоставляют снапчаттерам возможность оспаривать результаты правоприменения благодаря процессам уведомления и апелляции, которые направлены на защиту интересов нашего сообщества и индивидуальных прав снапчаттеров.

Мы стремимся постоянно совершенствовать наши автоматизированные инструменты модерации контента, чтобы повысить их точность и поддержать последовательное и справедливое соблюдение наших политик.

e) Споры, переданные в органы внесудебного урегулирования споров в соответствии со Статьёй 21
(Статья 24.1(a))

За отчётный период (первое полугодие 2024 г.) количество споров, переданных в официально сертифицированные внесудебные органы урегулирования споров в соответствии со Статьёй 21 Закона о цифровых услугах (ЕС), составило 0 (ноль), и мы не можем предоставить данные, отражающие результаты, среднее время завершения споров или долю споров, по которым Snap исполнила решения внесудебных органов урегулирования споров. 

Обратите внимание, что в первом полугодии 2024 года мы получили 2 (два) уведомления о спорах, поданных в орган, желающий получить сертификацию в качестве внесудебного органа урегулирования споров в соответствии со Статьёй 21 Закона о цифровых услугах (ЕС). Мы не включили эти споры в вышеприведённый подсчёт, поскольку орган, передавший эти уведомления о спорах, не смог подтвердить свой статус сертификации по нашему запросу.

f) Приостановления действия в соответствии со Статьёй 23 
(Статья 24.1(b))
  • Приостановления действия в соответствии со Статьёй 23.1: приостановление действия аккаунтов, которые часто предоставляют явно незаконный контент 

Как объясняется в нашем Пояснении по вопросам модерации, правоприменения и апелляций в Snapchat, аккаунты, которые, по нашему мнению, используются в первую очередь для нарушения Правил сообщества (в том числе путём предоставления явно незаконного контента), а также аккаунты, наносящие серьёзный вред, немедленно отключаются. В отношении остальных нарушений Правил сообщества Snap, как правило, применяет трёхэтапный процесс правоприменения:

  • Первый этап: удаление контента, нарушающего правила.

  • Второй этап: снапчаттер получает уведомление о нарушении Правил сообщества, о том, что его контент удалён и что повторное нарушение повлечёт за собой дополнительные правоприменительные меры, вплоть до отключения аккаунта.

  • Третий этап: наши специалисты фиксируют предупреждения для аккаунта снапчаттера.

Информация о количестве предупреждений и блокировок, наложенных в первом полугодии 2024 года на аккаунты в ЕС в связи с контентом или действиями на публичных платформах Snapchat, приведена выше в Разделах 3(a) и 3(b).

  • Приостановления в соответствии со Статьёй 23.2: приостановление обработки уведомлений и жалоб от физических, юридических лиц и заявителей, которые часто подают уведомления или жалобы, не являющиеся явно обоснованными

Применяя наше внутреннее определение «явно необоснованных» уведомлений и жалоб, а также наши внутренние пороговые значения того, что мы считаем частой подачей таких уведомлений и жалоб, количество приостановлений обработки уведомлений и жалоб, наложенных в первом полугодии 2024 года в соответствии со Статьёй 23.2 Закона о цифровых услугах (ЕС), выглядит следующим образом:

4. Информация наших группах модерации контента 
a) Людские ресурсы, предназначенные для модерации контента, в соответствии со Статьями 16, 20 и 22 Закона о цифровых услугах, в разбивке по официальным языкам государств-членов
(Статья 42.2(a))


Наши специалисты по модерации контента работают по всему миру, что позволяет обеспечивать безопасность пользователей Snapchat круглые сутки. Ниже представлена информация о наших специалистах по модерации с указанием рабочих языков (некоторые модераторы владеют несколькими языками) по состоянию на 30 июня 2024 года:

В приведенную выше таблицу включены все кадровые ресурсы, предназначенные для модерации контента, которые поддерживают официальные языки государств-членов ЕС по состоянию на 30 июня 2024 года. В ситуациях, когда нам необходима дополнительная языковая поддержка, мы прибегаем к услугам переводчиков.

b) Квалификация и лингвистическая экспертиза модераторов контента; обучение и поддержка
(Статья 42.2(b))


Модераторов нанимают в соответствии со стандартными должностными обязанностями, включая требование к знанию языка (в зависимости от потребности). В соответствии с требованием к знанию языка кандидат должен свободно владеть письменной и устной речью на соответствующем языке и иметь опыт работы не менее года на должностях начального уровня. Кроме того, кандидаты должны соответствовать требованиям к образованию и биографическим данным. Кандидаты также должны знать о текущих событиях в стране или регионе, где они будут модерировать контент. 

Выше представлена информация о тренингах и поддержке, которые компания Snap предоставляет модераторам контента, что отдельно предусмотрено статьей 15(1)(c) Закона о цифровых услугах и, следовательно, включено в Раздел 3(b), в заключительном подразделе: «Меры, направленные на обучение и поддержку лиц, ответственных за модерацию контента».

Отчёт о проверке материалов, содержащих контент, связанный с сексуальной эксплуатацией детей и насилием над ними


Справочная информация

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой, отвратительной и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.


Мы используем инструмент надёжного хэш-сопоставления PhotoDNA и технологию сопоставления изображений Child Sexual Abuse Imagery (CSAI) Match компании Google. Они позволяют выявлять известные незаконные изображения и видео, содержащие сцены сексуального насилия над детьми, и сообщать о них Национальному центру поиска пропавших и эксплуатируемых детей США (NCMEC), как того требует закон. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.


Отчёт

Приведённые ниже данные основаны на результатах упреждающей проверки с использованием PhotoDNA и/или CSAI Match медиафайлов, загруженных с помощью камеры пользователя в Snapchat.

Прекращение сексуальной эксплуатации детей — главный приоритет. Snap выделяет на это значительные ресурсы и абсолютно не терпит такого поведения. Для рассмотрения обжалований о сексуальной эксплуатации детей требуется специальная подготовка, и из-за материалов графического характера такие обжалования рассматривает небольшая команда агентов. Осенью 2023 года компания Snap внесла в свою политику изменения, которые повлияли на последовательность принятия некоторых мер в отношении нарушений, связанных с сексуальной эксплуатацией детей, устранив несоответствия посредством переобучения агентов и строгого контроля качества. Мы ожидаем, что в следующем отчёте о правительственных запросах будет отражён прогресс в сокращении сроков реагирования на обжалования о сексуальной эксплуатации детей и повышении точности первоначальных правоприменительных мер.

Меры предосторожности при модерации контента

Меры предосторожности, применяемые при проверке материалов, связанных с сексуальной эксплуатацией детей и насилием над ними, изложены в разделе «Меры предосторожности при модерации контента» выше в нашем отчёте по Закону о цифровых услугах .


Отчет Европейского союза о правительственных запросах по террористическому контенту в интернете

Опубликовано: 17 июня 2024 г.

Последнее обновление: 17 июня 2024 г.

Настоящий Отчёт о правительственных запросах публикуется в соответствии со Статьями 7(2) и 7(3) Регламента 2021/784 Европейского парламента и Совета ЕС, направленных на решение проблем распространения террористического контента в Интернете (Регламент). Он охватывает отчетный период с 1 января по 31 декабря 2023 г. 


Общая информация
  • Статья 7(3)(a) касается мер, которые необходимо принять хостинг-провайдеру для выявления, удаления или блокировки террористического контента.

  • Статья 7(3)(b) касается мер, предпринимаемых хостинг-провайдерами для предотвращения повторного появления в Интернете материалов (особенно с помощью автоматизированных инструментов), которые были ранее удалены или доступ к которым был заблокирован, поскольку они были расценены как террористический контент


Террористам, террористическим организациям и агрессивным экстремистам запрещается использовать Snapchat. Контент оправдывающий, пропагандирующий, прославляющий или продвигающий терроризм или насильственные и преступные действия, запрещен согласно нашим Правилам сообщества. Пользователи могут сообщать о контенте, нарушающем наши Правила сообщества, через меню для жалоб в приложении и наш сайт поддержки. Мы также используем упреждающее выявление противоправного контента на публичных платформах, таких как ​​Spotlight и Discover. 


Независимо от того, каким образом мы узнаем о появлении противоправного контента, наши команды по вопросам доверия и безопасности с помощью автоматической модерации и модерации специалистами, оперативно проверяют выявленный контент и принимают решения о правоприменительных мерах. Меры включают в себя удаление контента, предупреждение или блокировку аккаунта, нарушающего правила, а также, при необходимости уведомление в правоохранительные органы. Для предотвращения повторного появления террористического или другого экстремистского контента в Snapchat, помимо сотрудничества с правоохранительными органами, мы предпринимаем меры для блокировки устройства, связанного с экстремистским аккаунтом, и блокируем возможность создания другого аккаунта Snapchat этим пользователем. 


Узнать больше о наших мерах по выявлению и удалению террористического контента можно в Пояснении по вопросам оскорбительного контента, терроризма и насильственного экстремизма и в Пояснении по вопросам модерации, правоприменения и обжалования



Жалобы и правоприменительные меры 
  • Статья 7(3)(c) касается количества случаев удаления или ограничения доступа к террористическому контенту после принятия постановлений об удалении контента или других специальных мерах, а также количества материалов, которые обоснованно не были удалены или доступ к которым не был закрыт в соответствии с первыми подпунктами Статьи 3(7) и Статьи 3(8)


За отчетный период Snap не получал никаких предписаний об удалении контента или принятии каких-либо специальных мер в соответствии со Статьей 5 Регламента. Соответственно, от нас не требовалось принимать какие-либо правоприменительные меры в соответствии с Регламентом.


В таблице ниже описаны правоприменительные меры, которые были предприняты на основании жалоб пользователей и упреждающих действий по выявлению террористического и экстремистского контента и аккаунтов (как в ЕС, так и по всему миру), которые нарушают наши Правила сообщества

Апелляции по исполнению решений
  • Статья 7(3)(d): информация о количестве и результатах жалоб, рассмотренных хостинг-провайдером в соответствии со Статьей 10

  • Статья 7(3)(g): информация о количестве случаев, когда хостинг-провайдер восстанавливал контент или доступ к нему после жалобы со стороны контент-провайдера


Поскольку в течение отчетного периода мы не предпринимали никаких правоприменительных действий, предусмотренных Регламентом, мы не рассматривали жалобы согласно Статье 10 Регламента и не проводили каких-либо реинтеграций.


В таблице ниже представлена информация о жалобах и восстановлениях, как в ЕС, так и по всему миру, связанных с контентом террористического и насильственного экстремистского характера, которые применяются в соответствии с Правилами сообщества.

Cудебные разбирательства и обжалования
  • Статья 7(3)(e): информация о количестве случаев и итогах административных или судебных разбирательств, возбужденных хостинг-провайдером

  • Статья 7(3)(f): информация о количестве случаев, в которых хостинг-провайдер был обязан восстановить контент или доступ к нему в результате административного или судебного разбирательства


Поскольку в течение отчетного периода нам не было предписано никаких правоприменительных действий, предусмотренных Регламентом, а также не проводилось никаких административных или судебных разбирательств, мы не получали предписания восстановить какой-либо контент.

Определение рисков Закона о цифровых услугах ЕС

Данный отчёт подготовлен в соответствии с обязательствами Snap по Статьям 34 и 35 Регламента (ЕС) 2022/2065 и содержит результаты нашей оценки системных рисков, связанных с дизайном, функцией и использованием онлайн-платформ Snapchat, совместно с методологией, использованной для оценки этих рисков, и мерами по снижению рисков, принятыми для их устранения.


Отчёт об оценке рисков и смягчении последствий Закона о цифровых услугах ЕС | Snapchat | Август 2023 г. (PDF)


Аудит и внедрение рекомендаций по результатам аудита в соответствии с Законом о цифровых услугах ЕС

Данные отчёты подготовлены в соответствии с обязательствами Snap по Статье 37  Регламента (ЕС) 2022/2065 и содержат следующее: (i) результаты независимого аудита соблюдения Snap обязательств, изложенных в Главе III Регламента (ЕС) 2022/2065; (ii) меры, принятые для реализации оперативных рекомендаций по результатам этого независимого аудита.

Отчёт о независимом аудите в соответствии с Законом о цифровых услугах ЕС | Snapchat | Август 2024 г. (PDF)

Отчёт о реализации рекомендаций по результатам аудита в соответствии с Законом о цифровых услугах ЕС | Snapchat | Сентябрь 2024 г. (PDF)



Практический кодекс поставщиков услуг платформы обмена видео ЕС

Snap является «поставщиком услуг платформы обмена видео» (далее — VSP) в соответствии со статьёй 1(1)(aa) Директивы ЕС об аудиовизуальных медиауслугах. Настоящий Кодекс поведения (далее — «Кодекс») подготовлен для описания того, как Snap выполняет свои обязательства в качестве VSP в соответствии с Законом о СМИ Нидерландов (далее — «DMA») и Директивой (ЕС) 2010/13 (в редакции Директивы (ЕС) 2018/1808 (далее — «Директива об аудиовизуальных медиауслугах» или AVMSD)). Кодекс применяется на всей территории Европейского союза, а также в Европейской экономической зоне.

Кодекс поведения поставщиков услуг платформы обмена видео ЕС | Snapchat | декабрь 2024 г. (PDF)