05 декабря 2024 г.
05 декабря 2024 г.
Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. Мы прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat.
Данный отчёт о правительственных запросах охватывает первое полугодие 2024 года (1 января — 30 июня). Как и в предыдущих отчётах, мы делимся данными о глобальном объеме полученных жалоб на контент в приложении и аккаунтах, которые получила наши команды по вопросам доверия и безопасности, и в отношении которых приняли меры по определённым категориям нарушений Правил сообщества, а также о том, как мы реагировали на запросы правоохранительных и государственных органов; и как мы реагировали на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию по конкретным странам в файлах, ссылки на которые находятся в нижней части этой страницы.
В рамках нашего постоянного стремления постоянно совершенствовать наши отчёты о правительственных запросах мы также представляем новые данные, рассказывающие о наших активных усилиях по выявлению и пресечению более широкого спектра Мы включили в этот отчет данные как на глобальном уровне, так и на уровне страны, и будем продолжать делать это в дальнейшем. Мы также исправили ошибку в маркировке в наших предыдущих отчётах: там, где ранее мы упоминали «Общее количество исполненных материалов», теперь мы указываем «Общее количество исполненных мер», чтобы отразить тот факт, что данные, представленные в соответствующих столбцах, включают как принудительные меры на уровне контента, так и на уровне аккаунтов.
Более подробную информацию о нашей политике по борьбе с потенциальным вредом в Интернете и о планах по дальнейшему совершенствованию наших методов подачи жалоб можно найти в нашем недавнем блоге «Безопасность и поддержка», посвященном этому отчёту о правительственных запросах. Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку «Об отчётах о правительственных запросах» внизу страницы.
Обратите внимание, что самая актуальная версия данного отчёта о правительственных запросах доступна на американском варианте английского языка.
Обзор действий наших команд по вопросам доверия и безопасности в отношении соблюдения наших Правил сообщества
Наши команды по вопросам доверия и безопасности следят за соблюдением наших Правил сообщества как упреждающе (с помощью автоматизированных инструментов), так и в качестве ответной меры (в ответ на жалобы), о чем подробнее говорится в следующих разделах данного отчета. В этом отчетном цикле (первое полугодие 2024 года) наши команды по вопросам доверия и безопасности предприняли следующие меры по соблюдению законодательства:
Ниже приведена разбивка по типам нарушений Правил сообщества, включая среднее время, прошедшее с момента обнаружения нарушения (либо упреждающе, либо после получения жалобы) до момента принятия окончательных мер в отношении соответствующего контента или аккаунта:
За отчётный период коэффициент недопустимых просмотров (VVR) составил 0,01%, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши Правила сообщества.
Нарушения Правил сообщества, о которых сообщают наши команды по вопросам доверия и безопасности
С 1 января по 30 июня 2024 года в ответ на сообщения о нарушениях наших Правил сообщества команды Snap по вопросам доверия и безопасности предприняли в общей сложности 6 223 618 правоприменительных действий по всему миру, в том числе в отношении 3 842 507 аккаунтов. Среднее время, в течении которого наши команды по вопросам доверия и безопасности приняли меры по соблюдению закона в ответ на эти жалобы, составило ~24 минуты. Ниже представлена разбивка по категориям отчетности.
Анализ
В первом полугодии 2024 года общий объем нашей отчетности оставался довольно стабильным по сравнению с предыдущими шестью месяцами. В этом цикле мы увидели увеличение общего количества принудительных мер и общего количества уникальных аккаунтов, подвергшихся принудительным мерам, примерно на 16%.
За последние 12 месяцев Snap внедрил новые механизмы для жалоб пользователей, которые учитывают изменения в объемах жалоб и принудительных мер, а также увеличение сроков обработки в этом отчетном периоде (первое полугодие 2024 года). В частности:
Жалобы на групповые чаты: 13 октября 2023 года мы представили функцию «Жалобы на групповые чаты», которая позволяет пользователям сообщать о злоупотреблениях, происходящих в чате с участием нескольких человек. Это изменение повлияло на распределение наших показателей по категориям жалоб (поскольку некоторые потенциальные вредные последствия с большей вероятностью могут возникнуть в контексте чата) и повысило эффективность жалоб.
Усовершенствование функции «Жалобы на аккаунты»: мы также усовершенствовали нашу функцию «Жалоба на аккаунты», предоставив пользователям возможность предоставлять доказательства в чате, когда они сообщают об аккаунте, подозреваемом в том, что им управляет злоумышленник. Это изменение, которое предоставляет нам больше доказательств и контекста для оценки жалоб на аккаунты, было введено 29 февраля 2024 года.
Жалобы на чаты, и особенно групповые чаты, являются наиболее сложными и трудоёмкими для рассмотрения, что увеличивает время рассмотрения по всем направлениям.
На сообщения о подозрениях в сексуальной эксплуатации и насилии над детьми (CSEA), оскорблениях и буллинге, а также высказываниях на почве ненависти особенно сильно повлияли два вышеописанных изменения, а также изменения в более широкой экосистеме. В частности:
CSEA: в первом полугодии 2024 года мы наблюдали увеличение количества жалоб и правоприменительных мер, связанных с CSEA. В частности, на 64% увеличилось общее количество жалоб пользователей в приложении, на 82% — общее количество правоприменительных мер и на 108% — общее количество аккаунтов, к которым были применены принудительные меры. Этот рост в значительной мере обусловлен внедрением функций жалоб на групповые чаты и аккаунты. Учитывая деликатный характер этой очереди на модерацию, для проверки жалоб о потенциальных нарушениях, связанных с CSEA, назначается специальная группа высококвалифицированных агентов. Приток дополнительных жалоб в сочетании с адаптацией наших команд к новым тренингам привел к увеличению времени рассмотрения жалоб. В дальнейшем мы значительно увеличили численность наших глобальных команд поставщиков, чтобы сократить время рассмотрения жалоб и точно реагировать на жалобы о потенциальных CSEA. Мы ожидаем, что наш отчёт о правительственных запросах за второе полугодие 2024 года отразит результаты этих усилий, а cроки обработки значительно сократятся.
Оскорбление и буллинг: На основе жалоб мы заметили, что оскорбления и буллинг в непропорционально большей степени происходят в чатах, особенно в групповых чатах. Улучшения, внесенные нами в систему подачи жалоб на групповые чаты и аккаунты, помогают нам принимать более комплексные меры при обработке жалоб в этой категории. Кроме того, с этого периода мы требуем от пользователей вводить комментарии при отправке жалобы на оскорбления и буллинг. Мы рассматриваем этот комментарий для контекстуализации каждой жалобы. В совокупности эти изменения привели к существенному увеличению общего количества правоприменительных мер (+91%), общего количества правоприменительных мер к уникальным аккаунтам (+82%) и времени рассмотрения соответствующих жалоб (+245 минут).
Разжигание ненависти: в первом полугодии 2024 года мы наблюдали увеличение количества контента с жалобами, общего количества правоприменительных мер и времени рассмотрения жалоб на разжигание ненависти. В частности, на 61% увеличилось количество жалоб в приложении, на 127% — общее количество примененных мер и на 125% — общее количество мер, примененных к уникальным аккаунтам. Это произошло в частности, благодаря усовершенствованию механизмов подачи жалоб на чаты (о чем говорилось ранее), и усугубилось геополитической обстановкой, в частности продолжением конфликта между Израилем и Хамасом.
В этом отчетном периоде мы наблюдали снижение общего количества принудительных мер на ~65% и сокращение на ~60% общего количества мер, примененных к уникальным аккаунтам, в ответ на жалобы о подозрении в спаме и насилии, что отражает улучшение наших инструментов упреждающего обнаружения и применения принудительных мер. Мы наблюдали аналогичное снижение общего количества принудительных мер в ответ на жалобы о контенте, связанном с нанесением вреда себе и самоубийствами (снижение на ~80%), что отражает наш обновленный подход, ориентированный на жертв, согласно которому наши команды по вопросам доверия и безопасности будут, в соответствующих случаях, направлять пользователям ресурсы самопомощи, а не принимать принудительные меры в отношении этих пользователей. В этом подходе принимали участие члены нашего Консультативного совета по безопасности, в том числе профессор педиатрии и врач, специализирующийся на проблемах в интерактивных медиа и Интернете.
Наша работа по упреждающему выявлению и пресечению нарушений наших Правил сообщества
Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принудительного пресечения нарушений наших Правил сообщества. К ним относятся средства хэш-сопоставления (в том числе PhotoDNA и Google Child Sexual Abuse Imagery (CSAI) Match), средства обнаружения оскорбительных высказываний, которые осуществляют обнаружение и применение мер на основе выявленного и регулярно обновляемого списка оскорбительных ключевых слов и эмодзи, а также мультимодальный искусственный интеллект / технологии машинного обучения.
В первой половине 2024 года мы предприняли следующие правоприменительные действия после упреждающего обнаружения с помощью автоматизированных инструментов выявления нарушений наших Правил сообщества:
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем активные технологии обнаружения, такие как надёжное хэш-сопоставление PhotoDNA и Google Child Sexual Abuse Imagery (CSAI), чтобы выявлять известные незаконные изображения и видео CSEA соответственно. Кроме того, в некоторых случаях мы используем поведенческие сигналы для противодействия другим потенциально незаконным действиям CSEA. Мы сообщаем о контенте, связанном с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. NCMEC, в свою очередь, координирует свои действия с национальными или международными правоохранительными органами, если это необходимо.
В первой половине 2024 года мы предприняли следующие действия при обнаружении CSEA в Snapchat (либо упреждающе, либо после получения жалобы):
*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество отдельных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.
Наши усилия по предоставлению ресурсов и поддержки нуждающимся снапчаттерам
Мы глубоко заботимся о психическом здоровье и благополучии снапчаттеров, что продолжает влиять на многие наши решения в отношении того, как сделать структуру Snapchat отличной от других платформ. Будучи платформой, созданной для общения настоящих друзей, мы считаем, что Snapchat может сыграть уникальную роль в предоставлении друзьям возможности помогать друг другу в трудные времена. Вот почему мы разработали ресурсы и поддержку для снепчаттеров, которым нужна помощь.
Наш поисковый инструмент «Here For You» показывает ресурсы от местных экспертов, когда пользователи ищут определенные темы, связанные с психическим здоровьем, тревогой, депрессией, стрессом, суицидальными мыслями, горем и буллингом. Мы также разработали страницу, посвященную сексуальному шантажу и другим рискам и вреду в сексуальной сфере, чтобы поддержать тех, кто попал в беду. Наш глобальный список ресурсов по безопасности находиться в открытом доступе для всех снапчаттеров в нашем Центре конфиденциальности, безопасности и политики.
Когда наши специалисты по вопросам доверия и безопасности обнаруживают, что кто-то из снапчаттеров переживает сложные времена, они могут направить им ресурсы по предотвращению членовредительства и поддержке, а также уведомить персонал службы экстренной помощи, когда это необходимо. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, и они общедоступны для всех пользователей Snapchat.
Апелляции
Ниже мы приводим информацию о жалобах, полученных нами от пользователей, которые запрашивают пересмотр нашего решения о блокировке их аккаунта:
* Как обсуждалось в разделе «Анализ» выше, прекращение распространения контента или действий, связанных с сексуальной эксплуатацией детей, является главным приоритетом. Snap выделяет значительные ресурсы для достижения этой цели и абсолютно не терпит такого поведения. Мы расширили наши команды глобальных поставщиков, чтобы адаптироваться к новой политике и функциям подачи жалоб в Snapchat. Таким образом, между вторым полугодием 2023 года и первым полугодием 2024 года мы сократили время рассмотрения апелляций CSEA с 152 до 15 дней. Мы постоянно стремимся совершенствовать наши процессы, в том числе в отношении сроков рассмотрения апелляций.
Обзор по регионам и странам
В этом разделе представлен обзор действий наших команд по вопросам доверия и безопасности в отношении соблюдения наших Правил сообщества как в упреждающем порядке, так и в ответ на жалобы о нарушениях в приложении в отдельных географических регионах. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех снапчаттеров по всему земному шару независимо от их местоположения.
Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прилагаемом CSV-файле.
Модерация рекламы
Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы придерживаемся ответственного и уважительного подхода к рекламе, создавая безопасные и комфортные возможности для всех наших пользователей. Мы проверяем и утверждаем всю рекламу в Snapchat. Кроме того, мы оставляем за собой право удалять рекламу, в том числе в ответ на отзывы пользователей, к которым мы относимся со всей серьезностью.
Ниже мы приводим информацию о том, как мы проводим модерацию платных рекламных объявлений, о которых нам сообщают после их публикации в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, в навигационной панели данного отчёта о правительственных запросах теперь можно найти галерею рекламы Snapchat.

























