Snap Values
Отчёт о правительственных запросах
1 июля 2024 г. — 31 декабря 2024 г.

Дата публикации:

20 июня 2025 г.

Последние изменения:

1 июля 2025 г.

Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. В рамках нашей приверженности безопасности и прозрачности мы постоянно прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat. 

Этот отчёт о правительственных запросах охватывает второе полугодие 2024 года (с 1 июля по 31 декабря). Мы делимся глобальными данными о жалобах пользователей и упреждающем обнаружении со стороны Snap; правоприменительных мерах, принятых нашими командами по вопросам Безопасности в отношении определенных категорий нарушений Правил сообщества; о том, как мы реагировали на запросы правоохранительных и правительственных органов; а также на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию с разбивкой по странам на серии связанных страниц.

Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку Об отчётах о правительственных запросах в нижней части страницы.

Обратите внимание, что самая последняя версия данного Отчёта о правительственных запросах является английской версией.

Обзор действий наших команд по вопросам Доверия и Безопасности в отношении соблюдения наших Правил сообщества

Наши команды по вопросам безопасности обеспечивают соблюдение наших Правил сообщества как проактивно (с помощью автоматизированных инструментов обнаружения), так и реактивно (в ответ на жалобы), что более подробно освещается в следующих разделах данного отчета. В этом отчётном цикле (второе полугодие 2024 года) наши команды по вопросам Безопасности приняли следующее количество правоприменительных мер:

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

10 032 110

5 698 212

Ниже приведена разбивка по типам нарушений Правил сообщества, включая среднее время, прошедшее с момента, как мы обнаружили нарушения (проактивно, либо по получении жалобы) до момента принятия окончательных мер в отношении соответствующего контента или аккаунта:

Причина в соответствии с нашей Политикой

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

3 860 331

2 099 512

2

Сексуальная эксплуатация детей

961 359

577 682

23

Оскорбления и буллинг

2 716 966

2 019 439

7

Угрозы и Насилие

199 920

156 578

8

Членовредительство и самоубийства

15 910

14 445

10

Ложная информация

6539

6176

1

Самозванство

8798

8575

2

Спам

357 999

248 090

1

Наркотики

1 113 629

718 952

6

Оружие

211 860

136 953

1

Другие регламентированные товары

247 535

177 643

8

Риторика ненависти

324 478

272 025

27

Терроризм и насильственный экстремизм

6786

4010

5

За отчётный период Коэффициент Недопустимых Просмотров (VVR) составил 0,01%, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши Правила сообщества.

Нарушения Правил сообщества, о которых сообщают наши отделы по вопросам Доверия и Безопасности

С 1 июля по 31 декабря 2024 года в ответ на жалобы о нарушении наших Правил сообщества в приложении, отделы Безопасности Snap осуществили в общей сложности 6 346 508 правоприменительных мер по всему миру, включая правоприменительные меры в отношении 4 075 838 уникальных аккаунтов. Среднее время, в течении которого наши отделы по вопросам безопасности приняли правоприменительные меры в ответ на эти жалобы, составило около 6 минут. Ниже представлена разбивка по категориям отчетности. 

Всего жалоб на Контент и Аккаунты

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

19 379 848

6 346 508

4 075 838

Причина в соответствии с нашей Политикой

Жалобы на Контент и Аккаунты

Общее количество правоприменительных мер

% от общего числа отчетов, к которым были приняты меры Snap

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

5 251 375

2 042 044

32,2%

1 387 749

4

Сексуальная эксплуатация детей

1 224 502

469 389

7,4%

393 384

133

Оскорбления и Буллинг

6 377 555

2 702 024

42,6%

2 009 573

7

Угрозы и Насилие

1 000 713

156 295

2,5%

129 077

8

Членовредительство и Самоубийства

307 660

15 149

0,20%

13 885

10

Ложная информация

536 886

6454

0.10%

6095

1

Самозванство

678 717

8790

0.10%

8569

2

Спам

1 770 216

180 849

2,8%

140 267

1

Наркотики

418 431

244 451

3,9%

159 452

23

Оружие

240 767

6473

0.10%

5252

1

Другие подконтрольные товары

606 882

199 255

3,1%

143 560

8

Враждебные высказывания

768 705

314 314

4,9%

263 923

27

Терроризм и Насильственный экстремизм

197 439

1201

<0,1%

1093

4

По сравнению с предыдущим отчетным периодом мы сократили среднее время рассмотрения дел по всем категориям политики в среднем на 90%. Это сокращение было в значительной степени связано с согласованными усилиями по расширению нашего потенциала обработки жалоб, а также улучшения выделения приоритетности жалоб с учетом степени тяжести причиненного вреда. В данный отчетный период мы также внесли ряд целенаправленных изменений в наши усилия по обеспечению безопасности, которые повлияли на представленные здесь данные. В их числе вошло расширение наших усилий по ограничению аккаунтов с именами пользователей и отображаемыми именами, которые нарушают наши Правила сообщества, внесение улучшений при подаче жалоб и осуществления защиты Сообществ в Snapchat, а также введение возможностей для подачи жалоб на дополнительные типы мультимедийных материалов, такие как голосовые заметки, нам напрямую в приложении. 

Эти изменения, а также другие усилия по обеспечению безопасности и внешние меры, особенно повлияли на определенные области нашей политики по сравнению с предыдущим отчётным периодом. Эти категории нашей политики включают в себя: Контент, связанный с предполагаемой сексуальной эксплуатацией и Насилием над детьми (СЭНД), Вредоносная ложная информация и спам. В частности:

  • СНЭД: во второй половине 2024 года мы наблюдали сокращение количества жалоб, связанных с СНЭД, на 12% и сократили среднее время рассмотрения жалоб на СНЭД на 99%. Эти тенденции в значительной степени обусловлены постоянным прогрессом в области упреждающего обнаружения, который позволил нам удалять контент СНЭД до того, как на него подать нам жалобу, а также улучшениями, которые мы внесли в наши процессы с целью рассмотрения и принятия мер по жалобам на СНЭД более эффективным образом. Даже с учетом этих улучшений время рассмотрения нами случаев СНЭД больше, чем в других областях наше политики, поскольку контент подвергается специализированному процессу, который включает в себя двойную проверку с использованием отобранной команды специально обученных агентов.

  • Вредоносная ложная информация: мы наблюдали увеличение на 26% количества жалоб, связанных с Вредоносной ложной информацией, которая в первую очередь была вызвана политическими событиями, включая выборы в США в ноябре 2024 года.

  • Спам: за данный отчётный период мы увидели сокращение общего количества правоприменительных мер примерно на 46% и сокращение общего количества уникальных аккаунтов, в отношении которых были приняты меры в ответ на жалобы о предполагаемом Спаме, что отражает улучшения наших инструментов упреждающего обнаружения и правоприменения. Это является продолжением наших усилий по борьбе со спамом с помощью сигналов, полученных с аккаунта, и более быстрому удалению спамеров, осуществляющих свои действия, на нашей платформе. Эти усилия уже велись на протяжении последнего отчётного периода, во время которого которого общее количество правоприменительных мер и общее количество уникальных аккаунтов, в отношении которых были приняты меры по причине Спама, сократилось примерно на 65% и 60% соответственно.

Наша работа по упреждающему выявлению и пресечению нарушений наших Правил сообщества

Упреждающее обнаружение и соблюдение наших Правил сообщества


Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принятия мер в отношении нарушений наших Правил сообщества. Эти инструменты включают в себя технологию сопоставления хэша, включая PhotoDNA и изображения сексуального насилия над детьми (СНЭД) от Google, API безопасности контента Google и другие пользовательские технологии, предназначенные для обнаружения оскорбительных текстов и мультимедийного контента, иногда с использованием искусственного интеллекта и машинного обучения. 

Во второй половине 2024 года мы приняли следующие правоприменительные меры после упреждающего обнаружения нарушений наших Правил сообщества с помощью автоматизированных инструментов обнаружения:

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

3 685 602

1 845 125

Причина в соответствии с нашей Политикой

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

1 818 287

828 590

< 1

Сексуальная эксплуатация детей

491 970

188 877

1

Оскорбления и Буллинг

14 942

11 234

8

Угрозы и Насилие

43 625

29 599

9

Членовредительство и Самоубийства

761

624

9

Ложная информация

85

81

10

Самозванство

8

6

19

Спам

177 150

110 551

< 1

Наркотики

869 178

590 658

5

Оружие

205 387

133 079

< 1

Другие подконтрольные товары

48 280

37 028

9

Враждебные высказывания

10 344

8683

10

Терроризм и Насильственный экстремизм

5585

2951

21

Борьба с сексуальной эксплуатацией и насилием над детьми 

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (СЭНД), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем проактивные технологичные инструменты обнаружения, чтобы помочь выявить контент, связанный с СЭНД. Эти инструменты включают в себя инструменты сопоставления хэша (включая PhotoDNA и CSAI Match от Google, чтобы выявлять известные незаконные изображения и видео СНЭД соответственно) и Google Content Safety API (с целью выявления новых, «никогда ранее не хэшированных» незаконных изображений). Кроме того, в некоторых случаях мы используем поведенческие сигналы для того, чтобы принять меры в отношении другой подозреваемой деятельности СЭНД. Мы сообщаем о контенте, связанном с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. Затем NCMEC по неообходимости координирует свои действия с национальными или международными правоохранительными органами.

В первой половине 2024 года мы предприняли следующие действия при обнаружении СНЭД в Snapchat (либо в качестве предупреждения, либо после получения жалобы):


Всего заблокировано единиц контента

Всего аккаунтов отключено

Всего материалов, переданных в NCMEC*

1 228 929

242 306

417 842

*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество уникальных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.

Наши усилия по предоставлению ресурсов и поддержки нуждающимся Снапчаттерам

Snapchat позволяет друзьям помогать друг другу в трудные времена, предоставляя ресурсы и поддержку Снапчаттерам, испытывающим потребность в них. 

Наш поисковый инструмент Here For You предоставляет  ресурсы от экспертов, когда пользователи осуществляют поиск на определенные темы, связанные с психическим здоровьем, тревогой, депрессией, стрессом, суицидальными мыслями, горем и буллингом. Мы также разработали страницу, посвященную сексуальному шантажу и другим рискам и вреду в сексуальной сфере, чтобы поддержать тех, кто попал в беду. Наш глобальный список ресурсов по безопасности находиться в открытом доступе для всех Снапчаттеров в нашем Центре конфиденциальности, безопасности и политики. 
Когда наши команды по вопросам безопасности узнают о том, что Снапчаттер находится в беде, они имеют возможность предоставить  ресурсы по предотвращению членовредительства и поддержке, а также уведомить экстренные службы в случае необходимости. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, который доступен всем Снапчаттерам.

Общее количество распространённых ресурсов по предотвращению самоубийств

64 094

Апелляции

Ниже мы приводим информацию о полученных нами апелляциях от пользователей, в которых просили пересмотреть наше решение о блокировке их аккаунта во второй половине 2024 года:

Причина в соответствии с нашей Политикой

Общее число обжалований

Общее число восстановленных аккаунтов

Общее число принятых решений

Среднее время рассмотрения обжалований (в днях)

ВСЕГО

493 782

35 243

458 539

5

Контент сексуального характера

162 363

6 257

156 106

4

Сексуальная эксплуатация детей

102 585

15 318

87 267

6

Оскорбления и буллинг

53 200

442

52 758

7

Угрозы и насилие

4238

83

4155

5

Членовредительство и самоубийства

31

1

30

5

Ложная информация

3

0

3

<1

Самозванство

847

33

814

7

Спам

19 533

5090

14 443

9

Наркотики

133 478

7598

125 880

4

Оружие

4678

136

4542

6

Другие регламентируемые товары

9153

168

8985

6

Риторика ненависти

3541

114

3427

7

Терроризм и насильственный экстремизм

132

3

129

9

Обзор по Регионам и Странам

В этом разделе представлен обзор действий наших команд по вопросам безопасности в целях обеспечения соблюдения наших Правил сообщества как упреждающим образом, так и в ответ на жалобы о нарушениях в приложении на выборке географических регионов. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех Снапчаттеров по всему земному шару независимо от их местоположения.

Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прикреплённом CSV-файле.


Обзор действий наших команд по вопросам доверия и безопасности в отношении соблюдения наших Правил сообщества

Регион

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Северная Америка

3 828 389

2 117 048

Европа

2 807 070

1 735 054

Другие страны

3 396 651

1 846 110

Всего

10 032 110

5 698 212

Нарушения Правил сообщества, о которых сообщили нашим Командам безопасности

Регион

Жалобы на Контент и Аккаунты

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Северная Америка

5 916 815

2 229 465

1 391 304

Европа

5 781 317

2 085 109

1 378 883

Другие страны

7 681 716

2 031 934

1 319 934

Всего

19 379 848

6 346 508

4 090 121

Упреждающее обнаружение и соблюдение наших Правил сообщества

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Модерация рекламы

Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы верим в ответственный подход к рекламе, создавая безопасный опыт для всех Снапчаттеров. Мы проверяем и утверждаем всю рекламу в Snapchat. Кроме того, мы оставляем за собой право удалять рекламу, в том числе в ответ на отзывы пользователей, к которым мы относимся со всей серьезностью. 


Ниже мы приводим информацию о том, как мы проводим модерацию платных рекламных объявлений, о которых нам сообщают после их публикации в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, теперь вы можете найти Галерею рекламы Snapchat в центре прозрачности Snap, к которой можно получить доступ прямо через панель навигации.

Всего жалоб на рекламные объявления

Всего удалено рекламных объявлений

43 098

17 833

Запросы на удаление государственной и интеллектуальной собственности

Об Отчёте о правительственных запросах

Глоссарий отчёта о правительственных запросах