Snap Values
Отчёт о правительственных запросах
С 1 января 2025 г. по 30 июня 2025 г.

Дата публикации:

1 декабря 2025 г.

Последние изменения:

1 декабря 2025 г.

Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. В рамках нашей приверженности безопасности и прозрачности мы постоянно прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat. 

Этот отчёт о правительственных запросах охватывает первое полугодие 2025 года (1 января – 30 июня). Мы делимся глобальными данными о жалобах пользователей и упреждающем обнаружении со стороны Snap; правоприменительных мерах, принятых нашими командами по вопросам Безопасности в отношении определенных категорий нарушений Правил сообщества; о том, как мы реагировали на запросы правоохранительных и правительственных органов; а также на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию с разбивкой по странам на серии связанных страниц.

Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку Об отчётах о правительственных запросах в нижней части страницы.

Обратите внимание, что самая последняя версия данного Отчёта о правительственных запросах является английской версией.

Обзор действий наших команд по вопросам Доверия и Безопасности в отношении соблюдения наших Правил сообщества

Наши команды по вопросам безопасности обеспечивают соблюдение наших Правил сообщества как проактивно (с помощью автоматизированных инструментов обнаружения), так и реактивно (в ответ на жалобы), что более подробно освещается в следующих разделах данного отчета. В этом цикле отчетности (1 полугодие 2025 г.) наши команды по безопасности приняли следующее количество правоприменительных мер:

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

9 674 414

5 794 201

Ниже приведена разбивка по типам нарушений Правил сообщества, включая среднее время, прошедшее с момента обнаружения нарушения (либо упреждающе, либо после получения жалобы) до момента принятия окончательных мер в отношении соответствующего контента или аккаунта:

Причина в соответствии с нашей Политикой

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

5 461 419

3 233 077

1

Сексуальная эксплуатация детей и насилие над ними

1 095 424

733 106

5

Оскорбления и буллинг

713 448

594 302

3

Угрозы и насилие

187 653

146 564

3

Членовредительство и самоубийства

47 643

41 216

5

Ложная информация

2088

2004

1

Самозванство

7138

6881

<1

Спам

267 299

189 344

1

Наркотики

1 095 765

726 251

7

Оружие

251 243

173 381

1

Другие подконтрольные товары

183 236

126 952

4

Риторика ненависти

343 051

284 817

6

Терроризм и насильственный экстремизм

10 970

6783

2

Данные об общем количестве правоприменительных мер включают правоприменительные меры, принятые Snap после рассмотрения жалоб в приложении, отправленных через Snapchat.  Это представляет собой подавляющее большинство правоприменительных мер, принятых командами Snap по безопасности. Это число исключает большинство правоприменительных мер, предпринятых в результате расследований на основе жалоб, полученных в Snap через наш сайт поддержки или другие механизмы (например, по электронной почте), или в результате некоторых упреждающих расследований, проведенных нашими командами по безопасности. Такие исключенные правоприменительные меры составили менее 0,5% объема правоприменительных мер в первой половине 2025 года.

За отчётный период доля просмотров с нарушениями (VVR) составила 0,01%, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши Правила сообщества. Среди правоприменительных мер в отношении того, что мы считаем «серьезным вредом», мы увидели долю просмотров с нарушениями в 0,0003% процента. Разбивка доли просмотров с нарушениями по причинам политики компании представлена в таблице ниже.

Причина в соответствии с нашей Политикой

Доля просмотров с нарушениями

Контент сексуального характера

0,00482%

Сексуальная эксплуатация детей и насилие над ними

0,00096%

Оскорбления и буллинг

0,00099%

Угрозы и насилие

0,00176%

Членовредительство и самоубийства

0,00009%

Ложная информация

0,00002%

Самозванство

0,00009%

Спам

0,00060%

Наркотики

0,00047%

Оружие

0,00083%

Другие подконтрольные товары

0,00104%

Риторика ненависти

0,00025%

Терроризм и насильственный экстремизм

0,00002%

Нарушения Правил сообщества, о которых сообщают наши отделы по вопросам Доверия и Безопасности

С 1 января по 30 июня 2025 г. в ответ на 19 766 324 сообщения в приложении о нарушениях наших Правил сообщества команды Snap по безопасности приняли в общей сложности 6 278 446 правоприменительных мер по всему миру, включая правоприменительные меры против 4 104 624 уникальных аккаунтов.  Этот объем жалоб в приложении исключает жалобы, полученные через сайт поддержки и по электронной почте, которые составляют менее 1% от общего объема жалоб.  Среднее время, в течении которого наши отделы по вопросам безопасности приняли правоприменительные меры в ответ на эти жалобы, составило около 2 минут. Разбивка по причинам политики компании представлена ниже. (Примечание: в предыдущих отчетах мы иногда упоминали это как «категория отчетности».  В будущем мы будем использовать термин «причина политики компании»  который, по нашему мнению, более точно отражает характер данных, поскольку наши команды по безопасности стремятся применять меры в соответствии с установленной причиной политики компании, независимо от категории жалоб, идентифицированной лицом, отправляющим жалобу.)


Всего жалоб на контент и аккаунты

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Всего

19 766 324

6 278 446

4 104 624

Причина в соответствии с нашей Политикой

Всего жалоб на контент и аккаунты

Общее количество правоприменительных мер

Процент от общего числа жалоб, к которым были приняты меры Snap

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

7 315 730

3 778 370

60,2%

2 463 464

1

Сексуальная эксплуатация детей и насилие над ними

1 627 097

695 679

11,1%

577 736

10

Оскорбления и буллинг

4 103 797

700 731

11,2%

584 762

3

Угрозы и насилие

997 346

147 162

2,3%

120 397

2

Членовредительство и самоубийства

350 775

41 150

0,7%

36 657

3

Ложная информация

606 979

2027

0,0%

1960

1

Самозванство

745 874

7086

0,1%

6837

<1

Спам

1 709 559

122 499

2%

94 837

1

Наркотики

481 830

262 962

4,2%

176 799

5

Оружие

271 586

39 366

0,6%

32 316

1

Другие подконтрольные товары

530 449

143 098

2,3%

98 023

3

Риторика ненависти

817 262

337 263

5,4%

280 682

6

Терроризм и насильственный экстремизм

208 040

1053

0,0%

Lens Studio

2

В первой половине 2025 г. мы продолжили сокращать среднее время рассмотрения дел по всем категориям политик, сократив их в среднем более чем на 75% по сравнению с предыдущим отчетным периодом до 2 минут. Это сокращение было в значительной степени благодаря продолжительным согласованным усилиям по улучшению распределения приоритетов жалоб на основе тяжести вреда и автоматического рассмотрения.

В отчетный период мы также внесли несколько целевых изменений в наши усилия по безопасности, которые повлияли на представленные здесь данные, включая ужесточение наших политик в отношении незаконной деятельности с использованием оружия. Мы наблюдали увеличение количества жалоб и правоприменительных мер в категории «Сексуальная эксплуатация детей», что было обусловлено главным образом ростом сексуализированного или деликатного контента с участием несовершеннолетних, который нарушает наши политики, но не является незаконным в США или подлежит уведомлению в Национальный центр США по делам пропавших и эксплуатируемых детей (NCMEC). Увеличение объема, связанного с сексуальным контентом (и уменьшение объема, связанного с оскорблениями), было обусловлено нашей реклассификацией контента, связанного с сексуальными домогательствами, из категории оскорблений в категорию сексуальный контент.

Наша работа по упреждающему выявлению и пресечению нарушений наших Правил сообщества

Упреждающее обнаружение и соблюдение наших Правил сообщества


Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принятия мер в отношении нарушений наших Правил сообщества. Эти инструменты включают технологию сопоставления хэша, (включая PhotoDNA и изображения сексуального насилия над детьми (CSAI) от Google), Google Content Safety API и другие проприетарные технологии, предназначенные для обнаружения незаконных и оскорбительных текстов и мультимедийного контента, иногда с использованием искусственного интеллекта и машинного обучения. Числа наших упреждающих обнаружений регулярно колеблются в результате изменений в поведении пользователей, улучшений наших возможностей обнаружения и изменений в нашей политики.

В первой половине 2025 года мы приняли следующие правоприменительные меры после упреждающего обнаружения нарушений наших Правил сообщества с помощью автоматизированных инструментов обнаружения:


Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Всего

3 395 968

1 709 224

Причина в соответствии с нашей Политикой

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Среднее время (в минутах) от обнаружения до принятия окончательных мер

Контент сексуального характера

1 683 045

887 059

0

Сексуальная эксплуатация детей и насилие над ними

399 756

162 017

2

Оскорбления и буллинг

12 716

10 412

8

Угрозы и насилие

40 489

27 662

6

Членовредительство и самоубийства

6493

4638

7

Ложная информация

61

44

20

Самозванство

52

44

34

Спам

144 800

96 500

0

Наркотики

832 803

578 738

7

Оружие

211 877

144 455

0

Другие подконтрольные товары

40 139

31 408

8

Риторика ненависти

5788

4518

6

Терроризм и насильственный экстремизм

9917

5899

5

Борьба с сексуальной эксплуатацией детей и насилием над ними

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (СЭНД), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.

Мы используем проактивные технологичные инструменты обнаружения, чтобы помочь выявить контент, связанный с СЭНД. Эти инструменты включают в себя инструменты сопоставления хэша (включая PhotoDNA и CSAI Match от Google, чтобы выявлять известные незаконные изображения и видео СЭНД соответственно) и Google Content Safety API (с целью выявления новых, «никогда ранее не хэшированных» незаконных изображений). Кроме того, в некоторых случаях мы используем поведенческие сигналы для того, чтобы принять меры в отношении другой подозреваемой деятельности СЭНД. Мы сообщаем о контенте, связанном с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. Затем NCMEC по неообходимости координирует свои действия с национальными или международными правоохранительными органами.

В первой половине 2025 года мы предприняли следующие действия при обнаружении СЭНД в Snapchat (либо в качестве предупреждения, либо после получения жалобы):

Всего заблокировано единиц контента

Всего аккаунтов отключено

Всего материалов, переданных в NCMEC*

994 337

187 387

321 587

*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество уникальных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.

Наши усилия по предоставлению ресурсов и поддержки нуждающимся Снапчаттерам

Snapchat позволяет друзьям помогать друг другу в трудные времена, предоставляя ресурсы и поддержку Снапчаттерам, испытывающим потребность в них. 

Наш поисковый инструмент Here For You предоставляет  ресурсы от экспертов, когда пользователи осуществляют поиск на определенные темы, связанные с психическим здоровьем, тревогой, депрессией, стрессом, суицидальными мыслями, горем и буллингом. Мы также разработали страницу, посвященную борьбе с сексуальным вымогательством по финансовым мотивам и другими сексуальными рисками и вредом, чтобы поддержать тех, кто попал в беду.

Когда наши команды по безопасности узнают о снапчаттере, попавшем в беду, они имеют все возможности для предоставления  ресурсов по предотвращению членовредительства и поддержке, а также уведомляют экстренные службы при необходимости. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, который общедоступен для всех снапчаттеров в нашем Центре конфиденциальности, безопасности и политик.

Общее количество распространённых ресурсов по предотвращению самоубийств

36 162

Апелляции

Ниже мы приводим информацию о полученных нами апелляционных запросах от пользователей, в которых они просили пересмотреть наше решение о блокировке их аккаунта в связи с нарушением Правил сообщества в первой половине 2025 года:

Причина в соответствии с нашей Политикой

Общее число обжалований

Общее число восстановленных аккаунтов

Общее число принятых решений

Среднее время рассмотрения обжалований (в днях)

Всего

437 855

22 142

415 494

1

Контент сексуального характера

134 358

6175

128 035

1

Сексуальная эксплуатация детей и насилие над ними*

89 493

4179

85 314

<1

Оскорбления и буллинг

42 779

281

42 496

1

Угрозы и насилие

3987

77

3909

1

Членовредительство и самоубийства

145

2

143

1

Ложная информация

4

0

4

1

Самозванство

1063

33

1030

<1

Спам

13 730

3140

10 590

1

Наркотики

128 222

7 749

120 409

1

Оружие

10 941

314

10 626

1

Другие подконтрольные товары

9719

124

9593

1

Риторика ненависти

3310

67

3242

1

Терроризм и насильственный экстремизм

104

1

103

1

Обзор по Регионам и Странам

В этом разделе представлен обзор действий наших команд по вопросам безопасности в целях обеспечения соблюдения наших Правил сообщества как упреждающим образом, так и в ответ на жалобы о нарушениях в приложении на выборке географических регионов. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех Снапчаттеров по всему земному шару независимо от их местоположения.

Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прикреплённом CSV-файле.



Обзор действий команд по вопросам доверия и безопасности в отношении соблюдения Правил сообщества

Регион

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Северная Америка

3 468 315

2 046 888

Европа

2 815 474

1 810 223

Другие страны

3 390 625

1 937 090

Всего

9 674 414

5 794 201

Нарушения Правил сообщества, о которых сообщили нашим командам по вопросам безопасности

Регион

Жалобы на Контент и Аккаунты

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Северная Америка

5 762 412

2 125 819

1 359 763

Европа

5 961 962

2 144 828

1 440 907

Другие страны

8 041 950

2 007 799

1 316 070

Всего

19 766 324

6 278 446

4 116 740

Упреждающее обнаружение и соблюдение наших Правил сообщества

Регион

Общее количество правоприменительных мер

Всего уникальных аккаунтов, к которым были приняты меры

Северная Америка

1 342 496

785 067

Европа

670 646

422 012

Другие страны

1 382 826

696 364

Всего

3 395 968

1 709 224

Модерация рекламы

Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы верим в ответственный подход к рекламе, создавая безопасный опыт для всех Снапчаттеров. Мы проверяем и утверждаем всю рекламу в Snapchat. Кроме того, мы оставляем за собой право удалять рекламу, в том числе в ответ на отзывы пользователей, к которым мы относимся со всей серьезностью. 


Ниже мы приводим информацию о том, как мы проводим модерацию платных рекламных объявлений, о которых нам сообщают после их публикации в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, вы можете найти Галерею рекламы Snapchat по адресу values.snap.com на вкладке «Прозрачность».

Всего жалоб на рекламные объявления

Всего удалено рекламных объявлений

67 789

16 410

Запросы на удаление государственной и интеллектуальной собственности

Об отчётности о правительственных запросах

Глоссарий отчёта о правительственных запросах