1 декабря 2025 г.
1 декабря 2025 г.
Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. В рамках нашей приверженности безопасности и прозрачности мы постоянно прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat.
Этот отчёт о правительственных запросах охватывает первое полугодие 2025 года (1 января – 30 июня). Мы делимся глобальными данными о жалобах пользователей и упреждающем обнаружении со стороны Snap; правоприменительных мерах, принятых нашими командами по вопросам Безопасности в отношении определенных категорий нарушений Правил сообщества; о том, как мы реагировали на запросы правоохранительных и правительственных органов; а также на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию с разбивкой по странам на серии связанных страниц.
Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку Об отчётах о правительственных запросах в нижней части страницы.
Обратите внимание, что самая последняя версия данного Отчёта о правительственных запросах является английской версией.
Обзор действий наших команд по вопросам Доверия и Безопасности в отношении соблюдения наших Правил сообщества
Наши команды по вопросам безопасности обеспечивают соблюдение наших Правил сообщества как проактивно (с помощью автоматизированных инструментов обнаружения), так и реактивно (в ответ на жалобы), что более подробно освещается в следующих разделах данного отчета. В этом цикле отчетности (1 полугодие 2025 г.) наши команды по безопасности приняли следующее количество правоприменительных мер:
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
9 674 414
5 794 201
Ниже приведена разбивка по типам нарушений Правил сообщества, включая среднее время, прошедшее с момента обнаружения нарушения (либо упреждающе, либо после получения жалобы) до момента принятия окончательных мер в отношении соответствующего контента или аккаунта:
Причина в соответствии с нашей Политикой
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
5 461 419
3 233 077
1
Сексуальная эксплуатация детей и насилие над ними
1 095 424
733 106
5
Оскорбления и буллинг
713 448
594 302
3
Угрозы и насилие
187 653
146 564
3
Членовредительство и самоубийства
47 643
41 216
5
Ложная информация
2088
2004
1
Самозванство
7138
6881
<1
Спам
267 299
189 344
1
Наркотики
1 095 765
726 251
7
Оружие
251 243
173 381
1
Другие подконтрольные товары
183 236
126 952
4
Риторика ненависти
343 051
284 817
6
Терроризм и насильственный экстремизм
10 970
6783
2
Данные об общем количестве правоприменительных мер включают правоприменительные меры, принятые Snap после рассмотрения жалоб в приложении, отправленных через Snapchat. Это представляет собой подавляющее большинство правоприменительных мер, принятых командами Snap по безопасности. Это число исключает большинство правоприменительных мер, предпринятых в результате расследований на основе жалоб, полученных в Snap через наш сайт поддержки или другие механизмы (например, по электронной почте), или в результате некоторых упреждающих расследований, проведенных нашими командами по безопасности. Такие исключенные правоприменительные меры составили менее 0,5% объема правоприменительных мер в первой половине 2025 года.
За отчётный период доля просмотров с нарушениями (VVR) составила 0,01%, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши Правила сообщества. Среди правоприменительных мер в отношении того, что мы считаем «серьезным вредом», мы увидели долю просмотров с нарушениями в 0,0003% процента. Разбивка доли просмотров с нарушениями по причинам политики компании представлена в таблице ниже.
Причина в соответствии с нашей Политикой
Доля просмотров с нарушениями
Контент сексуального характера
0,00482%
Сексуальная эксплуатация детей и насилие над ними
0,00096%
Оскорбления и буллинг
0,00099%
Угрозы и насилие
0,00176%
Членовредительство и самоубийства
0,00009%
Ложная информация
0,00002%
Самозванство
0,00009%
Спам
0,00060%
Наркотики
0,00047%
Оружие
0,00083%
Другие подконтрольные товары
0,00104%
Риторика ненависти
0,00025%
Терроризм и насильственный экстремизм
0,00002%
Нарушения Правил сообщества, о которых сообщают наши отделы по вопросам Доверия и Безопасности
С 1 января по 30 июня 2025 г. в ответ на 19 766 324 сообщения в приложении о нарушениях наших Правил сообщества команды Snap по безопасности приняли в общей сложности 6 278 446 правоприменительных мер по всему миру, включая правоприменительные меры против 4 104 624 уникальных аккаунтов. Этот объем жалоб в приложении исключает жалобы, полученные через сайт поддержки и по электронной почте, которые составляют менее 1% от общего объема жалоб. Среднее время, в течении которого наши отделы по вопросам безопасности приняли правоприменительные меры в ответ на эти жалобы, составило около 2 минут. Разбивка по причинам политики компании представлена ниже. (Примечание: в предыдущих отчетах мы иногда упоминали это как «категория отчетности». В будущем мы будем использовать термин «причина политики компании» который, по нашему мнению, более точно отражает характер данных, поскольку наши команды по безопасности стремятся применять меры в соответствии с установленной причиной политики компании, независимо от категории жалоб, идентифицированной лицом, отправляющим жалобу.)
Всего жалоб на контент и аккаунты
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Всего
19 766 324
6 278 446
4 104 624
Причина в соответствии с нашей Политикой
Всего жалоб на контент и аккаунты
Общее количество правоприменительных мер
Процент от общего числа жалоб, к которым были приняты меры Snap
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
7 315 730
3 778 370
60,2%
2 463 464
1
Сексуальная эксплуатация детей и насилие над ними
1 627 097
695 679
11,1%
577 736
10
Оскорбления и буллинг
4 103 797
700 731
11,2%
584 762
3
Угрозы и насилие
997 346
147 162
2,3%
120 397
2
Членовредительство и самоубийства
350 775
41 150
0,7%
36 657
3
Ложная информация
606 979
2027
0,0%
1960
1
Самозванство
745 874
7086
0,1%
6837
<1
Спам
1 709 559
122 499
2%
94 837
1
Наркотики
481 830
262 962
4,2%
176 799
5
Оружие
271 586
39 366
0,6%
32 316
1
Другие подконтрольные товары
530 449
143 098
2,3%
98 023
3
Риторика ненависти
817 262
337 263
5,4%
280 682
6
Терроризм и насильственный экстремизм
208 040
1053
0,0%
Lens Studio
2
В первой половине 2025 г. мы продолжили сокращать среднее время рассмотрения дел по всем категориям политик, сократив их в среднем более чем на 75% по сравнению с предыдущим отчетным периодом до 2 минут. Это сокращение было в значительной степени благодаря продолжительным согласованным усилиям по улучшению распределения приоритетов жалоб на основе тяжести вреда и автоматического рассмотрения.
В отчетный период мы также внесли несколько целевых изменений в наши усилия по безопасности, которые повлияли на представленные здесь данные, включая ужесточение наших политик в отношении незаконной деятельности с использованием оружия. Мы наблюдали увеличение количества жалоб и правоприменительных мер в категории «Сексуальная эксплуатация детей», что было обусловлено главным образом ростом сексуализированного или деликатного контента с участием несовершеннолетних, который нарушает наши политики, но не является незаконным в США или подлежит уведомлению в Национальный центр США по делам пропавших и эксплуатируемых детей (NCMEC). Увеличение объема, связанного с сексуальным контентом (и уменьшение объема, связанного с оскорблениями), было обусловлено нашей реклассификацией контента, связанного с сексуальными домогательствами, из категории оскорблений в категорию сексуальный контент.
Наша работа по упреждающему выявлению и пресечению нарушений наших Правил сообщества
Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принятия мер в отношении нарушений наших Правил сообщества. Эти инструменты включают технологию сопоставления хэша, (включая PhotoDNA и изображения сексуального насилия над детьми (CSAI) от Google), Google Content Safety API и другие проприетарные технологии, предназначенные для обнаружения незаконных и оскорбительных текстов и мультимедийного контента, иногда с использованием искусственного интеллекта и машинного обучения. Числа наших упреждающих обнаружений регулярно колеблются в результате изменений в поведении пользователей, улучшений наших возможностей обнаружения и изменений в нашей политики.
В первой половине 2025 года мы приняли следующие правоприменительные меры после упреждающего обнаружения нарушений наших Правил сообщества с помощью автоматизированных инструментов обнаружения:
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Всего
3 395 968
1 709 224
Причина в соответствии с нашей Политикой
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
1 683 045
887 059
0
Сексуальная эксплуатация детей и насилие над ними
399 756
162 017
2
Оскорбления и буллинг
12 716
10 412
8
Угрозы и насилие
40 489
27 662
6
Членовредительство и самоубийства
6493
4638
7
Ложная информация
61
44
20
Самозванство
52
44
34
Спам
144 800
96 500
0
Наркотики
832 803
578 738
7
Оружие
211 877
144 455
0
Другие подконтрольные товары
40 139
31 408
8
Риторика ненависти
5788
4518
6
Терроризм и насильственный экстремизм
9917
5899
5
Борьба с сексуальной эксплуатацией детей и насилием над ними
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (СЭНД), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем проактивные технологичные инструменты обнаружения, чтобы помочь выявить контент, связанный с СЭНД. Эти инструменты включают в себя инструменты сопоставления хэша (включая PhotoDNA и CSAI Match от Google, чтобы выявлять известные незаконные изображения и видео СЭНД соответственно) и Google Content Safety API (с целью выявления новых, «никогда ранее не хэшированных» незаконных изображений). Кроме того, в некоторых случаях мы используем поведенческие сигналы для того, чтобы принять меры в отношении другой подозреваемой деятельности СЭНД. Мы сообщаем о контенте, связанном с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. Затем NCMEC по неообходимости координирует свои действия с национальными или международными правоохранительными органами.
В первой половине 2025 года мы предприняли следующие действия при обнаружении СЭНД в Snapchat (либо в качестве предупреждения, либо после получения жалобы):
Всего заблокировано единиц контента
Всего аккаунтов отключено
Всего материалов, переданных в NCMEC*
994 337
187 387
321 587
*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество уникальных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.
Наши усилия по предоставлению ресурсов и поддержки нуждающимся Снапчаттерам
Snapchat позволяет друзьям помогать друг другу в трудные времена, предоставляя ресурсы и поддержку Снапчаттерам, испытывающим потребность в них.
Наш поисковый инструмент Here For You предоставляет ресурсы от экспертов, когда пользователи осуществляют поиск на определенные темы, связанные с психическим здоровьем, тревогой, депрессией, стрессом, суицидальными мыслями, горем и буллингом. Мы также разработали страницу, посвященную борьбе с сексуальным вымогательством по финансовым мотивам и другими сексуальными рисками и вредом, чтобы поддержать тех, кто попал в беду.
Когда наши команды по безопасности узнают о снапчаттере, попавшем в беду, они имеют все возможности для предоставления ресурсов по предотвращению членовредительства и поддержке, а также уведомляют экстренные службы при необходимости. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, который общедоступен для всех снапчаттеров в нашем Центре конфиденциальности, безопасности и политик.
Общее количество распространённых ресурсов по предотвращению самоубийств
36 162
Апелляции
Ниже мы приводим информацию о полученных нами апелляционных запросах от пользователей, в которых они просили пересмотреть наше решение о блокировке их аккаунта в связи с нарушением Правил сообщества в первой половине 2025 года:
Причина в соответствии с нашей Политикой
Общее число обжалований
Общее число восстановленных аккаунтов
Общее число принятых решений
Среднее время рассмотрения обжалований (в днях)
Всего
437 855
22 142
415 494
1
Контент сексуального характера
134 358
6175
128 035
1
Сексуальная эксплуатация детей и насилие над ними*
89 493
4179
85 314
<1
Оскорбления и буллинг
42 779
281
42 496
1
Угрозы и насилие
3987
77
3909
1
Членовредительство и самоубийства
145
2
143
1
Ложная информация
4
0
4
1
Самозванство
1063
33
1030
<1
Спам
13 730
3140
10 590
1
Наркотики
128 222
7 749
120 409
1
Оружие
10 941
314
10 626
1
Другие подконтрольные товары
9719
124
9593
1
Риторика ненависти
3310
67
3242
1
Терроризм и насильственный экстремизм
104
1
103
1
Обзор по Регионам и Странам
В этом разделе представлен обзор действий наших команд по вопросам безопасности в целях обеспечения соблюдения наших Правил сообщества как упреждающим образом, так и в ответ на жалобы о нарушениях в приложении на выборке географических регионов. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех Снапчаттеров по всему земному шару независимо от их местоположения.
Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прикреплённом CSV-файле.
Регион
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Северная Америка
3 468 315
2 046 888
Европа
2 815 474
1 810 223
Другие страны
3 390 625
1 937 090
Всего
9 674 414
5 794 201
Регион
Жалобы на Контент и Аккаунты
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Северная Америка
5 762 412
2 125 819
1 359 763
Европа
5 961 962
2 144 828
1 440 907
Другие страны
8 041 950
2 007 799
1 316 070
Всего
19 766 324
6 278 446
4 116 740
Регион
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Северная Америка
1 342 496
785 067
Европа
670 646
422 012
Другие страны
1 382 826
696 364
Всего
3 395 968
1 709 224
Модерация рекламы
Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы верим в ответственный подход к рекламе, создавая безопасный опыт для всех Снапчаттеров. Мы проверяем и утверждаем всю рекламу в Snapchat. Кроме того, мы оставляем за собой право удалять рекламу, в том числе в ответ на отзывы пользователей, к которым мы относимся со всей серьезностью.
Ниже мы приводим информацию о том, как мы проводим модерацию платных рекламных объявлений, о которых нам сообщают после их публикации в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, вы можете найти Галерею рекламы Snapchat по адресу values.snap.com на вкладке «Прозрачность».
Всего жалоб на рекламные объявления
Всего удалено рекламных объявлений
67 789
16 410

























