20 июня 2025 г.
1 июля 2025 г.
Мы публикуем этот отчёт о правительственных запросах два раза в год, чтобы дать представление о мерах, которые предпринимает Snap для обеспечения безопасности. В рамках нашей приверженности безопасности и прозрачности мы постоянно прилагаем все усилия для того, чтобы сделать эти отчёты более всеобъемлющими и информативными для многих заинтересованных сторон, которым небезразлична наша модерация контента, правоприменительная практика, а также безопасность и благополучие сообщества Snapchat.
Этот отчёт о правительственных запросах охватывает второе полугодие 2024 года (с 1 июля по 31 декабря). Мы делимся глобальными данными о жалобах пользователей и упреждающем обнаружении со стороны Snap; правоприменительных мерах, принятых нашими командами по вопросам Безопасности в отношении определенных категорий нарушений Правил сообщества; о том, как мы реагировали на запросы правоохранительных и правительственных органов; а также на уведомления о нарушении авторских прав и товарных знаков. Мы также предоставляем информацию с разбивкой по странам на серии связанных страниц.
Чтобы найти дополнительные ресурсы по безопасности и конфиденциальности в Snapchat, перейдите на вкладку Об отчётах о правительственных запросах в нижней части страницы.
Обратите внимание, что самая последняя версия данного Отчёта о правительственных запросах является английской версией.
Обзор действий наших команд по вопросам Доверия и Безопасности в отношении соблюдения наших Правил сообщества
Наши команды по вопросам безопасности обеспечивают соблюдение наших Правил сообщества как проактивно (с помощью автоматизированных инструментов обнаружения), так и реактивно (в ответ на жалобы), что более подробно освещается в следующих разделах данного отчета. В этом отчётном цикле (второе полугодие 2024 года) наши команды по вопросам Безопасности приняли следующее количество правоприменительных мер:
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
10 032 110
5 698 212
Ниже приведена разбивка по типам нарушений Правил сообщества, включая среднее время, прошедшее с момента, как мы обнаружили нарушения (проактивно, либо по получении жалобы) до момента принятия окончательных мер в отношении соответствующего контента или аккаунта:
Причина в соответствии с нашей Политикой
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
3 860 331
2 099 512
2
Сексуальная эксплуатация детей
961 359
577 682
23
Оскорбления и буллинг
2 716 966
2 019 439
7
Угрозы и Насилие
199 920
156 578
8
Членовредительство и самоубийства
15 910
14 445
10
Ложная информация
6539
6176
1
Самозванство
8798
8575
2
Спам
357 999
248 090
1
Наркотики
1 113 629
718 952
6
Оружие
211 860
136 953
1
Другие регламентированные товары
247 535
177 643
8
Риторика ненависти
324 478
272 025
27
Терроризм и насильственный экстремизм
6786
4010
5
За отчётный период Коэффициент Недопустимых Просмотров (VVR) составил 0,01%, т. е. из каждых 10 000 Snap и просмотров историй одна содержала контент, нарушающий наши Правила сообщества.
Нарушения Правил сообщества, о которых сообщают наши отделы по вопросам Доверия и Безопасности
С 1 июля по 31 декабря 2024 года в ответ на жалобы о нарушении наших Правил сообщества в приложении, отделы Безопасности Snap осуществили в общей сложности 6 346 508 правоприменительных мер по всему миру, включая правоприменительные меры в отношении 4 075 838 уникальных аккаунтов. Среднее время, в течении которого наши отделы по вопросам безопасности приняли правоприменительные меры в ответ на эти жалобы, составило около 6 минут. Ниже представлена разбивка по категориям отчетности.
Всего жалоб на Контент и Аккаунты
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
19 379 848
6 346 508
4 075 838
Причина в соответствии с нашей Политикой
Жалобы на Контент и Аккаунты
Общее количество правоприменительных мер
% от общего числа отчетов, к которым были приняты меры Snap
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
5 251 375
2 042 044
32,2%
1 387 749
4
Сексуальная эксплуатация детей
1 224 502
469 389
7,4%
393 384
133
Оскорбления и Буллинг
6 377 555
2 702 024
42,6%
2 009 573
7
Угрозы и Насилие
1 000 713
156 295
2,5%
129 077
8
Членовредительство и Самоубийства
307 660
15 149
0,20%
13 885
10
Ложная информация
536 886
6454
0.10%
6095
1
Самозванство
678 717
8790
0.10%
8569
2
Спам
1 770 216
180 849
2,8%
140 267
1
Наркотики
418 431
244 451
3,9%
159 452
23
Оружие
240 767
6473
0.10%
5252
1
Другие подконтрольные товары
606 882
199 255
3,1%
143 560
8
Враждебные высказывания
768 705
314 314
4,9%
263 923
27
Терроризм и Насильственный экстремизм
197 439
1201
<0,1%
1093
4
По сравнению с предыдущим отчетным периодом мы сократили среднее время рассмотрения дел по всем категориям политики в среднем на 90%. Это сокращение было в значительной степени связано с согласованными усилиями по расширению нашего потенциала обработки жалоб, а также улучшения выделения приоритетности жалоб с учетом степени тяжести причиненного вреда. В данный отчетный период мы также внесли ряд целенаправленных изменений в наши усилия по обеспечению безопасности, которые повлияли на представленные здесь данные. В их числе вошло расширение наших усилий по ограничению аккаунтов с именами пользователей и отображаемыми именами, которые нарушают наши Правила сообщества, внесение улучшений при подаче жалоб и осуществления защиты Сообществ в Snapchat, а также введение возможностей для подачи жалоб на дополнительные типы мультимедийных материалов, такие как голосовые заметки, нам напрямую в приложении.
Эти изменения, а также другие усилия по обеспечению безопасности и внешние меры, особенно повлияли на определенные области нашей политики по сравнению с предыдущим отчётным периодом. Эти категории нашей политики включают в себя: Контент, связанный с предполагаемой сексуальной эксплуатацией и Насилием над детьми (СЭНД), Вредоносная ложная информация и спам. В частности:
СНЭД: во второй половине 2024 года мы наблюдали сокращение количества жалоб, связанных с СНЭД, на 12% и сократили среднее время рассмотрения жалоб на СНЭД на 99%. Эти тенденции в значительной степени обусловлены постоянным прогрессом в области упреждающего обнаружения, который позволил нам удалять контент СНЭД до того, как на него подать нам жалобу, а также улучшениями, которые мы внесли в наши процессы с целью рассмотрения и принятия мер по жалобам на СНЭД более эффективным образом. Даже с учетом этих улучшений время рассмотрения нами случаев СНЭД больше, чем в других областях наше политики, поскольку контент подвергается специализированному процессу, который включает в себя двойную проверку с использованием отобранной команды специально обученных агентов.
Вредоносная ложная информация: мы наблюдали увеличение на 26% количества жалоб, связанных с Вредоносной ложной информацией, которая в первую очередь была вызвана политическими событиями, включая выборы в США в ноябре 2024 года.
Спам: за данный отчётный период мы увидели сокращение общего количества правоприменительных мер примерно на 46% и сокращение общего количества уникальных аккаунтов, в отношении которых были приняты меры в ответ на жалобы о предполагаемом Спаме, что отражает улучшения наших инструментов упреждающего обнаружения и правоприменения. Это является продолжением наших усилий по борьбе со спамом с помощью сигналов, полученных с аккаунта, и более быстрому удалению спамеров, осуществляющих свои действия, на нашей платформе. Эти усилия уже велись на протяжении последнего отчётного периода, во время которого которого общее количество правоприменительных мер и общее количество уникальных аккаунтов, в отношении которых были приняты меры по причине Спама, сократилось примерно на 65% и 60% соответственно.
Наша работа по упреждающему выявлению и пресечению нарушений наших Правил сообщества
Мы используем автоматизированные инструменты для упреждающего обнаружения и, в некоторых случаях, принятия мер в отношении нарушений наших Правил сообщества. Эти инструменты включают в себя технологию сопоставления хэша, включая PhotoDNA и изображения сексуального насилия над детьми (СНЭД) от Google, API безопасности контента Google и другие пользовательские технологии, предназначенные для обнаружения оскорбительных текстов и мультимедийного контента, иногда с использованием искусственного интеллекта и машинного обучения.
Во второй половине 2024 года мы приняли следующие правоприменительные меры после упреждающего обнаружения нарушений наших Правил сообщества с помощью автоматизированных инструментов обнаружения:
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
3 685 602
1 845 125
Причина в соответствии с нашей Политикой
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Среднее время (в минутах) от обнаружения до принятия окончательных мер
Контент сексуального характера
1 818 287
828 590
< 1
Сексуальная эксплуатация детей
491 970
188 877
1
Оскорбления и Буллинг
14 942
11 234
8
Угрозы и Насилие
43 625
29 599
9
Членовредительство и Самоубийства
761
624
9
Ложная информация
85
81
10
Самозванство
8
6
19
Спам
177 150
110 551
< 1
Наркотики
869 178
590 658
5
Оружие
205 387
133 079
< 1
Другие подконтрольные товары
48 280
37 028
9
Враждебные высказывания
10 344
8683
10
Терроризм и Насильственный экстремизм
5585
2951
21
Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является абсолютно недопустимой и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (СЭНД), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.
Мы используем проактивные технологичные инструменты обнаружения, чтобы помочь выявить контент, связанный с СЭНД. Эти инструменты включают в себя инструменты сопоставления хэша (включая PhotoDNA и CSAI Match от Google, чтобы выявлять известные незаконные изображения и видео СНЭД соответственно) и Google Content Safety API (с целью выявления новых, «никогда ранее не хэшированных» незаконных изображений). Кроме того, в некоторых случаях мы используем поведенческие сигналы для того, чтобы принять меры в отношении другой подозреваемой деятельности СЭНД. Мы сообщаем о контенте, связанном с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. Затем NCMEC по неообходимости координирует свои действия с национальными или международными правоохранительными органами.
В первой половине 2024 года мы предприняли следующие действия при обнаружении СНЭД в Snapchat (либо в качестве предупреждения, либо после получения жалобы):
Всего заблокировано единиц контента
Всего аккаунтов отключено
Всего материалов, переданных в NCMEC*
1 228 929
242 306
417 842
*Обратите внимание, что каждая передача материалов в NCMEC может содержать несколько единиц контента. Общее количество уникальных материалов, переданных в NCMEC, равно общему количеству контента, в отношении которого были приняты меры.
Наши усилия по предоставлению ресурсов и поддержки нуждающимся Снапчаттерам
Snapchat позволяет друзьям помогать друг другу в трудные времена, предоставляя ресурсы и поддержку Снапчаттерам, испытывающим потребность в них.
Наш поисковый инструмент Here For You предоставляет ресурсы от экспертов, когда пользователи осуществляют поиск на определенные темы, связанные с психическим здоровьем, тревогой, депрессией, стрессом, суицидальными мыслями, горем и буллингом. Мы также разработали страницу, посвященную сексуальному шантажу и другим рискам и вреду в сексуальной сфере, чтобы поддержать тех, кто попал в беду. Наш глобальный список ресурсов по безопасности находиться в открытом доступе для всех Снапчаттеров в нашем Центре конфиденциальности, безопасности и политики.
Когда наши команды по вопросам безопасности узнают о том, что Снапчаттер находится в беде, они имеют возможность предоставить ресурсы по предотвращению членовредительства и поддержке, а также уведомить экстренные службы в случае необходимости. Ресурсы, которыми мы делимся, доступны в нашем глобальном списке ресурсов по безопасности, который доступен всем Снапчаттерам.
Общее количество распространённых ресурсов по предотвращению самоубийств
64 094
Апелляции
Ниже мы приводим информацию о полученных нами апелляциях от пользователей, в которых просили пересмотреть наше решение о блокировке их аккаунта во второй половине 2024 года:
Причина в соответствии с нашей Политикой
Общее число обжалований
Общее число восстановленных аккаунтов
Общее число принятых решений
Среднее время рассмотрения обжалований (в днях)
ВСЕГО
493 782
35 243
458 539
5
Контент сексуального характера
162 363
6 257
156 106
4
Сексуальная эксплуатация детей
102 585
15 318
87 267
6
Оскорбления и буллинг
53 200
442
52 758
7
Угрозы и насилие
4238
83
4155
5
Членовредительство и самоубийства
31
1
30
5
Ложная информация
3
0
3
<1
Самозванство
847
33
814
7
Спам
19 533
5090
14 443
9
Наркотики
133 478
7598
125 880
4
Оружие
4678
136
4542
6
Другие регламентируемые товары
9153
168
8985
6
Риторика ненависти
3541
114
3427
7
Терроризм и насильственный экстремизм
132
3
129
9
Обзор по Регионам и Странам
В этом разделе представлен обзор действий наших команд по вопросам безопасности в целях обеспечения соблюдения наших Правил сообщества как упреждающим образом, так и в ответ на жалобы о нарушениях в приложении на выборке географических регионов. Наши Правила сообщества распространяются на весь контент в Snapchat и на всех Снапчаттеров по всему земному шару независимо от их местоположения.
Информацию для отдельных стран, в том числе для всех государств-членов ЕС, можно скачать в прикреплённом CSV-файле.
Регион
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Северная Америка
3 828 389
2 117 048
Европа
2 807 070
1 735 054
Другие страны
3 396 651
1 846 110
Всего
10 032 110
5 698 212
Регион
Жалобы на Контент и Аккаунты
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
Северная Америка
5 916 815
2 229 465
1 391 304
Европа
5 781 317
2 085 109
1 378 883
Другие страны
7 681 716
2 031 934
1 319 934
Всего
19 379 848
6 346 508
4 090 121
Общее количество правоприменительных мер
Всего уникальных аккаунтов, к которым были приняты меры
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Модерация рекламы
Компания Snap стремится к тому, чтобы вся реклама полностью соответствовала нашей Рекламной политике. Мы верим в ответственный подход к рекламе, создавая безопасный опыт для всех Снапчаттеров. Мы проверяем и утверждаем всю рекламу в Snapchat. Кроме того, мы оставляем за собой право удалять рекламу, в том числе в ответ на отзывы пользователей, к которым мы относимся со всей серьезностью.
Ниже мы приводим информацию о том, как мы проводим модерацию платных рекламных объявлений, о которых нам сообщают после их публикации в Snapchat. Обратите внимание, что реклама в Snapchat может быть удалена по различным причинам, как указано в Рекламной политике Snap, включая вводящий в заблуждение контент, контент для взрослых, контент, пропагандирующий насилие или контент, вызывающий беспокойство, разжигание ненависти и нарушение прав интеллектуальной собственности. Кроме того, теперь вы можете найти Галерею рекламы Snapchat в центре прозрачности Snap, к которой можно получить доступ прямо через панель навигации.
Всего жалоб на рекламные объявления
Всего удалено рекламных объявлений
43 098
17 833