Snap Values
Отчёт о проверке материалов, содержащих контент, связанный с сексуальной эксплуатацией детей и насилием над ними (CSEA)

Издано: 30 января 2026 г.

Последнее обновление: 30 января 2026 г. 


Настоящий отчёт охватывает период с 1 января 2025 года по 31 декабря 2025 года.


Справочная информация

Сексуальная эксплуатация любого члена нашего сообщества, особенно несовершеннолетних, является незаконной, отвратительной и запрещена нашими Правилами сообщества. Предотвращение, обнаружение и удаление материалов, содержащих сцены сексуальной эксплуатации и насилия над детьми (CSEA), на нашей платформе является для Snap наивысшим приоритетом, и мы постоянно совершенствуем наши инструменты, направленные на борьбу с этими и другими преступлениями.


Мы используем следующие технологии: (а) технологию надёжного хэширования PhotoDNA и технологию компании Google для сопоставления изображений, содержащих контент, связанный с сексуальным насилием над детьми (CSAI), для выявления известных незаконных изображений и видеороликов, содержащих сцены CSEA; и (б) API безопасности контента Google для выявления новых, никогда ранее не хэшированных изображений CSEA. Мы сообщаем об изображениях, связанных с CSEA, Национальному центру США по делам пропавших и эксплуатируемых детей (NCMEC) в соответствии с законодательством. NCMEC, в свою очередь, координирует свои действия с правоохранительными органами США и других стран, по мере необходимости.


Отчёт

На следующей диаграмме приведены данные об упреждающем обнаружении и соответствующих правоприменительных мерах в отношении пользователей из ЕС в связи с материалами, содержащими сцены CSEA, в течение 2025 года. (Примечание. Некоторые правоприменительные меры, являющиеся результатом упреждающего сканирования в 2025 году, по-прежнему могут подлежать обжалованию на момент составления этого отчёта и, следовательно, не будут отражены в данных об обжалованиях и восстановлениях в правах.)


Данные по ЕС 

Всего

Общее количество контента, выявленного в ходе проактивного сканирования как потенциальные изображения сексуальной эксплуатации детей (CSEA)

189 057

Общее количество правоприменительных мер за нарушение политики Snap в отношении сексуальной эксплуатации детей (CSEA)

61 774

Всего обжаловано

12 246

Всего рассмотренных обжалований 

12 246

Количество принятых мер, отменённых после обжалования

1012

Доля правоприменительных мер, отменённых после обжалования (всего правоприменительных мер, отменённых после обжалования / всего обжалований рассмотрено)

8,26%

Обнаруженный период хранения данных о CSEA

730 дней

1.   В данной категории сообщается о правоприменительных мерах в отношении нарушения Правил сообщества Snap, запрещающих сексуальную эксплуатацию детей.  Здесь не идёт речь о превентивно обнаруженном контенте, к которому применяются меры за другие нарушения Правил сообщества Snap.

2.   Возможна отмена правоприменительных мер, если мы определим, что они были ошибочными, исходя из нашей политики, действовавшей на момент их применения, или если мы определим, что изначально они были применены правильно, но на момент рассмотрения апелляции наша действующая политика изменилась.

Меры защиты при модерации контента

Защитные меры, применяемые при проверке материалов, содержащих контент, связанный с сексуальной эксплуатацией детей и насилием над ними (CSEA), изложены в вышеупомянутом Отчёте о правительственных запросах ЕС.