Snap Values
Доклад за прозрачност
1 януари 2025 г. – 30 юни 2025 г.

Издаден на:

1 декември 2025 г.

Актуализиран на:

1 декември 2025 г.

Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Като част от нашия ангажимент към безопасността и прозрачността, ние постоянно се стремим да правим тези доклади по-изчерпателни и информативни за многото заинтересовани страни, които се интересуват от модерацията на съдържанието, подхода ни към правоприлагането, както и безопасността и благосъстоянието на общността на Snapchat.

Настоящият Доклад за прозрачност обхваща първата половина на 2025 г. (1 януари - 30 юни). Ние споделяме глобални данни за съобщенията на потребителите и проактивното откриване от Snap; мерките, предприети от нашите екипи за безопасност при конкретни категории нарушения на Правилата на общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушения на авторски права и търговски марки. Ние също така предоставяме специфична информация за отделните страни в поредица от свързани страници.

За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.

Моля, имайте предвид, че най-актуалната версия на този доклад за прозрачност е английската версия.

Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността

Нашите екипи по безопасност прилагат Нашите правила за общността както проактивно (чрез използване на автоматизирани инструменти за откриване), така и реактивно (в отговор на съобщения), както е описано по-подробно в следващите раздели на този доклад. През този отчетен цикъл (първата половина на 2025 г.) нашите екипи за безопасност предприеха следния брой мерки:

Общо прилагане

Общо санкционирани уникални акаунти

9 674 414

5 794 201

По-долу е представена разбивка по вид нарушения на Насоките на общността, включително осредненото „време за реакция“ между времето, когато сме установили нарушението (проактивно или след получаване на доклад) и времето, когато сме предприели окончателно действие по отношение на съответното съдържание или акаунт:

Основание за политиката

Общо прилагане

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

5 461 419

3 233 077

1

Сексуална експлоатация и злоупотреба с деца

1 095 424

733 106

5

Преследване и тормоз

713 448

594 302

3

Заплахи и насилие

187 653

146 564

3

Самонараняване и самоубийство

47 643

41 216

5

Невярна информация

2 088

2 004

1

Представяне под чужда самоличност

7 138

6 881

<1

Спам

267 299

189 344

1

Наркотици

1 095 765

726 251

7

Оръжия

251 243

173 381

1

Други регулирани стоки

183 236

126 952

4

Реч на омразата

343 051

284 817

6

Тероризъм и насилствен екстремизъм

10 970

6783

2

Данните за общия брой на наложените мерки включват мерки, наложени от Snap след преглед на сигналите, подадени чрез Snapchat в приложението.
Това представлява по-голямата част от мерките, предприети от екипите за безопасност на Snap. Този брой изключва повечето мерки, предприети в резултат на разследвания въз основа на доклади, подадени до Snap чрез нашия Сайт за поддръжка или други механизми (напр. по имейл), или в резултат на някои проактивни разследвания, предприети от нашите екипи за безопасност. Тези изключени мерки за прилагане представляваха по-малко от 0,5% от обема на прилагането през първата половина на 2025 г.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че в едно на всеки 10 000 гледания на Snap и Story в Snapchat има съдържание, за което е установено, че нарушава нашите Насоки за общността. Сред мерките за прилагане за това, което считаме за „сериозни вреди“, видяхме VVR от 0,0003%. В таблицата по-долу е представена разбивка на VVR по причини, свързани с политиката.

Основание за политиката

VVR

Сексуално съдържание

0,00482%

Сексуална експлоатация и злоупотреба с деца

0,00096%

Преследване и тормоз

0,00099%

Заплахи и насилие

0,00176%

Самонараняване и самоубийство

0,00009%

Невярна информация

0,00002%

Представяне под чужда самоличност

0,00009%

Спам

0,00060%

Наркотици

0,00047%

Оръжия

0,00083%

Други регулирани стоки

0,00104%

Реч на омразата

0,00025%

Тероризъм и насилствен екстремизъм

0,00002%

Нарушения на Насоките на общността, докладвани на нашите Екипи за доверие и безопасност

От 1 януари до 30 юни 2025 г., в отговор на 19 766 324 сигнали за нарушения на нашите Насоки за общността, отправени чрез приложението, екипите за безопасност на Snap предприеха общо 6 278 446 мерки за налагане на правилата в световен мащаб, включително мерки срещу 4 104 624 уникални акаунта.
Този обем на докладване в приложението не включва докладите от сайта за поддръжка и имейлите, които съставляват по-малко от 1% от общия обем на докладване.
Средното време за реакция на нашите екипи по безопасност за предприемане на мерки в отговор на тези съобщения беше ~2 минути. По-долу е представена разбивка по причини за ползване на политиката.
(Забележка: В предишни доклади понякога сме наричали това „категория за докладване“.  Занапред, ще използваме термина „основание за политиката“, който според нас по-точно отразява естеството на данните – защото нашите екипи за безопасност се стремят да прилагат правилата в съответствие с подходящата причина за политиката, независимо от категорията за докладване, определена от лицето, което подава доклада.)


Общо доклади за съдържание и акаунти

Общо прилагане

Общо санкционирани уникални акаунти

Общо

19 766 324

6 278 446

4 104 624

Основание за политиката

Общо доклади за съдържание и акаунти

Общо прилагане

Процент от общите доклади, по които са предприети мерки от Snap

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

7 315 730

3 778 370

60,2%

2 463 464

1

Сексуална експлоатация и злоупотреба с деца

1 627 097

695 679

11,1%

577 736

10

Тормоз и издевателство

4 103 797

700 731

11,2%

584 762

3

Заплахи и насилие

997 346

147 162

2,3%

120 397

2

Самонараняване и самоубийство

350 775

41 150

0,7%

36 657

3

Невярна информация

606 979

2 027

0,0%

1 960

1

Представяне под чужда самоличност

745 874

7 086

0,1%

6 837

<1

Спам

1 709 559

122 499

2,0%

94 837

1

Наркотици

481 830

262 962

4,2%

176 799

5

Оръжия

271 586

39 366

0,6%

32 316

1

Други регулирани стоки

530 449

143 098

2,3%

98 023

3

Реч на омразата

817 262

337 263

5,4%

280 682

6

Тероризъм и насилствен екстремизъм

208 040

1 053

0,0%

912

2

През първата половина на 2025 г. продължихме да намаляваме средното време за обработка във всички категории политики, като ги намалихме средно с повече от 75% в сравнение с предишния отчетен период, до 2 минути. Това намаление се дължеше до голяма степен на продължаващите съгласувани усилия за подобряване на приоритизирането на докладите за преглед въз основа на тежестта на вредите и автоматизирания преглед.

През отчетния период направихме и няколко целенасочени промени в усилията ни за безопасност, които оказаха влияние върху данните, посочени тук, включително засилване на политиките ни относно незаконни дейности, свързани с оръжия.
Наблюдавахме увеличение на сигналите и наложените санкции в категорията „Сексуална експлоатация на деца“, което се дължеше главно на увеличението на сексуализирано или чувствително съдържание, включващо непълнолетни лица, което нарушава нашите правила, но не е незаконно в САЩ и не подлежи на докладване пред Националния център за изчезнали и експлоатирани деца (NCMEC) в САЩ.
Увеличението на обема, свързан със сексуално съдържание (и намалението на обема, свързан с тормоз), се дължи на прекласифицирането на съдържанието, свързано със сексуален тормоз, от „Тормоз“ в „Сексуално съдържание“.

Нашите усилия за проактивно откриване и прилагане на мерки срещу нарушаване на нашите Насоки на Общността

Проактивно откриване и прилагане на нашите Насоки на общността


Ние използваме автоматизирани инструменти, за да откриваме проактивно и, в някои случаи, да предприемаме мерки срещу нарушения на нашите Правила на общността. Тези инструменти включват технология за сравняване на хеш-кодове (включително PhotoDNA и Child Sexual Abuse Imagery (CSAI) на Google), Content Safety API на Google и други патентовани технологии, предназначени за откриване на незаконни и нарушаващи правилата текстове и медийни файлове. понякога използващи изкуствен интелект и машинно обучение. Нашите данни за проактивно откриване редовно се променят в резултат на промени в поведението на потребителите, подобрения в нашите възможности за откриване и промени в нашите политики.

През първата половина на 2025 г. предприехме следните мерки за прилагане, след като проактивно открихме нарушения на нашите Насоки на общността с помощта на автоматизирани инструменти за откриване:


Общо прилагане

Общо санкционирани уникални акаунти

Общо

3 395 968

1 709 224

Основание за политиката

Общо прилагане

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

1 683 045

887 059

0

Сексуална експлоатация и злоупотреба с деца

399 756

162 017

2

Преследване и тормоз

12 716

10 412

8

Заплахи и насилие

40 489

27 662

6

Самонараняване и самоубийство

6 493

4 638

7

Невярна информация

61

44

20

Представяне под чужда самоличност

52

44

34

Спам

144 800

96 500

0

Наркотици

832 803

578 738

7

Оръжия

211 877

144 455

0

Други регулирани стоки

40 139

31 408

8

Реч на омразата

5 788

4 518

6

Тероризъм и насилствен екстремизъм

9 917

5 899

5

Борба със сексуалната експлоатация и злоупотреба с деца

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на CSEA в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, за да идентифицираме съдържание, свързано с CSEA. Тези инструменти включват инструменти за сравняване на хеш-кодове (включително PhotoDNA и CSAI Match на Google, за идентифициране на известни незаконни изображения и видеоклипове на CSEA) и Content Safety API на Google (за идентифициране на нови, „никога нехеширани“ незаконни изображения). Освен това, в някои случаи използваме поведенчески сигнали, за да предприемем мерки срещу други подозрителни дейности, свързани с CSEA. Съобщаваме за съдържание, свързано с CSEA на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC координира действията си с местните или международните правоохранителни органи, ако е необходимо.

През първата половина на 2025 г. предприехме следните действия при откриване на CSEA в Snapchat (проактивно или при получаване на доклад):

Общо санкционирано съдържание

Общо деактивирани акаунти

Общо подавания към NCMEC*

994 337

187 387

321 587

*Имайте предвид, че всяко изпращане до NCMEC може да съдържа няколко части от съдържанието. Общият брой на отделните части от медии, изпратени до NCMEC, е равен на общия брой на наложеното ни съдържание.

Нашите усилия за предоставяне на ресурси и подкрепа на потребители на Snapchat в нужда

Snapchat дава възможност на приятелите да си помагат в трудни моменти, като предоставя ресурси и подкрепа на потребители на Snapchat в нужда.

Нашият инструмент за търсене „Here For You“ предоставя ресурси от експерти, когато потребителите търсят определени теми, свързани с психичното здраве, тревожност, депресия, стрес, мисли за самоубийство, скръб и тормоз. Разработихме и страница, посветена на борбата с финансово мотивираното сексуално изнудване и други сексуални рискове и вреди, в опит да подкрепим тези в беда.

Когато нашите екипи за безопасност забележат потребител на Snapchat в беда, те са подготвени да предоставят ресурси за предотвратяване на самонараняване и подкрепа и да уведомяват службите за спешна помощ, ако е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност, който е публично достъпен за всички потребители на Snapchat в нашия Център за поверителност, безопасност и политика.

Общо пъти споделени ресурси за самоубийства

36 162

Обжалвания

По-долу предоставяме информация за жалбите, които получихме от потребители, които поискаха преразглеждане на решението ни да блокираме акаунтите им за нарушения на Насоките на общността през първата половина на 2025 г.:

Основание за политиката

Общо обжалвания

Общо възстановявания

Общо потвърдени решения

Средно време (дни) за обработване на обжалванията

Общо

437 855

22 142

415 494

1

Сексуално съдържание

134 358

6 175

128 035

1

Сексуална експлоатация и злоупотреба с деца*

89 493

4 179

85 314

<1

Преследване и тормоз

42 779

281

42 496

1

Заплахи и насилие

3 987

77

3 909

1

Самонараняване и самоубийство

145

2

143

1

Невярна информация

4

0

4

1

Представяне под чужда самоличност

1 063

33

1 030

<1

Спам

13 730

3 140

10 590

1

Наркотици

128 222

7 749

120 409

1

Оръжия

10 941

GBM

10 626

1

Други регулирани стоки

9 719

124

9 593

1

Реч на омразата

3 310

67

3 242

1

Тероризъм и насилствен екстремизъм

104

1

103

1

Регионален и национален преглед

В тази секция се предоставя обзор на действията на нашите екипи по безопасност за прилагане на Насоките на общността, както проактивно, така и в отговор на сигнали за нарушения в приложението, в избрани географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.

Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.



Преглед на действията на екипите за доверие и безопасност за прилагане на нашите Насоки за общността

Регион

Общо прилагане

Общо санкционирани уникални акаунти

Северна Америка

3 468 315

2 046 888

Европа

2 815 474

1 810 223

Останалия свят

3 390 625

1 937 090

Общо

9 674 414

5 794 201

Нарушения на насоките на общността, докладвани на нашите екипи за безопасност

Регион

Доклади за съдържание и акаунти

Общо прилагане

Общо санкционирани уникални акаунти

Северна Америка

5 762 412

2 125 819

1 359 763

Европа

5 961 962

2 144 828

1 440 907

Останалия свят

8 041 950

2 007 799

1 316 070

Общо

19 766 324

6 278 446

4 116 740

Проактивно откриване и прилагане на нашите Насоки на общността

Регион

Общо прилагане

Общо санкционирани уникални акаунти

Северна Америка

1 342 496

785 067

Европа

670 646

422 012

Останалия свят

1 382 826

696 364

Общо

3 395 968

1 709 224

Модериране на реклами

Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашите рекламни политики. Вярваме в отговорния подход към рекламите и създаваме безопасно изживяване за всички потребители на Snapchat. Всички реклами подлежат на преглед и одобрение от наша страна. Освен това си запазваме правото да премахваме реклами, включително в отговор на обратна връзка от потребители, която приемаме сериозно. 


По-долу сме включили анализ на нашето модериране за платени реклами, които ни се докладват след публикуването им в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това можете да намерите Галерията с реклами на Snapchat на адрес values.snap.com в раздела „Прозрачност“.

Общо докладвани обяви

Общо премахнати реклами

67 789

16 410