Snap Values
Доклад за прозрачност
1 юли 2024 г. – 31 декември 2024 г.

Издаден на:

20 юни 2025 г.

Актуализиран на:

1 юли 2025 г.

Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Като част от нашия ангажимент към безопасността и прозрачността, ние постоянно се стремим да правим тези доклади по-изчерпателни и информативни за многото заинтересовани страни, които се интересуват от модерацията на съдържанието, практиките за прилагане на законите и безопасността и благосъстоянието на общността на Snapchat.

Настоящият доклад за прозрачност обхваща втората половина на 2024 г. (1 юли - 31 декември). Ние споделяме глобални данни за съобщенията на потребителите и проактивното откриване от Snap; мерките, предприети от нашите екипи за безопасност при конкретни категории нарушения на Правилата на общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушения на авторски права и търговски марки. Ние също така предоставяме специфична информация за отделните страни в поредица от свързани страници.

За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.

Моля, имайте предвид, че най-актуалната версия на този доклад за прозрачност е английската версия.

Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността

Нашите екипи по безопасност прилагат Нашите правила за общността както проактивно (чрез използване на автоматизирани инструменти за откриване), така и реактивно (в отговор на съобщения), както е описано по-подробно в следващите раздели на този доклад. През този отчетен цикъл (второто полугодие на 2024 г.) нашите екипи по безопасност предприеха следните дейности по прилагане на правилата:

Общо прилагане

Общо санкционирани уникални акаунти

10 032 110

5 698 212

По-долу е представена разбивка по вид нарушения на Насоките на общността, включително осредненото време за изпълнение между времето, когато сме установили нарушението (проактивно или след получаване на доклад) и времето, когато сме предприели окончателно действие по отношение на съответното съдържание или акаунт:

Основание за политиката

Общо прилагане

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

3 860 331

2 099 512

2

Сексуална експлоатация на деца

961 359

577 682

23

Преследване и тормоз

2 716 966

2 019 439

7

Заплахи и насилие

199 920

156 578

8

Самонараняване и самоубийство

15 910

14 445

10

Невярна информация

6 539

6 176

1

Представяне под чужда самоличност

8 798

8 575

2

Спам

357 999

248 090

1

Наркотици

1 113 629

718 952

6

Оръжия

211 860

136 953

1

Други регулирани стоки

247 535

177 643

8

Реч на омразата

324 478

272 025

27

Тероризъм и насилствен екстремизъм

6 786

4 010

5

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че в едно на всеки 10 000 гледания на Snap и Story в Snapchat има съдържание, за което е установено, че нарушава нашите Насоки за общността.

Нарушения на Насоките на общността, докладвани на нашите Екипи за доверие и безопасност

От 1 юли до 31 декември 2024 г., в отговор на съобщения в приложението за нарушения на нашите Правила на общността, екипите за безопасност на Snap предприеха общо 6 346 508 действия за прилагане на правилата в световен мащаб, включително действия срещу 4 075 838 уникални акаунта. Средното време за реакция на нашите екипи по безопасност за предприемане на мерки в отговор на тези съобщения беше ~6 минути. Разбивка по категории за съобщаване е представена по-долу.

Общо доклади за съдържание и акаунти

Общо прилагане

Общо санкционирани уникални акаунти

19 379 848

6 346 508

4 075 838

Основание за политиката

Доклади за съдържание и акаунти

Общо прилагане

% от общите доклади, по които са предприети мерки от Snap

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

5 251 375

2 042 044

32,20%

1 387 749

_Core

Сексуална експлоатация на деца

1 224 502

469 389

7,40%

393 384

133

Преследване и тормоз

6 377 555

2 702 024

42,60%

2 009 573

7

Заплахи и насилие

1 000 713

156 295

2,50%

129 077

8

Самонараняване и самоубийство

307 660

15 149

0,20%

13 885

10

Невярна информация

536 886

6 454

0,10%

6 095

1

Представяне под чужда самоличност

678 717

8 790

0,10%

8 569

2

Спам

1 770 216

180 849

2,80%

140 267

1

Наркотици

418 431

244 451

3,90%

159 452

23

Оръжия

240 767

6 473

0,10%

5 252

1

Други регулирани стоки

606 882

199 255

3,10%

143 560

8

Реч на омразата

768 705

314 134

4,90%

263 923

27

Тероризъм и насилствен екстремизъм

197 439

1 201

<0,1%

1 093

_Core

В сравнение с предходния отчетен период, ние намалихме средното време за обработка на всички категории политики със средно 90%. Това намаление се дължеше до голяма степен на съгласуваните усилия за разширяване на капацитета ни за преглед, както и за подобряване на приоритизирането на съобщенията въз основа на тежестта на вредите. През отчетния период направихме и няколко целенасочени промени в усилията си за безопасност, които оказаха влияние върху данните, представени тук, включително разширяване на усилията ни за налагане на акаунти за потребителски имена и имена за показване, които нарушават Насоките на общността, въвеждане на по-често съобщаване и защита за общностите в Snapchat, както и въвеждане на опции за съобщаване за допълнителни видове медии, като гласови бележки, директно до нас в приложението.

Тези промени, както и други усилия в областта на безопасността и външни сили, засегнаха особено някои области на политиката в сравнение с предходния отчетен период. Тези категории политики включват: Съдържание, свързано с подозрения за сексуална експлоатация и злоупотреба с деца (CSEA), вредна невярна информация и спам. По-конкретно:

  • CSEA: През втората половина на 2024 г. наблюдавахме 12 % намаление на съобщенията, свързани с CSEA, и намалихме средното време за реакция на съобщените CSEA с 99 %. Тези тенденции се дължат до голяма степен на продължаващите подобрения в нашите проактивни усилия за откриване, които ни позволиха да премахнем съдържание, свързано с CSEA, преди да ни бъде сигнализирано, както и на подобренията, които внесохме в нашите процеси за преглед и по-ефективно предприемане на действия по сигнали за CSEA. Въпреки тези подобрения, времето за обработка на CSEA е по-дълго в сравнение с други области на политиката, тъй като съдържанието подлежи на специален процес, който включва двойна проверка от специално обучен екип от агенти.

  • Вредна невярна информация: Наблюдавахме 26 % увеличение на броя на съобщенията, свързани с вредна невярна информация, предизвикано главно от политически събития, включително изборите в САЩ през ноември 2024 г.

  • Спам: През този отчетен период наблюдавахме ~50% намаление на общия брой на наложените санкции и ~46% намаление на общия брой на уникалните акаунти, на които са наложени санкции в отговор на сигнали за съмнения за спам, което отразява подобренията в нашите инструменти за проактивно откриване и налагане на санкции. Това е продължение на нашите усилия да се борим със спама чрез сигнали от акаунти и да премахваме спамърите по-бързо, докато все още са активни на платформата. Тези усилия вече бяха в ход през последния отчетен период, през който общият брой на наложените санкции и на уникалните акаунти, на които са наложени санкции за спам, са намалели съответно с ~65 % и ~60 %.

Нашите усилия за проактивно откриване и прилагане на мерки срещу нарушаване на нашите Насоки на Общността

Проактивно откриване и прилагане на нашите Насоки на общността


Ние използваме автоматизирани инструменти, за да откриваме проактивно и, в някои случаи, да предприемаме мерки срещу нарушения на нашите Правила на общността. Тези инструменти включват технология за сравняване на хеш-кодове (включително PhotoDNA и Child Sexual Abuse Imagery (CSAI) Match на Google), Content Safety API на Google и други персонализирани технологии, предназначени за откриване на обидно съдържание в текстове и медии, като понякога се използват изкуствен интелект и машинно обучение.

През втората половина на 2024 г. предприехме следните мерки за прилагане, след като проактивно открихме нарушения на нашите Правила на общността с помощта на автоматизирани инструменти за откриване:

Общо прилагане

Общо санкционирани уникални акаунти

3 685 602

1 845 125

Основание за политиката

Общо прилагане

Общо санкционирани уникални акаунти

Осреднено време за изпълнение (минути) от откриването до окончателното действие

Сексуално съдържание

1 818 287

828 590

<1

Сексуална експлоатация на деца

491 970

188 877

1

Преследване и тормоз

14 942

11 234

8

Заплахи и насилие

43 625

29 599

9

Самонараняване и самоубийство

Snap Legal

624

9

Невярна информация

85

81

10

Представяне под чужда самоличност

8

6

19

Спам

177 150

110 551

<1

Наркотици

869 178

590 658

5

Оръжия

205 387

133 079

<1

Други регулирани стоки

48 280

37 028

9

Реч на омразата

10 344

8 683

10

Тероризъм и насилствен екстремизъм

5 585

2 951

21

Борба със сексуалната експлоатация и злоупотреба с деца 

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на CSEA в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, за да идентифицираме съдържание, свързано с CSEA. Тези инструменти включват инструменти за сравняване на хеш-кодове (включително PhotoDNA и CSAI Match на Google, за идентифициране на известни незаконни изображения и видеоклипове на CSEA) и Google Content Safety API (за идентифициране на нови, „никога нехеширани“ незаконни изображения). Освен това, в някои случаи използваме поведенчески сигнали, за да предприемем мерки срещу други подозрителни дейности, свързани с CSEA. Съобщаваме за съдържание, свързано с CSEA на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC координира действията си с местните или международните правоохранителни органи, ако е необходимо.

През втората половина на 2024 г. предприехме следните действия при откриване на CSEA в Snapchat (проактивно или при получаване на доклад):


Общо санкционирано съдържание

Общо деактивирани акаунти

Общо подавания към NCMEC*

1 228 929

242 306

417 842

*Имайте предвид, че всяко изпращане до NCMEC може да съдържа няколко части от съдържанието. Общият брой на отделните части от медии, изпратени до NCMEC, е равен на общия брой на наложеното ни съдържание.

Нашите усилия за предоставяне на ресурси и подкрепа на потребители на Snapchat в нужда

Snapchat дава възможност на приятелите да си помагат в трудни моменти, като предоставя ресурси и подкрепа на потребители на Snapchat в нужда.

Нашият инструмент за търсене „Here For You“ предоставя ресурси от експерти, когато потребителите търсят определени теми, свързани с психичното здраве, тревожност, депресия, стрес, мисли за самоубийство, скръб и тормоз. Разработили сме и страница, посветена на финансово сексуално изнудване и други сексуални рискове и вреди, в опит да подкрепим тези в беда. Нашият глобален списък с ресурси за безопасност е публично достъпен за всички потребители на Snapchat в нашия Център за поверителност, безопасност и политика. 
Когато нашите екипи за безопасност научат за потребител на Snapchat в беда, те разполагат с необходимите средства, за да предоставят ресурси за предотвратяване на самонараняване и подкрепа, както и да уведомят службите за спешна помощ, ако е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност, който е публично достъпен за всички потребители на Snapchat.

Общо пъти споделени ресурси за самоубийства

64 094

Обжалвания

По-долу предоставяме информация за жалбите, които получихме от потребители, които искат преразглеждане на решението ни да блокираме акаунтите им през втората половина на 2024 г.:

Основание за политиката

Общо обжалвания

Общо възстановявания

Общо потвърдени решения

Средно време (дни) за обработване на обжалванията

ОБЩО

493 782

35 243

458 539

5

Сексуално съдържание

162 363

6 257

156 106

_Core

Сексуална експлоатация на деца

102 585

15 318

87 267

6

Преследване и тормоз

53 200

442

52 758

7

Заплахи и насилие

4 238

83

4 155

5

Самонараняване и самоубийство

31

1

30

5

Невярна информация

3

0

3

<1

Представяне под чужда самоличност

Augmented Reality

33

_Core

7

Спам

19 533

5 090

14 443

9

Наркотици

133 478

7 598

125 880

_Core

Оръжия

4 678

136

4 542

6

Други регулирани стоки

9 153

168

8 985

6

Реч на омразата

3 541

Snapchat

3 427

7

Тероризъм и насилствен екстремизъм

132

3

129

9

Регионален и национален преглед

В тази секция се предоставя обзор на действията на нашите екипи по безопасност за прилагане на Насоките на общността, както проактивно, така и в отговор на сигнали за нарушения в приложението, в избрани географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.

Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.


Преглед на действията на нашите Екипи по безопасност за прилагане на Насоките на общността 

Регион

Общо прилагане

Общо санкционирани уникални акаунти

Северна Америка

3 828 389

2 117 048

Европа

2 807 070

1 735 054

Останалия свят

3 396 651

1 846 110

Общо

10 032 110

5 698 212

Нарушения на насоките на общността, докладвани на нашите екипи за безопасност

Регион

Доклади за съдържание и акаунти

Общо прилагане

Общо санкционирани уникални акаунти

Северна Америка

5 916 815

2 229 465

1 391 304

Европа

5 781 317

2 085 109

1 378 883

Останалия свят

7 681 716

2 031 934

1 319 934

Общо

19 379 848

6 346 508

4 090 121

Проактивно откриване и прилагане на нашите Насоки на общността

Общо прилагане

Общо санкционирани уникални акаунти

1 598 924

837 012

721 961

417 218

1 364 717

613 969

3 685 602

1 868 199

Модериране на реклами

Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашите рекламни политики. Вярваме в отговорния подход към рекламите и създаваме безопасно изживяване за всички потребители на Snapchat. Всички реклами подлежат на преглед и одобрение от наша страна. Освен това си запазваме правото да премахваме реклами, включително в отговор на обратна връзка от потребители, която приемаме сериозно. 


По-долу сме включили анализ на нашето модериране за платени реклами, които ни се докладват след публикуването им в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите Галерията с реклами на Snapchat в центъра за прозрачност на Snap, достъпна директно чрез навигационната лента.

Общо докладвани обяви

Общо премахнати реклами

43 098

17 833