20 юни 2025 г.
1 юли 2025 г.
Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Като част от нашия ангажимент към безопасността и прозрачността, ние постоянно се стремим да правим тези доклади по-изчерпателни и информативни за многото заинтересовани страни, които се интересуват от модерацията на съдържанието, практиките за прилагане на законите и безопасността и благосъстоянието на общността на Snapchat.
Настоящият доклад за прозрачност обхваща втората половина на 2024 г. (1 юли - 31 декември). Ние споделяме глобални данни за съобщенията на потребителите и проактивното откриване от Snap; мерките, предприети от нашите екипи за безопасност при конкретни категории нарушения на Правилата на общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушения на авторски права и търговски марки. Ние също така предоставяме специфична информация за отделните страни в поредица от свързани страници.
За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.
Моля, имайте предвид, че най-актуалната версия на този доклад за прозрачност е английската версия.
Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността
Нашите екипи по безопасност прилагат Нашите правила за общността както проактивно (чрез използване на автоматизирани инструменти за откриване), така и реактивно (в отговор на съобщения), както е описано по-подробно в следващите раздели на този доклад. През този отчетен цикъл (второто полугодие на 2024 г.) нашите екипи по безопасност предприеха следните дейности по прилагане на правилата:
Общо прилагане
Общо санкционирани уникални акаунти
10 032 110
5 698 212
По-долу е представена разбивка по вид нарушения на Насоките на общността, включително осредненото време за изпълнение между времето, когато сме установили нарушението (проактивно или след получаване на доклад) и времето, когато сме предприели окончателно действие по отношение на съответното съдържание или акаунт:
Основание за политиката
Общо прилагане
Общо санкционирани уникални акаунти
Осреднено време за изпълнение (минути) от откриването до окончателното действие
Сексуално съдържание
3 860 331
2 099 512
2
Сексуална експлоатация на деца
961 359
577 682
23
Преследване и тормоз
2 716 966
2 019 439
7
Заплахи и насилие
199 920
156 578
8
Самонараняване и самоубийство
15 910
14 445
10
Невярна информация
6 539
6 176
1
Представяне под чужда самоличност
8 798
8 575
2
Спам
357 999
248 090
1
Наркотици
1 113 629
718 952
6
Оръжия
211 860
136 953
1
Други регулирани стоки
247 535
177 643
8
Реч на омразата
324 478
272 025
27
Тероризъм и насилствен екстремизъм
6 786
4 010
5
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че в едно на всеки 10 000 гледания на Snap и Story в Snapchat има съдържание, за което е установено, че нарушава нашите Насоки за общността.
Нарушения на Насоките на общността, докладвани на нашите Екипи за доверие и безопасност
От 1 юли до 31 декември 2024 г., в отговор на съобщения в приложението за нарушения на нашите Правила на общността, екипите за безопасност на Snap предприеха общо 6 346 508 действия за прилагане на правилата в световен мащаб, включително действия срещу 4 075 838 уникални акаунта. Средното време за реакция на нашите екипи по безопасност за предприемане на мерки в отговор на тези съобщения беше ~6 минути. Разбивка по категории за съобщаване е представена по-долу.
Общо доклади за съдържание и акаунти
Общо прилагане
Общо санкционирани уникални акаунти
19 379 848
6 346 508
4 075 838
Основание за политиката
Доклади за съдържание и акаунти
Общо прилагане
% от общите доклади, по които са предприети мерки от Snap
Общо санкционирани уникални акаунти
Осреднено време за изпълнение (минути) от откриването до окончателното действие
Сексуално съдържание
5 251 375
2 042 044
32,20%
1 387 749
_Core
Сексуална експлоатация на деца
1 224 502
469 389
7,40%
393 384
133
Преследване и тормоз
6 377 555
2 702 024
42,60%
2 009 573
7
Заплахи и насилие
1 000 713
156 295
2,50%
129 077
8
Самонараняване и самоубийство
307 660
15 149
0,20%
13 885
10
Невярна информация
536 886
6 454
0,10%
6 095
1
Представяне под чужда самоличност
678 717
8 790
0,10%
8 569
2
Спам
1 770 216
180 849
2,80%
140 267
1
Наркотици
418 431
244 451
3,90%
159 452
23
Оръжия
240 767
6 473
0,10%
5 252
1
Други регулирани стоки
606 882
199 255
3,10%
143 560
8
Реч на омразата
768 705
314 134
4,90%
263 923
27
Тероризъм и насилствен екстремизъм
197 439
1 201
<0,1%
1 093
_Core
В сравнение с предходния отчетен период, ние намалихме средното време за обработка на всички категории политики със средно 90%. Това намаление се дължеше до голяма степен на съгласуваните усилия за разширяване на капацитета ни за преглед, както и за подобряване на приоритизирането на съобщенията въз основа на тежестта на вредите. През отчетния период направихме и няколко целенасочени промени в усилията си за безопасност, които оказаха влияние върху данните, представени тук, включително разширяване на усилията ни за налагане на акаунти за потребителски имена и имена за показване, които нарушават Насоките на общността, въвеждане на по-често съобщаване и защита за общностите в Snapchat, както и въвеждане на опции за съобщаване за допълнителни видове медии, като гласови бележки, директно до нас в приложението.
Тези промени, както и други усилия в областта на безопасността и външни сили, засегнаха особено някои области на политиката в сравнение с предходния отчетен период. Тези категории политики включват: Съдържание, свързано с подозрения за сексуална експлоатация и злоупотреба с деца (CSEA), вредна невярна информация и спам. По-конкретно:
CSEA: През втората половина на 2024 г. наблюдавахме 12 % намаление на съобщенията, свързани с CSEA, и намалихме средното време за реакция на съобщените CSEA с 99 %. Тези тенденции се дължат до голяма степен на продължаващите подобрения в нашите проактивни усилия за откриване, които ни позволиха да премахнем съдържание, свързано с CSEA, преди да ни бъде сигнализирано, както и на подобренията, които внесохме в нашите процеси за преглед и по-ефективно предприемане на действия по сигнали за CSEA. Въпреки тези подобрения, времето за обработка на CSEA е по-дълго в сравнение с други области на политиката, тъй като съдържанието подлежи на специален процес, който включва двойна проверка от специално обучен екип от агенти.
Вредна невярна информация: Наблюдавахме 26 % увеличение на броя на съобщенията, свързани с вредна невярна информация, предизвикано главно от политически събития, включително изборите в САЩ през ноември 2024 г.
Спам: През този отчетен период наблюдавахме ~50% намаление на общия брой на наложените санкции и ~46% намаление на общия брой на уникалните акаунти, на които са наложени санкции в отговор на сигнали за съмнения за спам, което отразява подобренията в нашите инструменти за проактивно откриване и налагане на санкции. Това е продължение на нашите усилия да се борим със спама чрез сигнали от акаунти и да премахваме спамърите по-бързо, докато все още са активни на платформата. Тези усилия вече бяха в ход през последния отчетен период, през който общият брой на наложените санкции и на уникалните акаунти, на които са наложени санкции за спам, са намалели съответно с ~65 % и ~60 %.
Нашите усилия за проактивно откриване и прилагане на мерки срещу нарушаване на нашите Насоки на Общността
Ние използваме автоматизирани инструменти, за да откриваме проактивно и, в някои случаи, да предприемаме мерки срещу нарушения на нашите Правила на общността. Тези инструменти включват технология за сравняване на хеш-кодове (включително PhotoDNA и Child Sexual Abuse Imagery (CSAI) Match на Google), Content Safety API на Google и други персонализирани технологии, предназначени за откриване на обидно съдържание в текстове и медии, като понякога се използват изкуствен интелект и машинно обучение.
През втората половина на 2024 г. предприехме следните мерки за прилагане, след като проактивно открихме нарушения на нашите Правила на общността с помощта на автоматизирани инструменти за откриване:
Общо прилагане
Общо санкционирани уникални акаунти
3 685 602
1 845 125
Основание за политиката
Общо прилагане
Общо санкционирани уникални акаунти
Осреднено време за изпълнение (минути) от откриването до окончателното действие
Сексуално съдържание
1 818 287
828 590
<1
Сексуална експлоатация на деца
491 970
188 877
1
Преследване и тормоз
14 942
11 234
8
Заплахи и насилие
43 625
29 599
9
Самонараняване и самоубийство
Snap Legal
624
9
Невярна информация
85
81
10
Представяне под чужда самоличност
8
6
19
Спам
177 150
110 551
<1
Наркотици
869 178
590 658
5
Оръжия
205 387
133 079
<1
Други регулирани стоки
48 280
37 028
9
Реч на омразата
10 344
8 683
10
Тероризъм и насилствен екстремизъм
5 585
2 951
21
Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на CSEA в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.
Използваме активни технологични инструменти за откриване, за да идентифицираме съдържание, свързано с CSEA. Тези инструменти включват инструменти за сравняване на хеш-кодове (включително PhotoDNA и CSAI Match на Google, за идентифициране на известни незаконни изображения и видеоклипове на CSEA) и Google Content Safety API (за идентифициране на нови, „никога нехеширани“ незаконни изображения). Освен това, в някои случаи използваме поведенчески сигнали, за да предприемем мерки срещу други подозрителни дейности, свързани с CSEA. Съобщаваме за съдържание, свързано с CSEA на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC координира действията си с местните или международните правоохранителни органи, ако е необходимо.
През втората половина на 2024 г. предприехме следните действия при откриване на CSEA в Snapchat (проактивно или при получаване на доклад):
Общо санкционирано съдържание
Общо деактивирани акаунти
Общо подавания към NCMEC*
1 228 929
242 306
417 842
*Имайте предвид, че всяко изпращане до NCMEC може да съдържа няколко части от съдържанието. Общият брой на отделните части от медии, изпратени до NCMEC, е равен на общия брой на наложеното ни съдържание.
Нашите усилия за предоставяне на ресурси и подкрепа на потребители на Snapchat в нужда
Snapchat дава възможност на приятелите да си помагат в трудни моменти, като предоставя ресурси и подкрепа на потребители на Snapchat в нужда.
Нашият инструмент за търсене „Here For You“ предоставя ресурси от експерти, когато потребителите търсят определени теми, свързани с психичното здраве, тревожност, депресия, стрес, мисли за самоубийство, скръб и тормоз. Разработили сме и страница, посветена на финансово сексуално изнудване и други сексуални рискове и вреди, в опит да подкрепим тези в беда. Нашият глобален списък с ресурси за безопасност е публично достъпен за всички потребители на Snapchat в нашия Център за поверителност, безопасност и политика.
Когато нашите екипи за безопасност научат за потребител на Snapchat в беда, те разполагат с необходимите средства, за да предоставят ресурси за предотвратяване на самонараняване и подкрепа, както и да уведомят службите за спешна помощ, ако е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност, който е публично достъпен за всички потребители на Snapchat.
Общо пъти споделени ресурси за самоубийства
64 094
Обжалвания
По-долу предоставяме информация за жалбите, които получихме от потребители, които искат преразглеждане на решението ни да блокираме акаунтите им през втората половина на 2024 г.:
Основание за политиката
Общо обжалвания
Общо възстановявания
Общо потвърдени решения
Средно време (дни) за обработване на обжалванията
ОБЩО
493 782
35 243
458 539
5
Сексуално съдържание
162 363
6 257
156 106
_Core
Сексуална експлоатация на деца
102 585
15 318
87 267
6
Преследване и тормоз
53 200
442
52 758
7
Заплахи и насилие
4 238
83
4 155
5
Самонараняване и самоубийство
31
1
30
5
Невярна информация
3
0
3
<1
Представяне под чужда самоличност
Augmented Reality
33
_Core
7
Спам
19 533
5 090
14 443
9
Наркотици
133 478
7 598
125 880
_Core
Оръжия
4 678
136
4 542
6
Други регулирани стоки
9 153
168
8 985
6
Реч на омразата
3 541
Snapchat
3 427
7
Тероризъм и насилствен екстремизъм
132
3
129
9
Регионален и национален преглед
В тази секция се предоставя обзор на действията на нашите екипи по безопасност за прилагане на Насоките на общността, както проактивно, така и в отговор на сигнали за нарушения в приложението, в избрани географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.
Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.
Регион
Общо прилагане
Общо санкционирани уникални акаунти
Северна Америка
3 828 389
2 117 048
Европа
2 807 070
1 735 054
Останалия свят
3 396 651
1 846 110
Общо
10 032 110
5 698 212
Регион
Доклади за съдържание и акаунти
Общо прилагане
Общо санкционирани уникални акаунти
Северна Америка
5 916 815
2 229 465
1 391 304
Европа
5 781 317
2 085 109
1 378 883
Останалия свят
7 681 716
2 031 934
1 319 934
Общо
19 379 848
6 346 508
4 090 121
Общо прилагане
Общо санкционирани уникални акаунти
1 598 924
837 012
721 961
417 218
1 364 717
613 969
3 685 602
1 868 199
Модериране на реклами
Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашите рекламни политики. Вярваме в отговорния подход към рекламите и създаваме безопасно изживяване за всички потребители на Snapchat. Всички реклами подлежат на преглед и одобрение от наша страна. Освен това си запазваме правото да премахваме реклами, включително в отговор на обратна връзка от потребители, която приемаме сериозно.
По-долу сме включили анализ на нашето модериране за платени реклами, които ни се докладват след публикуването им в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите Галерията с реклами на Snapchat в центъра за прозрачност на Snap, достъпна директно чрез навигационната лента.
Общо докладвани обяви
Общо премахнати реклами
43 098
17 833


