05 декември 2024 г.
05 декември 2024 г.
Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Ангажирани сме с тези усилия и непрекъснато се стремим да направим тези доклади по-изчерпателни и информативни за много заинтересовани страни, които се интересуват дълбоко от нашите практики за модериране на съдържание, правоприлагане и безопасността и благосъстоянието на общността в Snapchat.
Настоящият доклад за прозрачност обхваща първата половина на 2024 г. (1 януари – 30 юни). Както и в предишните ни доклади, споделяме данни за глобалния обем доклади за съдържание в приложението и доклади на ниво акаунт, които нашите Екипи за доверие и безопасност са получили и са приложили мерки при конкретни категории нарушения на Насоките на Общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушаване на авторски права и търговски марки. Също така предоставяме специфични за всяка страна анализи в файловете в долната част на тази страница.
Като част от нашия постоянен ангажимент за непрекъснато подобряване на нашите доклади за прозрачност, въвеждаме и нови данни, които подчертават нашите проактивни усилия за откриване и прилагане на мерки срещу по-широк спектър от нарушения на нашите Насоки на Общността. Включили сме тези данни както на глобално, така и национално равнище в рамките на настоящия доклад и ще продължим да го правим и занапред. Също така сме коригирали грешка в етикетирането в нашите предишни доклади: където преди това сме се позовавали на „Общо прилагане на мерки в съдържание“, сега се позоваваме на „Общо прилагане на мерки“, за да отразим факта, че данните, предоставени в съответните колони, включват както прилагане на мерки на ниво съдържание, така и на ниво акаунти.
За повече информация относно нашите политики за борба с потенциалните вреди онлайн и за плановете за продължаване на развитието на нашите практики за докладване, моля, прочетете нашия неотдавнашен Блог за безопасност и въздействие относно настоящия Доклад за прозрачност. За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.
Моля, обърнете внимание, че най-актуалната версия на този Доклад за прозрачност може да бъде намерена в в локализация EN-US.
Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността
Нашите Екипи за доверие и безопасност прилагат нашите Насоки на общността както проактивно (чрез използване на автоматизирани инструменти) и реактивно (в отговор на доклади), както е по-подробно описано в следните раздели на този доклад. В този цикъл на докладване (първата половина на 2024) нашите Екипи за доверие и безопасност предприеха следните действия по правоприлагане:
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
По-долу е представена разбивка по вид нарушения на Насоките на общността, включително осредненото време за изпълнение между времето, когато сме установили нарушението (проактивно или след получаване на доклад) и времето, когато сме предприели окончателно действие по отношение на съответното съдържание или акаунт:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че в едно на всеки 10 000 гледания на Snap и Story в Snapchat има съдържание, за което е установено, че нарушава нашите Насоки за общността.
Нарушения на Насоките на общността, докладвани на нашите Екипи за доверие и безопасност
От 1 януари до 30 юни 2024 г. в отговор на доклади за нарушения на Насоките на общността на Snap, Екипите за доверие и безопасност на Snap предприеха общо 6 223 618 действия по правоприлагане в световен мащаб, включително правоприлагане срещу 3 842 507 уникални акаунти. Осреднено време за изпълнение на нашите екипи за доверие и безопасност за предприемане на действия по прилагане в отговор на тези доклади бе ~24 минути. По-долу е представена разбивка по категория на докладване.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Нашите общи обеми за докладване останаха сравнително стабилни през първата половина на 2024 г. в сравнение с предходните шест месеца. През този цикъл видяхме увеличение на общото правоприлагане и на общите уникални акаунти с приложено правоприлагане от приблизително 16%.
През последните 12 месеца Snap въведе нови механизми за докладване за потребители, които представляват промени в нашите докладвани и приложени обеми и за увеличаване на времето за изпълнение през този отчетен период (първата половина на 2024). По-конкретно:
Докладване в групов чат: Въведохме докладване в групов чат на 13 октомври 2023 г., което позволява на потребителите да докладват за злоупотреби, настъпили в чат с няколко човека. Тази промяна повлия на методиката на нашите показатели в различните категории за докладване (тъй като някои потенциални вреди е по-вероятно да възникнат в контекста на чат) и увеличи ефективността на докладите.
Подобрения в докладване на акаунти: Също така развихме нашата Функция за докладване, за да дадем възможност на потребителите да предоставят данни за чат, когато докладват акаунт, който се подозира, че е управляван от недоброжелател. Тази промяна, която ни предоставя по-големи доказателства и контекст за оценка на докладите за акаунти, бе въведена на 29 февруари 2024 г.
Докладите за чат и особено тези в групов чат са сред най-сложните и отнемат много време за преглед, което увеличи времето за изпълнение в целия съвет.
Особен акцент имаше върху докладването за предполагаема сексуална експлоатация и злоупотреба с деца (CSEA), тормоз и издевателство и реч на омраза, които бяха засегнати от двете промени, описани по-горе, както и от промени в по-широката екосистема. По-конкретно:
CSEA: Наблюдавахме увеличение на свързаните с CSEA доклади и правоприлагане през първата половина на 2024 г. По-конкретно, установихме увеличение с 64% на общите доклади от потребители в приложението, увеличение с 82% на общото правоприлагане и нарастване със 108% на правоприлагането в общите уникални акаунти. Тези увеличения се дължат до голяма степен на въвеждане на функционалности за докладване в групов чат и за докладване на акаунти. Предвид чувствителния характер на тази опашка за модериране, е назначен подбран екип от висококвалифицирани агенти, на които е възложено да преглеждат доклади за потенциални нарушения, свързани с CSEA. Комбинацията от приток на повече доклади и допълнителното време, необходимо за адаптация на нашите екипи към нови обучения, доведе до увеличаване на времето за изпълнение. От този момент нататък сме увеличили значително размера на нашите глобални екипи от доставчици, за да намалим времето за изпълнение и да реагираме с точност на доклади за потенциални CSEA. Очакваме нашият Доклад за прозрачност за втората половина на 2024 г. да отразява плодовете на това усилие, показвайки значително подобрено време за изпълнение.
Тормоз и издевателство: Въз основа на доклади сме установили, че тормозът и издеватетелството се случват непропорционално в чатове и особено в групови чатове. Подобренията, които въведохме в докладването в групов чат и на акаунти, ни помагат да предприемаме по-задълбочени действия при оценката на докладите в тази категория за докладване. Освен това, от този период, ние изискваме от потребителите да въвеждат коментар при подаване на доклад за тормоз и издевателство. Преглеждаме този коментар, за да се постави в контекст всеки доклад. Общо взето тези промени доведоха до значителни увеличения на изпълнението (+91%), на общото приложение в уникални акаунти (+82%) и на времето за изпълнение (+245 мин) за съответните доклади.
Реч на омразата: През първата половина на 2024 г. наблюдавахме увеличение на докладваното съдържание, на общото правоприлагане и на времето за изпълнение за реч на омразата. По-конкретно, установихме увеличение от 61% в докладите в приложението, увеличение от 127% на общото правоприлагане и увеличение от 125% на общите уникални акаунти с правоприлагане. Това се дължи отчасти на подобрения в нашите механизми за докладване в чат (както беше обсъдено по-рано) и беше допълнително подсилено от геополитическата среда, особено на продължаването на конфликта между Израел и Хамас.
През този отчетен период е установено намаление от ~65% на общото правоприлагане и намаление от ~60% на общите уникални акаунти с правоприлагане в отговор на доклади за предполагаеми спам и злоупотреби, отразявайки подобрения в нашите проактивни инструменти за откриване и правоприлагане. Установихме подобни спадове в общото правоприлагане в отговор на доклади за съдържание, свързано със самонараняване и самоубийство (~80% намаления), отразяващи нашия актуализиран подход, ориентиран към жертвата, според който нашите Екипи за доверие и безопасност в подходящи случаи ще изпращат ресурси за самопомощ на съответните потребители, вместо да предприемат действия за правоприлагане срещу тези потребители. Този подход беше предприет след консултации на членовете на нашия Консултативен съвет за безопасност, включително и с професор по педиатрия и лекар, специалист по интерактивни медийни и интернет нарушения.
Нашите усилия за проактивно откриване и прилагане на мерки срещу нарушаване на нашите Насоки на Общността
Въвеждаме на автоматизирани инструменти за проактивно откриване и в някои случаи прилагане на мерки срещу нарушения на нашите Насоки на Общността. Тези инструменти включват инструменти за съвпадение на хешове (включително PhotoDNA и Google Child Imagery за сексуално насилие (CSAI) Match), инструменти за откриване на език на злоупотреба (които откриват и прилагат мерки въз основа на идентифициран и редовно актуализиран списък с ключови думи и емотикони за злоупотреба) и технология за многомодален изкуствен интелект/ машинно обучение.
През първата половина на 2024 г. предприехме следните действия за правоприлагане след проактивно откриване чрез използване на автоматизирани инструменти за нарушения на нашите Насоки на Общността:
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.
Използваме инструменти за откриване с активни технологии, като PhotoDNA стабилно съвпадение на хешове и Child Sexual Abuse Imagery (CSAI) Match на Google, за да идентифицираме съответно известни незаконни изображения и видеоклипове на CSEA. Освен това в някои случаи използваме поведенчески сигнали за прилагане срещу други потенциално незаконни дейности от CSEА. Съобщаваме за съдържание, свързано с CSEA на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.
През първата половина на 2024 предприехме следните действия при откриване на CSEA в Snapchat (проактивно или при получаване на доклад):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Нашите усилия за предоставяне на ресурси и подкрепа на потребители на Snapchat в нужда
Дълбоко сме загрижени за психичното здраве и благополучие на потребителите на Snapchat, което продължава да бъде в основата на решенията ни да изградим Snapchat по различен начин. Вярваме, че като платформа, създадена за комуникация между истински приятели, Snapchat може да изиграе уникална роля, като даде възможност на приятелите да си помагат в трудни моменти. Ето защо сме разработили ресурси и подкрепа за потребители на Snapchat в нужда.
Нашият инструмент за търсене тук за Вас показва ресурси от експерти местни партньори, когато потребителите търсят определени теми, свързани с психично здраве, тревожност, депресия, стрес, мисли за самоубийство, скръб и тормоз. Разработили сме и страница, посветена на финансово сексуално изнудване и други сексуални рискове и вреди, в опит да подкрепим тези в беда. Нашият глобален списък с ресурси за безопасност е публично достъпен за всички потребители на Snapchat в нашия Център за поверителност, безопасност и политика.
Когато нашите Екипи за доверие и безопасност разберат за потребител Snapchat в беда, те може да изпратят ресурси за превенция и подкрепа при самонараняване и да уведомят персонала за спешна помощ, когато е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност и са публично достъпни за всички потребители на Snapchat.
Total Times Suicide Resources Shared
64,094
Обжалвания
По-долу предоставяме информация за обжалванията, които получихме от потребители, които искат преглед на нашето решение за заключване на акаунтите им:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Регионален и национален преглед
Този раздел предоставя преглед на действията на нашите екипи за доверие и безопасност за прилагане на нашите Насоки на Общността както проактивно, така и в отговор на доклади за нарушения в приложението в извадка от географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.
Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Модериране на реклами
Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашите рекламни политики. Вярваме в отговорния и уважителен подход към рекламата, като създаваме безопасно и приятно преживяване за всички наши потребители. Всички реклами подлежат на преглед и одобрение от наша страна. Освен това си запазваме правото да премахваме реклами, включително в отговор на обратна връзка от потребители, която приемаме сериозно.
По-долу сме включили анализ на нашето модериране за платени реклами, които ни се докладват след публикуването им в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите галерията с реклами на Snapchat в навигационната лента на този доклад за прозрачност.
Total Ads Reported
Total Ads Removed
43,098
17,833


