Snap Values
Доклад за прозрачност
1 януари 2024 г. – 30 юни 2024 г.

Издаден на:

05 декември 2024 г.

Актуализиран на:

05 декември 2024 г.

Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Ангажирани сме с тези усилия и непрекъснато се стремим да направим тези доклади по-изчерпателни и информативни за много заинтересовани страни, които се интересуват дълбоко от нашите практики за модериране на съдържание, правоприлагане и безопасността и благосъстоянието на общността в Snapchat. 

Настоящият доклад за прозрачност обхваща първата половина на 2024 г. (1 януари – 30 юни). Както и в предишните ни доклади, споделяме данни за глобалния обем доклади за съдържание в приложението и доклади на ниво акаунт, които нашите Екипи за доверие и безопасност са получили и са приложили мерки при конкретни категории нарушения на Насоките на Общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушаване на авторски права и търговски марки. Също така предоставяме специфични за всяка страна анализи в файловете в долната част на тази страница.

Като част от нашия постоянен ангажимент за непрекъснато подобряване на нашите доклади за прозрачност, въвеждаме и нови данни, които подчертават нашите проактивни усилия за откриване и прилагане на мерки срещу по-широк спектър от нарушения на нашите Насоки на Общността. Включили сме тези данни както на глобално, така и национално равнище в рамките на настоящия доклад и ще продължим да го правим и занапред. Също така сме коригирали грешка в етикетирането в нашите предишни доклади: където преди това сме се позовавали на „Общо прилагане на мерки в съдържание“, сега се позоваваме на „Общо прилагане на мерки“, за да отразим факта, че данните, предоставени в съответните колони, включват както прилагане на мерки на ниво съдържание, така и на ниво акаунти.

За повече информация относно нашите политики за борба с потенциалните вреди онлайн и за плановете за продължаване на развитието на нашите практики за докладване, моля, прочетете нашия неотдавнашен Блог за безопасност и въздействие относно настоящия Доклад за прозрачност. За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.

Моля, обърнете внимание, че най-актуалната версия на този Доклад за прозрачност може да бъде намерена в в локализация EN-US.

Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността

Нашите Екипи за доверие и безопасност прилагат нашите Насоки на общността както проактивно (чрез използване на автоматизирани инструменти) и реактивно (в отговор на доклади), както е по-подробно описано в следните раздели на този доклад. В този цикъл на докладване (първата половина на 2024) нашите Екипи за доверие и безопасност предприеха следните действия по правоприлагане: 

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

По-долу е представена разбивка по вид нарушения на Насоките на общността, включително осредненото време за изпълнение между времето, когато сме установили нарушението (проактивно или след получаване на доклад) и времето, когато сме предприели окончателно действие по отношение на съответното съдържание или акаунт:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че в едно на всеки 10 000 гледания на Snap и Story в Snapchat има съдържание, за което е установено, че нарушава нашите Насоки за общността.

Нарушения на Насоките на общността, докладвани на нашите Екипи за доверие и безопасност

От 1 януари до 30 юни 2024 г. в отговор на доклади за нарушения на Насоките на общността на Snap, Екипите за доверие и безопасност на Snap предприеха общо 6 223 618 действия по правоприлагане в световен мащаб, включително правоприлагане срещу 3 842 507 уникални акаунти. Осреднено време за изпълнение на нашите екипи за доверие и безопасност за предприемане на действия по прилагане в отговор на тези доклади бе ~24 минути. По-долу е представена разбивка по категория на докладване. 

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Нашите общи обеми за докладване останаха сравнително стабилни през първата половина на 2024 г. в сравнение с предходните шест месеца. През този цикъл видяхме увеличение на общото правоприлагане и на общите уникални акаунти с приложено правоприлагане от приблизително 16%.

През последните 12 месеца Snap въведе нови механизми за докладване за потребители, които представляват промени в нашите докладвани и приложени обеми и за увеличаване на времето за изпълнение през този отчетен период (първата половина на 2024). По-конкретно:

  • Докладване в групов чат: Въведохме докладване в групов чат на 13 октомври 2023 г., което позволява на потребителите да докладват за злоупотреби, настъпили в чат с няколко човека. Тази промяна повлия на методиката на нашите показатели в различните категории за докладване (тъй като някои потенциални вреди е по-вероятно да възникнат в контекста на чат) и увеличи ефективността на докладите. 

  • Подобрения в докладване на акаунти: Също така развихме нашата Функция за докладване, за да дадем възможност на потребителите да предоставят данни за чат, когато докладват акаунт, който се подозира, че е управляван от недоброжелател. Тази промяна, която ни предоставя по-големи доказателства и контекст за оценка на докладите за акаунти, бе въведена на 29 февруари 2024 г. 


Докладите за чат и особено тези в групов чат са сред най-сложните и отнемат много време за преглед, което увеличи времето за изпълнение в целия съвет. 

Особен акцент имаше върху докладването за предполагаема сексуална експлоатация и злоупотреба с деца (CSEA), тормоз и издевателство и реч на омраза, които бяха засегнати от двете промени, описани по-горе, както и от промени в по-широката екосистема. По-конкретно:

  • CSEA: Наблюдавахме увеличение на свързаните с CSEA доклади и правоприлагане през първата половина на 2024 г. По-конкретно, установихме увеличение с 64% на общите доклади от потребители в приложението, увеличение с 82% на общото правоприлагане и нарастване със 108% на правоприлагането в общите уникални акаунти. Тези увеличения се дължат до голяма степен на въвеждане на функционалности за докладване в групов чат и за докладване на акаунти. Предвид чувствителния характер на тази опашка за модериране, е назначен подбран екип от висококвалифицирани агенти, на които е възложено да преглеждат доклади за потенциални нарушения, свързани с CSEA. Комбинацията от приток на повече доклади и допълнителното време, необходимо за адаптация на нашите екипи към нови обучения, доведе до увеличаване на времето за изпълнение. От този момент нататък сме увеличили значително размера на нашите глобални екипи от доставчици, за да намалим времето за изпълнение и да реагираме с точност на доклади за потенциални CSEA. Очакваме нашият Доклад за прозрачност за втората половина на 2024 г. да отразява плодовете на това усилие, показвайки значително подобрено време за изпълнение. 

  • Тормоз и издевателство: Въз основа на доклади сме установили, че тормозът и издеватетелството се случват непропорционално в чатове и особено в групови чатове. Подобренията, които въведохме в докладването в групов чат и на акаунти, ни помагат да предприемаме по-задълбочени действия при оценката на докладите в тази категория за докладване. Освен това, от този период, ние изискваме от потребителите да въвеждат коментар при подаване на доклад за тормоз и издевателство. Преглеждаме този коментар, за да се постави в контекст всеки доклад. Общо взето тези промени доведоха до значителни увеличения на изпълнението (+91%), на общото приложение в уникални акаунти (+82%) и на времето за изпълнение (+245 мин) за съответните доклади. 

  • Реч на омразата: През първата половина на 2024 г. наблюдавахме увеличение на докладваното съдържание, на общото правоприлагане и на времето за изпълнение за реч на омразата. По-конкретно, установихме увеличение от 61% в докладите в приложението, увеличение от 127% на общото правоприлагане и увеличение от 125% на общите уникални акаунти с правоприлагане. Това се дължи отчасти на подобрения в нашите механизми за докладване в чат (както беше обсъдено по-рано) и беше допълнително подсилено от геополитическата среда, особено на продължаването на конфликта между Израел и Хамас. 

През този отчетен период е установено намаление от ~65% на общото правоприлагане и намаление от ~60% на общите уникални акаунти с правоприлагане в отговор на доклади за предполагаеми спам и злоупотреби, отразявайки подобрения в нашите проактивни инструменти за откриване и правоприлагане. Установихме подобни спадове в общото правоприлагане в отговор на доклади за съдържание, свързано със самонараняване и самоубийство (~80% намаления), отразяващи нашия актуализиран подход, ориентиран към жертвата, според който нашите Екипи за доверие и безопасност в подходящи случаи ще изпращат ресурси за самопомощ на съответните потребители, вместо да предприемат действия за правоприлагане срещу тези потребители. Този подход беше предприет след консултации на членовете на нашия Консултативен съвет за безопасност, включително и с професор по педиатрия и лекар, специалист по интерактивни медийни и интернет нарушения.

Нашите усилия за проактивно откриване и прилагане на мерки срещу нарушаване на нашите Насоки на Общността

Проактивно откриване и прилагане на нашите Насоки на общността


Въвеждаме на автоматизирани инструменти за проактивно откриване и в някои случаи прилагане на мерки срещу нарушения на нашите Насоки на Общността. Тези инструменти включват инструменти за съвпадение на хешове (включително PhotoDNA и Google Child Imagery за сексуално насилие (CSAI) Match), инструменти за откриване на език на злоупотреба (които откриват и прилагат мерки въз основа на идентифициран и редовно актуализиран списък с ключови думи и емотикони за злоупотреба) и технология за многомодален изкуствен интелект/ машинно обучение. 

През първата половина на 2024 г. предприехме следните действия за правоприлагане след проактивно откриване чрез използване на автоматизирани инструменти за нарушения на нашите Насоки на Общността:

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Борба със сексуалната експлоатация и злоупотреба с деца 

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме инструменти за откриване с активни технологии, като PhotoDNA стабилно съвпадение на хешове и Child Sexual Abuse Imagery (CSAI) Match на Google, за да идентифицираме съответно известни незаконни изображения и видеоклипове на CSEA. Освен това в някои случаи използваме поведенчески сигнали за прилагане срещу други потенциално незаконни дейности от CSEА. Съобщаваме за съдържание, свързано с CSEA на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.

През първата половина на 2024 предприехме следните действия при откриване на CSEA в Snapchat (проактивно или при получаване на доклад):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Нашите усилия за предоставяне на ресурси и подкрепа на потребители на Snapchat в нужда

Дълбоко сме загрижени за психичното здраве и благополучие на потребителите на Snapchat, което продължава да бъде в основата на решенията ни да изградим Snapchat по различен начин. Вярваме, че като платформа, създадена за комуникация между истински приятели, Snapchat може да изиграе уникална роля, като даде възможност на приятелите да си помагат в трудни моменти. Ето защо сме разработили ресурси и подкрепа за потребители на Snapchat в нужда. 

Нашият инструмент за търсене тук за Вас показва ресурси от експерти местни партньори, когато потребителите търсят определени теми, свързани с психично здраве, тревожност, депресия, стрес, мисли за самоубийство, скръб и тормоз. Разработили сме и страница, посветена на финансово сексуално изнудване и други сексуални рискове и вреди, в опит да подкрепим тези в беда. Нашият глобален списък с ресурси за безопасност е публично достъпен за всички потребители на Snapchat в нашия Център за поверителност, безопасност и политика. 

Когато нашите Екипи за доверие и безопасност разберат за потребител Snapchat в беда, те може да изпратят ресурси за превенция и подкрепа при самонараняване и да уведомят персонала за спешна помощ, когато е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност и са публично достъпни за всички потребители на Snapchat.

Total Times Suicide Resources Shared

64,094

Обжалвания

По-долу предоставяме информация за обжалванията, които получихме от потребители, които искат преглед на нашето решение за заключване на акаунтите им:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Регионален и национален преглед

Този раздел предоставя преглед на действията на нашите екипи за доверие и безопасност за прилагане на нашите Насоки на Общността както проактивно, така и в отговор на доклади за нарушения в приложението в извадка от географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.

Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.

Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на Насоките на общността 

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Нарушения на насоките на общността, докладвани на нашите екипи за доверие и безопасност

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Проактивно откриване и прилагане на нашите Насоки на общността

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Модериране на реклами

Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашите рекламни политики. Вярваме в отговорния и уважителен подход към рекламата, като създаваме безопасно и приятно преживяване за всички наши потребители. Всички реклами подлежат на преглед и одобрение от наша страна. Освен това си запазваме правото да премахваме реклами, включително в отговор на обратна връзка от потребители, която приемаме сериозно. 


По-долу сме включили анализ на нашето модериране за платени реклами, които ни се докладват след публикуването им в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите галерията с реклами на Snapchat в навигационната лента на този доклад за прозрачност.

Total Ads Reported

Total Ads Removed

43,098

17,833