Доклад за прозрачност
1 юли 2023 г. – 31 декември 2023 г.

Издаден на:

25 април 2024 г.

Актуализиран на:

25 април 2024 г.

За да предоставим допълнителна информация за усилията на Snap по отношение на безопасността, както и за естеството и обема на съдържанието, докладвано в нашата платформа, публикуваме този доклад за прозрачност два пъти годишно. Поемаме ангажимент да продължим да правим тези доклади по-изчерпателни и информативни по отношение на безопасността и благосъстоянието на нашата общност и на многобройните заинтересовани страни, които се интересуват от нашите практики за модериране на съдържание и правоприлагане.

Настоящият доклад за прозрачност обхваща втората половина на 2023 г. (1 юли - 31 декември). Както и в предишните ни доклади, споделяме данни за глобалния брой получени доклади за съдържание в приложението и доклади на ниво акаунт, на които сме наложили санкции по конкретни категории нарушения на правилата; как сме отговорили на искания от правоприлагащи органи и правителства; и действията ни по правоприлагане, разпределени по държави.

Като част от постоянния ни ангажимент да подобряваме непрекъснато докладите си за прозрачност, с това издание въвеждаме няколко нови елемента.

Първо, разширихме нашата основна таблица, за да включим доклади и принудителни мерки срещу съдържание и акаунти, свързани с тероризъм и насилствен екстремизъм и сексуална експлоатация и злоупотреба с деца (CSEA). В предишни доклади бяхме посочили в отделни раздели изтриванията на акаунти, извършени в отговор на тези нарушения. Ще продължим да описваме нашите активни и изпреварващи усилия срещу CSEA, както и докладите ни до NCMEC, в отделен раздел.

Второ, предоставихме разширена информация за обжалванията, като посочихме общия брой на обжалванията и възстановяванията в зависимост от прилагането на Насоките на Общността.

И накрая, разширихме нашия раздел за Европейския съюз, като предоставихме повече информация за дейностите на Snap в ЕС. По-конкретно, публикуваме най-новия доклад за прозрачността на DSA и допълнителни показатели за медийното сканиране за CSEA.

За повече информация относно нашите политики за борба с онлайн вредите и плановете ни да продължим да развиваме практиките си за докладване, моля, прочетете нашия последен блог за безопасност и въздействие относно този доклад за прозрачност. За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела Докладване за прозрачност в долната част на страницата.

Моля, обърнете внимание, че най-актуалната версия на този доклад за прозрачност може да бъде намерена в локалната версия en-US.

Преглед на нарушенията на съдържанието и акаунта

От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.

Преглед на нарушенията на съдържанието и акаунта

От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.

Преглед на нарушенията на съдържанието и акаунта

От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.

Преглед на нарушенията на съдържанието и акаунта

От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.

Анализ на нарушенията на съдържанието и акаунта

Общите ни нива на докладване и правоприлагане останаха сравнително сходни с тези от предходните шест месеца. През този цикъл наблюдавахме приблизително 10% увеличение на общия брой доклади за съдържание и акаунти.

През този период започна конфликтът между Израел и Хамас, в резултат на което се наблюдава увеличение на съдържанието с елементи на насилие. Общият брой на докладите, свързани с реч на омразата, се е увеличил с ~61%, докато общият брой на случаите на правоприлагане на речта на омразата се е увеличил с ~97%, а случаите на правоприлагане на уникални акаунти са се увеличили с ~124%. Докладите за тероризъм и насилствен екстремизъм също са се увеличили, въпреки че съставляват <0,1% от общия брой случаи на правоприлагане на съдържание в нашата платформа. Нашите екипи за доверие и безопасност продължават да бъдат бдителни при възникване на глобални конфликти, за да помогнат за запазването на безопасността на Snapchat. Също така разширихме доклада си за прозрачност, за да включим повече информация на глобално ниво и на ниво държава относно общия брой доклади, наложеното съдържание и уникалните акаунти, за които е наложено наказание за нарушения на нашата политика за тероризъм и насилствен екстремизъм.

Преглед на нарушенията на съдържанието и акаунта

От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.

По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.

Борба със сексуалната експлоатация и злоупотреба с деца

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.

През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.

*Имайте предвид, че всяко изпращане до NCMEC може да съдържа няколко части от съдържанието. Общият брой на отделните части от медии, изпратени до NCMEC, е равен на общия брой на наложеното ни съдържание. От този брой сме изключили и оттеглените подадени материали в NCMEC.

Съдържание свързано със самонараняване и самоубийство

Дълбоко сме загрижени за психичното здраве и благополучие на потребителите на Snapchat, което продължава да бъде в основата на решенията ни да изградим Snapchat по различен начин. Вярваме, че като платформа, създадена за комуникация между истински приятели, Snapchat може да изиграе уникална роля, като даде възможност на приятелите да си помагат в трудни моменти.

Когато нашият екип за доверие и безопасност разбере за потребител Snapchat в беда, той може да изпрати ресурси за превенция и подкрепа при самонараняване и да уведоми персонала за спешна помощ, когато е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност и са публично достъпни за всички потребители на Snapchat.

Обжалвания

В предишния си доклад въведохме показатели за обжалванията, в които посочихме броя на случаите, в които потребителите са поискали от нас да преразгледаме първоначалното решение за модериране на техния акаунт. В този доклад разширихме обхвата на обжалванията, за да обхванем пълния набор от категориите на нашата политика за нарушения на ниво акаунт.

* Спирането на разпространението на съдържание или дейности, свързани със сексуална експлоатация на деца, е основен приоритет. Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение.  За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието.  През есента на 2023 г. Snap въведе промени в политиката, които се отразиха на последователността на прилагането на определени мерки срещу CSE; ние отстранихме тези несъответствия чрез преквалификация на служителите и осигуряване на качеството. Очакваме, че следващият доклад за прозрачност на Snap ще разкрие напредъка в подобряването на сроковете за реакция по отношение на CSE и подобряването на прецизността на първоначалните действия по прилагане.

Регионален и национален преглед

Този раздел представя преглед на прилагането на нашите Насоки за общността в извадка от географски региони. Нашите Насоки се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.

Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.

Борба със сексуалната експлоатация и злоупотреба с деца

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.

През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.

Борба със сексуалната експлоатация и злоупотреба с деца

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.

През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.

Борба със сексуалната експлоатация и злоупотреба с деца

Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.

Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.

През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.

Модериране на реклами

Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашитерекламни политики. Вярваме в отговорния и уважителен подход към рекламата, като създаваме безопасно и приятно преживяване за всички наши потребители. По-долу сме включили информация за нашето модериране на платени реклами в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите галерията с реклами на Snapchat в навигационната лента на този доклад за прозрачност.