05 декември 2024 г.
05 декември 2024 г.
Публикуваме този доклад за прозрачност два пъти годишно, за да предоставим информация за усилията за безопасност на Snap. Ангажирани сме с тези усилия и непрекъснато се стремим да направим тези доклади по-изчерпателни и информативни за много заинтересовани страни, които се интересуват дълбоко от нашите практики за модериране на съдържание, правоприлагане и безопасността и благосъстоянието на общността в Snapchat.
Настоящият доклад за прозрачност обхваща първата половина на 2024 г. (1 януари – 30 юни). Както и в предишните ни доклади, споделяме данни за глобалния обем доклади за съдържание в приложението и доклади на ниво акаунт, които нашите Екипи за доверие и безопасност са получили и са приложили мерки при конкретни категории нарушения на Насоките на Общността; как сме отговорили на искания от правоприлагащи органи и правителства; и как сме отговорили на уведомления за нарушаване на авторски права и търговски марки. Също така предоставяме специфични за всяка страна анализи в файловете в долната част на тази страница.
Като част от нашия постоянен ангажимент за непрекъснато подобряване на нашите доклади за прозрачност, въвеждаме и нови данни, които подчертават нашите проактивни усилия за откриване и прилагане на мерки срещу по-широк спектър от нарушения на нашите Насоки на Общността. Включили сме тези данни както на глобално, така и национално равнище в рамките на настоящия доклад и ще продължим да го правим и занапред. Също така сме коригирали грешка в етикетирането в нашите предишни доклади: където преди това сме се позовавали на „Общо прилагане на мерки в съдържание“, сега се позоваваме на „Общо прилагане на мерки“, за да отразим факта, че данните, предоставени в съответните колони, включват както прилагане на мерки на ниво съдържание, така и на ниво акаунти.
За повече информация относно нашите политики за борба с потенциалните вреди онлайн и за плановете за продължаване на развитието на нашите практики за докладване, моля, прочетете нашия неотдавнашен Блог за безопасност и въздействие относно настоящия Доклад за прозрачност. За да намерите допълнителни ресурси за безопасност и защита на личните данни в Snapchat, вижте раздела ни Относно докладването за прозрачност в долната част на страницата.
Моля, обърнете внимание, че най-актуалната версия на този Доклад за прозрачност може да бъде намерена в в локализация EN-US.
Преглед на действията на нашите Екипи по доверие и безопасност за прилагане на нашите Насоки на общността
Нашите Екипи за доверие и безопасност прилагат нашите Насоки на общността както проактивно (чрез използване на автоматизирани инструменти) и реактивно (в отговор на доклади), както е по-подробно описано в следните раздели на този доклад. В този цикъл на докладване (първата половина на 2024) нашите Екипи за доверие и безопасност предприеха следните действия по правоприлагане:
Преглед на нарушенията на съдържанието и акаунта
От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.
Преглед на нарушенията на съдържанието и акаунта
От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.
Преглед на нарушенията на съдържанието и акаунта
От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.
Анализ на нарушенията на съдържанието и акаунта
Общите ни нива на докладване и правоприлагане останаха сравнително сходни с тези от предходните шест месеца. През този цикъл наблюдавахме приблизително 10% увеличение на общия брой доклади за съдържание и акаунти.
През този период започна конфликтът между Израел и Хамас, в резултат на което се наблюдава увеличение на съдържанието с елементи на насилие. Общият брой на докладите, свързани с реч на омразата, се е увеличил с ~61%, докато общият брой на случаите на правоприлагане на речта на омразата се е увеличил с ~97%, а случаите на правоприлагане на уникални акаунти са се увеличили с ~124%. Докладите за тероризъм и насилствен екстремизъм също са се увеличили, въпреки че съставляват <0,1% от общия брой случаи на правоприлагане на съдържание в нашата платформа. Нашите екипи за доверие и безопасност продължават да бъдат бдителни при възникване на глобални конфликти, за да помогнат за запазването на безопасността на Snapchat. Също така разширихме доклада си за прозрачност, за да включим повече информация на глобално ниво и на ниво държава относно общия брой доклади, наложеното съдържание и уникалните акаунти, за които е наложено наказание за нарушения на нашата политика за тероризъм и насилствен екстремизъм.
Преглед на нарушенията на съдържанието и акаунта
От 1 юли до 31 декември 2023 г. Snap наложи санкции срещу 5 376 714 части от съдържание в световен мащаб, които ни бяха докладвани и нарушаваха нашите Насоки за общността.
По време на периода на докладване наблюдавахме коефициент на гледане с нарушения (Violative View Rate - VVR) от 0,01%, което означава, че на всеки 10 000 гледания на Snap и Story в Snapchat 1 съдържа съдържание, за което е установено, че нарушава нашите политики. Средното време за принудителното прилагане на докладваното съдържание беше ~10 минути.
Борба със сексуалната експлоатация и злоупотреба с деца
Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.
Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.
През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.
*Имайте предвид, че всяко изпращане до NCMEC може да съдържа няколко части от съдържанието. Общият брой на отделните части от медии, изпратени до NCMEC, е равен на общия брой на наложеното ни съдържание. От този брой сме изключили и оттеглените подадени материали в NCMEC.
Съдържание свързано със самонараняване и самоубийство
Дълбоко сме загрижени за психичното здраве и благополучие на потребителите на Snapchat, което продължава да бъде в основата на решенията ни да изградим Snapchat по различен начин. Вярваме, че като платформа, създадена за комуникация между истински приятели, Snapchat може да изиграе уникална роля, като даде възможност на приятелите да си помагат в трудни моменти.
Когато нашият екип за доверие и безопасност разбере за потребител Snapchat в беда, той може да изпрати ресурси за превенция и подкрепа при самонараняване и да уведоми персонала за спешна помощ, когато е необходимо. Ресурсите, които споделяме, са достъпни в нашия глобален списък с ресурси за безопасност и са публично достъпни за всички потребители на Snapchat.
Обжалвания
В предишния си доклад въведохме показатели за обжалванията, в които посочихме броя на случаите, в които потребителите са поискали от нас да преразгледаме първоначалното решение за модериране на техния акаунт. В този доклад разширихме обхвата на обжалванията, за да обхванем пълния набор от категориите на нашата политика за нарушения на ниво акаунт.
* Спирането на разпространението на съдържание или дейности, свързани със сексуална експлоатация на деца, е основен приоритет. Snap отделя значителни ресурси за постигането на тази цел и няма никаква толерантност към подобно поведение. За прегледа на доклади относно сексуална експлоатация на деца се изисква специално обучение и тези прегледи се извършват от ограничен екип от агенти поради графичното естество на съдържанието. През есента на 2023 г. Snap въведе промени в политиката, които се отразиха на последователността на прилагането на определени мерки срещу CSE; ние отстранихме тези несъответствия чрез преквалификация на служителите и осигуряване на качеството. Очакваме, че следващият доклад за прозрачност на Snap ще разкрие напредъка в подобряването на сроковете за реакция по отношение на CSE и подобряването на прецизността на първоначалните действия по прилагане.
Регионален и национален преглед
Този раздел предоставя преглед на действията на нашите екипи за доверие и безопасност за прилагане на нашите Насоки на Общността както проактивно, така и в отговор на доклади за нарушения в приложението в извадка от географски региони. Нашите Насоки за общността се прилагат за цялото съдържание в Snapchat – и за всички потребители на Snapchat – по целия свят, независимо от местоположението им.
Информацията за отделните държави, включително всички държави членки на ЕС, е достъпна за изтегляне от прикачения CSV файл.
Борба със сексуалната експлоатация и злоупотреба с деца
Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.
Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.
През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.
Борба със сексуалната експлоатация и злоупотреба с деца
Сексуалната експлоатация на който и да е член на нашата общност, особено на непълнолетни, е незаконна, осъдителна и забранена от нашите Насоки за общността. Предотвратяването, откриването и изкореняването на сексуалната експлоатация и злоупотреба с деца (CSEA) в нашата платформа е основен приоритет за Snap и ние непрекъснато развиваме възможностите си за борба с тези и други престъпления.
Използваме активни технологични инструменти за откриване, като например надеждното хеш-съвпадение на PhotoDNA и съвпадението на изображенията на сексуално насилие над деца (CSAI) на Google, за да идентифицираме известни незаконни изображения и видеоклипове на сексуално насилие над деца и да ги докладваме на Националния център за изчезнали и експлоатирани деца на САЩ (NCMEC), както се изисква по закон. След това NCMEC на свой ред координира действията си с националните или международните правоприлагащи органи, ако това е необходимо.
През втората половина на 2023 г. активно открихме и предприехме действия по 59% от общия брой докладвани нарушения, свързани със сексуална експлоатация и злоупотреба с деца. Това отразява общо намаление от 39% спрямо предходния период, което се дължи на подобренията в опциите за отчитане на потребителите на Snapchat, които увеличават видимостта на потенциалните CSEA, изпратени в Snapchat.
Модериране на реклами
Snap се ангажира да се увери, че всички реклами са в пълно съответствие с нашитерекламни политики. Вярваме в отговорния и уважителен подход към рекламата, като създаваме безопасно и приятно преживяване за всички наши потребители. По-долу сме включили информация за нашето модериране на платени реклами в Snapchat. Имайте предвид, че рекламите в Snapchat могат да бъдат премахнати по различни причини, както е описано в рекламните политики на Snap, включително заблуждаващо съдържание, съдържание за възрастни, съдържание съдържащо насилие или смущаващо съдържание, реч на омразата и нарушение на интелектуалната собственост. Освен това вече можете да намерите галерията с реклами на Snapchat в навигационната лента на този доклад за прозрачност.

























