Privacy, Safety, and Policy Hub
Európska únia
1. januára 2024 – 30. júna 2024

Uverejnené:

25. októbra 2024

Aktualizované:

29. novembra 2024

Vitajte na našej stránke o transparentnosti Európskej únie (EÚ), kde zverejňujeme informácie špecifické pre EÚ, ktoré vyžaduje Zákon o digitálnych službách (DSA), Smernica o audiovizuálnych mediálnych službách (AVMSD), holandský Zákon o médiách (DMA) a Nariadenie o online teroristickom obsahu (TCO). Upozorňujeme, že najaktuálnejšiu verziu týchto Správ o transparentnosti možno nájsť v lokálnom nastavení en-US.

Právny zástupca 

Spoločnosť Snap Group Limited vymenovala spoločnosť Snap B.V. za svojho právneho zástupcu pre účely DSA. Zástupcu môžete kontaktovať na dsa-enquiries [at] snapchat.com pre DSA, na vsp-enquiries [at] snapchat.com pre AVMSD a DMA, na tco-enquiries [at] snapchat.com pre TCO, prostredníctvom našej podpornej stránky [tu] alebo na:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holandsko

Ak ste orgán činný v trestnom konaní, postupujte podľa krokov uvedených tu.

Keď nás budete kontaktovať, komunikujte v angličtine alebo holandčine.

Regulačné orgány

V prípade DSA sme regulovaní Európskou komisiou a holandským Úradom pre spotrebiteľov a trhy (ACM). V prípade AVMSD a DMA sa riadime holandským Úradom pre médiá (CvdM). Pokiaľ ide o TCO, riadime sa holandským Úradom pre prevenciu online teroristického obsahu a materiálu so sexuálnym zneužívaním detí (ATKM).

Správa o transparentnosti podľa DSA

Posledná aktualizácia: 25. októbra 2024

Túto správu o našom úsilí o moderovanie obsahu na Snapchate uverejňujeme v súlade s požiadavkami na podávanie správ o transparentnosti stanovenými v článkoch 15, 24 a 42 zákona Európskej únie (EÚ) o digitálnych službách (nariadenie (EÚ) 2022/2065) („DSA“). Pokiaľ nie je uvedené inak, informácie obsiahnuté v tejto správe sa týkajú vykazovaného obdobia od 1. januára 2024 do 30. júna 2024 (1. polrok 2024) a zahŕňajú moderovanie obsahu vo funkciách aplikácie Snapchat, ktoré upravuje DSA.

Neustále sa snažíme zlepšovať svoje vykazovanie. V tomto vykazovanom období (1. polrok 2024) sme urobili zmeny v štruktúre našej správy s novými a diferencovanejšími tabuľkami, aby sme poskytli lepší prehľad o našom úsilí v oblasti moderovania obsahu.

1. Priemerní mesační aktívni príjemcovia 
(Články 24.2 a 42.3 DSA)


K 1. októbru 2024 máme v EÚ 92,9 milióna priemerných mesačných aktívnych príjemcov („AMAR“) našej aplikácie Snapchat. To znamená, že v priemere za obdobie 6 mesiacov, ktoré sa končí 30. septembra 2024, 92,9 milióna registrovaných používateľov v EÚ si otvorilo aplikáciu Snapchat aspoň raz počas daného mesiaca.

Tento údaj sa rozdeľuje podľa členských štátov takto:

Tieto údaje boli vypočítané tak, aby vyhovovali súčasným požiadavkám ADS a sú spoľahlivé len v súvislosti s účelmi ADS. Zmenili sme spôsob, akým počítame toto číslo v priebehu času, a to aj v reakcii na zmenu vnútornej politiky, pokyny regulačných orgánov a technológie a údaje by sa nemali porovnávať medzi jednotlivými obdobiami. Môže sa to líšiť aj od výpočtov používaných pre iné aktívne údaje používateľov, ktoré zverejňujeme na iné účely.

2. Požiadavky orgánov členských štátov
(článok 15 ods. 1 písm. a) aktu o digitálnych službách)
a) Príkazy konať proti nezákonnému obsahu

Počas tohto vykazovacieho obdobia (1. polrok 2024) sme dostali nula (0) príkazov konať proti špecificky identifikovaným častiam nezákonného obsahu od orgánov členských štátov EÚ vrátane tých, ktoré boli vydané v súlade s Článkom 9 ADS. 

Keďže toto číslo je nula (0), nemôžeme poskytnúť rozdelenie podľa druhu príslušného nezákonného obsahu alebo členského štátu, ktorý rozkaz vydal, ani podľa mediánu času, ktorý trvá potvrdenie prijatia alebo uplatnenie daných príkazov.

b) Príkazy na poskytnutie informácií 

Počas tohto vykazovacieho obdobia (1. polrok 2024) sme dostali nasledujúce príkazy na zverejnenie údajov používateľov od orgánov členských štátov EÚ vrátane tých, ktoré boli vydané v súlade s Článkom 10 ADS:


Medián času na informovanie príslušných orgánov o prijatí týchto príkazov poskytnúť informácie bol 0 minút – poskytujeme automatickú odpoveď potvrdzujúcu prijatie. 

Medián času na uplatnenie týchto príkazov poskytnúť informácie bol ~7 dní. Táto metrika odráža časové obdobie od okamihu, keď spoločnosť Snap dostala rozkaz, do okamihu, keď uznala túto záležitosť za úplne vyriešenú, čo v jednotlivých prípadoch môže čiastočne závisieť od rýchlosti, akou príslušný orgán členského štátu zareaguje na akékoľvek žiadosti o vysvetlenie od spoločnosti Snap nevyhnutné na uplatnenie daného rozkazu.

Upozorňujeme, že neposkytujeme rozpis vyššie uvedených príkazov na poskytnutie informácií kategorizovaných podľa druhu príslušného nezákonného obsahu, pretože tieto informácie nám všeobecne nie sú k dispozícii.

3. Moderovanie obsahu 


Všetok obsah na Snapchate musí dodržiavať naše Smernice komunity a Podmienky používania. Istý obsah musí taktiež dodržiavať ďalšie usmernenia a zásady. Napríklad obsah predložený na účely algoritmického odporúčania širšiemu publiku na našich verejných platformách musí spĺňať dodatočné, vyššie štandardy uvedené v našich Smerniciach pre oprávnenosť obsahu na odporúčanie a reklamy musia spĺňať naše Reklamné pravidlá.

Dodržiavanie týchto zásad presadzujeme pomocou technológie a kontrolou ľuďmi. Taktiež poskytujeme mechanizmy pre Snapchatterov na nahlasovanie porušovania pravidiel vrátane nezákonného obsahu a činností priamo v aplikácii alebo cez našu webstránku. Proaktívne mechanizmy detekcie a hlásenia spustia preskúmanie, pri ktorom sa potom využíva kombinácia automatických nástrojov a ľudských moderátorov na podniknutie vhodných krokov v súlade s našimi zásadami. 

Nižšie uvádzame ďalšie informácie o našom moderovaní obsahu na našich verejných platformách v H1 2024.

a) Oznámenia predložené v súlade s Článkom 16 Aktu o digitálnych službách (ADS) 
(Článok 15.1 písm. b ADS)

V súlade s Článkom 16 ADS Spoločnosť Snap zaviedla mechanizmy umožňujúce používateľom a nepoužívateľnom informovať spoločnosť Snap o prítomnosti konkrétnych informácií, ktoré považujú za nezákonný obsah. Môžu tak urobiť nahlásením konkrétnych častí obsahu alebo účtov, buď priamo v aplikácii Snapchat alebo na našej webstránke. 

Počas vykazovacieho obdobia (1. polrok 2024) sme prijali nasledovné oznámenia predložené v súlade s Článkom 16 ADS v EÚ:


Nižšie uvádzame rozpis, ktorý odráža, ako boli tieto oznámenia spracované – t. j. prostredníctvom procesu zahŕňajúceho ľudskú kontrolu alebo výlučne automatizovanými prostriedkami: 

Pri odosielaní oznámení v aplikácii alebo prostredníctvom našej webovej lokality si ohlasovatelia môžu vybrať konkrétny dôvod ohlásenia z ponuky možností, ktoré odrážajú kategórie porušení uvedené v našich usmerneniach komunity (napr. nenávistné prejavy, používanie alebo predaj drog). Naše usmernenia komunity zakazujú obsah a činnosti, ktoré sú v EÚ nezákonné, takže naše dôvody na podávanie správ zväčša odrážajú konkrétne kategórie nezákonného obsahu v EÚ. Pokiaľ sa však reportér v EÚ domnieva, že obsah alebo účet, ktorý nahlasuje, je nezákonný z dôvodov, ktoré nie sú výslovne uvedené v našej ponuke na nahlasovanie, môže ho nahlásiť ako „iný nezákonný obsah“ a má možnosť vysvetliť, prečo sa domnieva, že to, čo nahlasuje, je nezákonné.

Ak po preskúmaní zistíme, že nahlásený obsah alebo účet porušuje naše usmernenia komunity (vrátane dôvodov nezákonnosti), môžeme (i) odstrániť inkriminovaný obsah, (ii) varovať príslušného majiteľa účtu a uplatniť voči účtu sankciu a/alebo (iii) zablokovať príslušný účet, ako je bližšie vysvetlené v našom vysvetlení o moderovaní, presadzovaní a odvolaniach na Snapchate.

V 1. polroku 2024 sme po prijatí oznámení predložených v súlade s článkom 16 DSA v EÚ prijali tieto opatrenia na presadzovanie práva:

V 1. 2024 viedli všetky správy o „inom nezákonnom obsahu“, ktoré sme prijali, nakoniec k presadzovaniu dodržiavania predpisov podľa našich Smerníc komunity, pretože naše Smernice komunity zakazovali príslušný obsah alebo činnosť. Preto sme kategorizovali tieto prípady presadzovania podľa príslušnej kategórie porušenia Smernice komunity v tabuľke vyššie.

Okrem vyššie uvedených prípadov presadzovania môžeme podniknúť kroky pri obsahu, na ktorý sme boli upozornení v súvislosti s inými platnými zásadami a smernicami spoločnosti Snap: 

  • Pokiaľ ide o obsah na našich verejných vysielacích platformách, ak zistíme, že nahlásený obsah nespĺňa vyššie normy našich Smerníc pre oprávnenosť obsahu na odporúčanie, môžeme odmietnuť daný obsah na algoritmické odporúčanie (ak obsah nespĺňa naše kritéria na oprávnenosť), alebo môžeme obmedziť šírenie toho obsahu medzi citlivé publiká (ak obsah spĺňa naše kritériá na odporúčanie ale je nejakým iným spôsobom citlivý alebo sugestívny).  

V 1. polroku 2024 sme podnikli nasledovné kroky týkajúce sa obsahu na verejných vysielacích platformách Snapchatu, ktorý nám bol nahlásený v EÚ v súlade s našimi Smernicami pre oprávnenosť obsahu na odporúčanie:

  • Ak zistíme, že nahlásená reklama porušuje naše Zásady inzercie, môžeme ju po preskúmaní odstrániť. 


V prvom polroku 2024 sme prijali nasledujúce opatrenia týkajúce sa reklám, ktoré nám boli nahlásené v EÚ:


b) Moderovanie obsahu, ktoré spoločnosť Snap podnikla z vlastnej iniciatívy 
(Článok 15.1, písm. c))


Okrem oznámení o preskúmaní predložených v súlade s Článkom 16 ADS, spoločnosť Snap moderuje z vlastnej iniciatívy obsah na verejných platformách Snapchatu (napr. Stred záujmu, Objaviť). Nižšie uvádzame informácie o moderovaní obsahu, ktoré sme konali z vlastnej iniciatívy spoločnosti Snap, vrátane používania automatických nástrojov, opatrení prijatých na poskytnutie tréningu a pomoci osobám zodpovedným za moderovanie obsahu a počet a druhy obmedzení zavedených v dôsledku týchto proaktívnych snáh o moderovanie obsahu.


  • Používanie automatických nástrojov pri moderovaní z vlastnej iniciatívy spoločnosti Snap


Používame automatické nástroje na proaktívne odhaľovanie porušení podmienok a zásad na našich platformách s verejným obsahom a v niektorých prípadoch na presadzovanie ich dodržiavania. Patria sem nástroje na párovanie hashov (vrátane PhotoDNA a Google CSAI Match), modely na odhaľovanie hanlivého jazyka (ktoré odhaľujú a odmietajú obsah na základe identifikovaného a pravidelne aktualizovaného zoznamu hanlivých kľúčových slov a emoji) a umelá inteligencia / technológia strojového učenia. Naše automatické nástroje sú navrhnuté tak, aby odhaľovali porušenia našich Smerníc komunity (ktoré, okrem iného, zakazujú nezákonný obsah) a prípadne naše Smernice pre oprávnenosť obsahu na odporúčanie a Reklamné pravidlá. 


V 1. polroku 2024 všetko naše proaktívne odhaľovanie prebehlo pomocou automatických nástrojov. Keď naše automatické nástroje odhalia potenciálne porušenie našich zásad, buď automaticky podniknú kroky v súlade s našimi zásadami, alebo vytvoria úlohu na prešetrenie ľuďmi. Počet a typy obmedzení zavedených v dôsledku tohto procesu je opísaný nižšie. 


  • Počet a typy obmedzení prijatých z vlastnej iniciatívy spoločnosti Snap

V 1. polroku 2024 spoločnosť Snap podnikla nasledovné opatrenia na presadzovanie dodržiavania predpisov po proaktívnom odhaľovaní porušení našich Smerníc komunity (vrátane porušení, ktoré predstavujú nezákonný obsah a aktivity podľa zákonov EÚ a členských štátov) prostredníctvom automatických nástrojov:

Okrem toho sme v 1. polroku 2024 v súvislosti s obsahom na našich verejných vysielacích platformách podnikli nasledujúce kroky po proaktívnej detekcii porušení našich Smerníc pre oprávnenosť obsahu na odporúčanie na Snapchate pomocou automatizovaných nástrojov:

* Ako je uvedené v našich Usmerneniach o oprávnenosti obsahu na odporúčanie, účty, ktoré opakovane alebo závažným spôsobom porušujú naše Usmernenia o oprávnenosti obsahu na odporúčanie, môžu byť dočasne alebo natrvalo diskvalifikované z odporúčaní na našich verejných vysielacích plochách. Túto činnosť uplatňujeme v rámci nášho proaktívneho moderovania.

V prvom polroku 2024 sme po proaktívnom zistení porušenia našich reklamných pravidiel na Snapchate pomocou automatizovaných nástrojov prijali nasledujúce opatrenia:

  • Opatrenia prijaté na zabezpečenie odbornej prípravy a pomoci osobám zodpovedným za moderovanie obsahu


Naše tímy pre moderovanie obsahu uplatňujú naše zásady moderovania obsahu, aby pomohli chrániť našu komunitu na Snapchate. Školia sa počas niekoľkých týždňov, počas ktorých sú noví členovia tímu oboznámení so zásadami, nástrojmi a postupmi eskalácie spoločnosti Snap. Naše moderátorské tímy sa pravidelne zúčastňujú na zdokonaľovacích školeniach týkajúcich sa ich pracovných postupov, najmä keď sa stretávame s prípadmi, ktoré sú na hranici politiky a závisia od kontextu. Realizujeme tiež programy zvyšovania kvalifikácie, certifikačné stretnutia a kvízy, aby sme zabezpečili, že všetci moderátori sú aktuálni a dodržiavajú všetky aktualizované zásady. A nakoniec, keď sa na základe aktuálnych udalostí objavia naliehavé trendy v obsahu, rýchlo šírime vysvetlenia zásad, aby tímy mohli reagovať v súlade so zásadami spoločnosti Snap.


Našim moderátorským tímom poskytujeme významnú podporu a zdroje vrátane podpory wellness na pracovisku a ľahkého prístupu k službám duševného zdravia.

c) Sťažnosti prijaté prostredníctvom interných systémov spoločnosti Snap na vybavovanie sťažností (t. j. odvolaní) 
(článok 15.1 písm. d))


Používatelia, ktorým naše bezpečnostné tímy zablokovali účty z dôvodu porušenia pravidiel komunity (vrátane nezákonného obsahu a činností), môžu podať odvolanie proti zablokovaniu účtu.. Používatelia sa môžu proti určitým rozhodnutiam o moderovaní obsahu aj odvolať.

Počas vykazovaného obdobia (1. polrok 2024) spoločnosť Snap spracovala nasledujúce odvolania (vrátane odvolaní proti zablokovaniu účtu aj proti rozhodnutiam o moderovaní na úrovni obsahu) podané prostredníctvom svojich interných systémov na vybavovanie sťažností v EÚ:

d) Používanie automatizovaných nástrojov na účely moderovania obsahu 
(Články 15.1, písm. e). a 42.2 písm. c))

  • Kvalitatívny opis a účely

Ako je vysvetlené vyššie v oddiele 3 písm. b), používame automatické nástroje na proaktívne odhaľovanie porušovania našich podmienok a zásad na našich platformách s verejným obsahom a v niektorých prípadoch aj na presadzovanie dodržiavania zákonov.
Patria sem nástroje na párovanie hashov (vrátane PhotoDNA a Google CSAI Match), modely na odhaľovanie hanlivého jazyka (ktoré odhaľujú a odmietajú obsah na základe identifikovaného a pravidelne aktualizovaného zoznamu hanlivých kľúčových slov a emoji) a umelá inteligencia / technológia strojového učenia. Naše automatické nástroje sú navrhnuté tak, aby odhaľovali porušenia našich Smerníc komunity (ktoré, okrem iného, zakazujú nezákonný obsah) a prípadne naše Smernice pre oprávnenosť obsahu na odporúčanie a Reklamné pravidlá. 

Keď naše automatické nástroje odhaľia potenciálne porušenie našich zásad, buď autoaticky podniknú kroky v súlade s našimi zásadami, alebo vytvoria úlohu na prešetrenie ľuďmi. 

  • Ukazovateľe presnosti a možnej miery chýb rozdelené podľa členských štátov


Presnosť našich automatickcýh nástrojov moderovania monitorujeme výberom náhodných vzoriek spracovaných úloh našimi automatickými nástrojmi na našich verejných platformách a ich predložení na kontrolu našimi tímami ľudských moderátorov. Miera presnosti je percento úloh z týchto náhodných vzoriek, ktoré boli potvrdené ľudskými moderátormi po opätovnej kontrole. Miera chybovosti je rozdiel medzi 100 % a mierou presnosti vypočítanou spôsobom opísaným vyššie. 

Na základe vzorkovania v 1. polroku 2024 indikátory presnosti a možnej miery chybovosti automatických prostriedkov používaných pri všetkých kategóriách porušení predpisov boli približne 93 % a miera chybovosti bola približne 7 %. 

Vo všeobecnosti nesledujeme jazyk obsahu, ktorý moderujeme na Snapchate, a preto nemôžeme poskytnúť rozdelenie presnosti a miery chybovosti našich automatických nástrojov moderovania pre každý oficiálny jazyk členských štátov zvlášť.  Ako náhradu za tieto informácie nižšie poskytujeme rozdelenie miery presnosti a chybovosti pri automaticky moderovanom obsahu pochádzajúcom z každého členského štátu. 

  • Bezpečnostné opatrenia


Uvedomujeme si potenciálny vplyv automatizovaných nástrojov na moderovanie na základné práva a zavádzame ochranné opatrenia na minimalizáciu tohto vplyvu.

Naše nástroje na automatické moderovanie obsahu sa pred nasadením na Snapchate testujú. Modely sa testujú offline z hľadiska výkonu a nasadzujú sa prostredníctvom A/B testovania, aby sa zabezpečilo ich správne fungovanie pred úplným zavedením do výroby. Vykonávame kontroly zabezpečenia kvality (QA) pred spustením, kontroly pri spustení a priebežné presné kontroly zabezpečenia kvality počas čiastočných (postupných) spustení. 

Po spustení našich automatizovaných nástrojov priebežne vyhodnocujeme ich výkonnosť a presnosť a podľa potreby ich upravujeme. Tento proces zahŕňa opätovné preskúmanie vzoriek automatizovaných úloh našimi ľudskými moderátormi s cieľom identifikovať modely, ktoré si vyžadujú úpravy na zvýšenie presnosti. Prostredníctvom náhodného denného výberu verejných príbehov monitorujeme aj výskyt konkrétnych poškodení na Snapchate a tieto informácie využívame na identifikáciu oblastí, ktoré je potrebné ďalej zlepšovať.

Naše zásady a systémy podporujú konzistentné a spravodlivé presadzovanie a to vrátane aj našich automatizovaných nástrojov a poskytujú používateľom Snapchatu možnosť zmysluplne namietať voči výsledkom presadzovania prostredníctvom procesov oznamovania a odvolania, ktorých cieľom je chrániť záujmy našej komunity a zároveň chrániť práva jednotlivých používateľov Snapchatu.

Snažíme sa neustále zlepšovať naše automatizované nástroje na moderovanie obsahu, aby sme zvýšili ich presnosť a podporili dôsledné a spravodlivé presadzovanie našich zásad.

e) Spory predložené orgánom mimosúdneho riešenia sporov podľa článku 21
(článok 24.1 písm. a))

Za vykazované obdobie (1. polrok 2024) bol počet sporov predložených formálne certifikovaným orgánom mimosúdneho riešenia sporov v súlade s článkom 21 DSA nula (0) a nie sme schopní poskytnúť rozpis odrážajúci výsledky, medián času ukončenia alebo podiel sporov, v ktorých spoločnosť Snap vykonala rozhodnutia orgánu mimosúdneho riešenia sporov.

Upozorňujeme, že v 1. polroku 2024 sme dostali dve (2) oznámenia o sporoch predložených orgánu, ktorý sa usiluje o certifikáciu ako orgán mimosúdneho urovnávania sporov podľa článku 21 DSA. Tieto spory sme nezahrnuli do uvedeného počtu, keďže orgán, ktorý tieto oznámenia o sporoch zaslal, nebol schopný na našu žiadosť overiť ich certifikačný status.

f) Pozastavenia uložené podľa článku 23 
(článok 24.1 písm. b))
  • Pozastavenia podľa článku 23.1: pozastavenie účtov, ktoré často poskytujú zjavne nezákonný obsah 

Ako je vysvetlené v našom vysvetlení o moderovaní, presadzovaní a odvolaniach na Snapchate, účty, o ktorých zistíme, že sa používajú najmä na porušovanie našich smerníc komunity (vrátane poskytovania zjavne nezákonného obsahu), a účty, ktoré páchajú závažné škody, sa okamžite deaktivujú. Pri iných porušeniach našich Smerníc komunity spoločnosť Snap vo všeobecnosti uplatňuje postup postihovania zložený z troch častí:

  • Prvý krok: odstránime obsah porušujúci predpisy.

  • Druhý krok: Dotyčný Snapchatter dostane oznámenie o porušení našich Smerníc komunity, o odstránení daného obsahu a varovanie, že opakované porušovanie predpisov bude mať za následok ďalšie opatrenia vrátane zablokovania účtu.

  • Tretí krok: náš tím zaznamená tomuto účtu Snapchattera jeden strajk.

Informácie o počte zásahov (t. j. varovaní) a zablokovaní uložených v 1. polroku 2024 na účtoch v EÚ v súvislosti s obsahom alebo aktivitami na verejných plochách Snapchatu nájdete vyššie v častiach 3 a) a 3 b).

  • Pozastavenia podľa článku 23 ods. 2: pozastavenie spracovania oznámení a sťažností od jednotlivcov, subjektov a sťažovateľov, ktorí často podávajú zjavne neopodstatnené oznámenia alebo sťažnosti

Pri uplatnení našej internej definície „zjavne neopodstatnených“ oznámení a sťažností a našich interných prahových hodnôt, ktoré považujeme za časté podávanie takýchto oznámení a sťažností, je počet pozastavení spracovania oznámení a sťažností uložených v 1. polroku 2024 podľa článku 23.2 DSA nasledovný:

4. Informácie o našich tímoch pre moderovanie obsahu 
a) Ľudské zdroje určené na moderovanie obsahu vrátane dodržiavania článkov 16, 20 a 22 DSA, rozdelené podľa úradných jazykov členských štátov
(článok 42.2 písm. a))


Naše tímy pre moderovanie obsahu pôsobia na celom svete, čo nám umožňuje udržiavať Snapchatterov v bezpečí 24 hodín denne 7 dní v týždni. Nižšie nájdete rozpis našich ľudských moderátorských zdrojov podľa jazykových špecializácií moderátorov (upozorňujeme, že niektorí moderátori sa špecializujú na viaceré jazyky) k 30. júnu 2024:

Tabuľka vyššie obsahuje všetky ľudské zdroje určené na moderovanie obsahu, ktoré podporujú oficiálne jazyky členských štátov EÚ k 30. júnu 2024. V situáciách, keď potrebujeme ďalšiu jazykovú podporu, využívame prekladateľské služby.

b) Kvalifikácia a lingvistická odbornosť moderátorov obsahu; poskytnutý tréning a príprava
(Článok 42.2(b))


Moderátori sú prijímaní na základe štandardného opisu práce, ktorý zahŕňa jazykové požiadavky (v závislosti od potreby). V jazykovej požiadavke sa uvádza, že uchádzač by mal byť schopný preukázať plynulú písomnú a ústnu znalosť jazyka a mať aspoň ročnú skúsenosť pre základné pozície. Uchádzači musia spĺňať požiadavky na vzdelanie a odbornú prípravu, aby boli zaradení do výberového konania. Kandidáti musia tiež preukázať, že rozumejú aktuálnym udalostiam v krajine alebo regióne, v ktorom budú moderovať obsah. 

Vyššie nájdete informácie o tréningu a podpore, ktoré spoločnosť Snap poskytuje moderátorom obsahu, čo je samostatne požadované podľa Článku 15, ods. 1, písm. c, a preto zahrnuté do Oddielu 3, písm. b, v poslednom pododdiele s názvom „Opatrenia prijaté kvôli poskytnutiu odbornej prípravy a asistencie osobám zodpovedným za moderovanie obsahu

Správa o skenovaní médií podľa sexuálneho zneužívania a vykorisťovania a detí (CSEA)


Pozadie

Sexuálne vykorisťovanie ktoréhokoľvek člena našej komunity, najmä neplnoletých, je nezákonné, ohavné a naše Smernice komunity ho zakazujú. Prevencia, odhaľovanie a odstraňovanie sexuálneho vykorisťovania a zneužívania detí (CSEA) na našej platforme je pre Snap najvyššou prioritou a neustále rozvíjame naše schopnosti na boj proti týmto a iným zločinom.


Používame robustné porovnávanie hašov PhotoDNA či Detekciu obsahu zobrazujúceho sexuálne zneužívanie detí od Googlu a nahlasujeme ich Národnému centru pre nezvestné a zneužívané deti v USA (NCMEC), ako to vyžaduje zákon. NCMEC potom podľa potreby koordinuje s vnútroštátnymi alebo medzinárodnými orgánmi činnými v trestnom konaní.


Správa

Nižšie uvedené údaje sú založené na výsledku proaktívneho skenovania pomocou PhotoDNA a Detekciu CSAI médií nahraných pomocou kamerového záznamu na Snapchat.

Zastavenie sexuálneho vykorisťovania detí je najvyššou prioritou. Spoločnosť Snap na to venuje značné prostriedky a má nulovú toleranciu pre takéto správanie.  Na preskúmanie odvolaní v prípadoch sexuálneho vykorisťovania detí (CSE) je potrebné špeciálne vyškolenie a z dôvodu grafického charakteru obsahu má spoločnosť obmedzený tím zástupcov, ktorí sa týmito kontrolami zaoberajú.  Na jeseň roku 2023 spoločnosť Snap zaviedla zmeny zásad, ktoré ovplyvnili konzistenciu určitého presadzovania pravidiel týkajúcich sa sexuálneho vykorisťovania detí, a tieto nezrovnalosti sme vyriešili preškolením zástupcov a prísnym zabezpečením kvality.  Očakávame, že ďalšia správa o transparentnosti odhalí pokrok v zlepšovaní času reakcie pri odvolaniach v prípadoch sexuálneho vykorisťovania detí a zlepšenie presnosti spracovania počiatočných nahlásení.  

Ochranné opatrenia na moderovanie obsahu

Ochranné opatrenia použité pri skenovaní médií podľa CSEA sú uvedené vyššie v sekcii „Ochranné opatrenia na moderovanie obsahu“ v rámci našej správy v súvislosti s DSA.


Správa Európskej únie o transparentnosti teroristického obsahu online

Zverejnené: 17 jún 2024

Posledná aktualizácia: 17. jún 2024

Táto Správa o transparentnosti sa uverejňuje v súlade s článkom 7, ods. 2 a článkom 7, ods. 3 Nariadenia Európskeho parlamentu a Rady 2021/784 o šírení teroristického obsahu na internete (Nariadenie). Týka sa vykazovacieho obdobia od 1. januára do 31. decembra 2023


Všeobecné informácie
  • Článok 7, ods. 3
    (a): informácie o opatreniach poskytovateľa hostingových služieb v súvislosti s identifikáciou a odstraňovaním teroristického obsahu alebo znemožnením prístupu k nemu;

  • Článok 7, ods. 3.
    (b): informácie o opatreniach poskytovateľa hostingových služieb na účely riešenia opätovného výskytu materiálu online, ktorý bol predtým odstránený alebo ku ktorému bol znemožnený prístup, pretože sa považoval za teroristický obsah, najmä ak sa použili automatizované nástroje;


Teroristi, teroristické organizácie a násilní extrémisti majú zakázané používať Snapchat. Obsah presadzujúci, propagujúci alebo podporujúci terorizmus alebo iné násilné, trestné činy je zakázaný podľa našich Smerníc komunity. Používatelia môžu nahlasovať obsah, ktorý porušuj naše Smernice komunity cez našu ponuku nahlasovania v aplikácii a našu Stránku podpory. Taktiež používame proaktívnu detekciu na identifikovanie obsahu porušujúceho predpisy na verejných platformách ako Stred záujmu a Objaviť. 


Bez ohľadu na to, ako sa dozvieme o obsahu porušujúcom predpisy, naše Tímy dôvery a bezpečnosti pomocou kombinácie automatizácie a ľudskej moderácie promptne preskúmajú identifikovaný obsah a prijímajú rozhodnutia o presadzovaní práva. Presadzovanie môže zahŕňať odstránenie obsahu, varovanie alebo uzamknutie účtu porušujúceho pravidlá a ak je to oprávnené, nahlásenie účtu orgánom činným v trestnom konaní. Aby sme zabránili opätovnému výskytu teroristického alebo iného násilného extrémistického obsahu na Snapchate, okrem spolupráce s orgánmi činnými v trestnom konaní podnikáme kroky k zablokovaniu zariadení spojených s účtami porušujúcimi predpisy a zabráneniu danému používateľovi opätovne si vytvoriť iný Účet Snapchat. 


Ďalšie podrobnosti o našich opatreniach na identifikáciu a odstránenie teroristického obsahu nájdete v našom Vysvetlení o nenávistnom obsahu, terorizme a násilnom extrémizme a v našom Vysvetlení o moderovaní, presadzovaní dodržiavania predpisov a odvolávaní sa



Správy a presadzovanie dodržiavania práva 
  • Článok 7, ods. 3
    (c): počet položiek teroristického obsahu, ktorý bol odstránený alebo ku ktorému bol znemožnený prístup na základe príkazov na odstránenie alebo osobitných opatrení, a počet príkazov na odstránenie, v prípade ktorých obsah nebol odstránený alebo k nemu nebol znemožnený prístup podľa článku 3 ods. 7 prvého pododseku a článku 3 ods. 8 prvého pododseku, spolu s dôvodmi neodstránenia alebo neznemožnenia prístupu;


Počas vykazovacieho obdobia spoločnosť Snap nedostala žiadne príkazy na odstránenie, ani sme neboli povinní uplatniť žiadne konkrétne opatrenia v zmysle článku 5 Nariadenia. Preto sme neboli povinní podniknúť kroky na presadzovanie dodržiavania práva podľa Nariadenia.


Nasledujúca tabuľka opisuje opatrenia na presadzovanie dodržiavania práva, ktoré sme podnikli na základe nahlásení od používateľov a na základe proaktívnej detekcie obsahu a účtov v EÚ aj inde vo svete, ktoré porušili naše Smernice komunity týkajúce sa teroristického a násilne extrémistického obsahu

Odvolania v súvislosti s presadzovaním práva
  • Článok 7 ods. 3 písm. d): počet a výsledok sťažností vybavených poskytovateľom hostingových služieb v súlade s článkom 10

  • Článok 7 ods. 3 písm. g): počet prípadov, v ktorých poskytovateľ hostingových služieb znovu uviedol obsah alebo prístup k nemu na základe sťažnosti poskytovateľa obsahu


Keďže sme počas vykazovaného obdobia, ako je uvedené vyššie, nevykonávali žiadne opatrenia na presadzovanie práva vyžadované podľa nariadenia, neriešili sme žiadne sťažnosti podľa článku 10 nariadenia a nemali sme žiadne súvisiace opätovné uplatnenia.


Nasledujúca tabuľka obsahuje informácie o odvolaniach a opätovných uplatneniach v EÚ aj inde vo svete, ktoré sa týkali teroristického a násilného extrémistického obsahu, presadzovaných podľa našich smerníc komunity.

Súdne konania a odvolania
  • Článok 7, ods. 3, písm. e): počet a výsledky správnych alebo súdnych konaní o preskúmaní začatých poskytovateľom hostingových služieb

  • Článok 7, ods. 3, písm. f): počet prípadov, v ktorých bol poskytovateľ hostingových služieb povinný obnoviť obsah alebo prístup k nemu v dôsledku správnych alebo súdnych konaní o preskúmaní


Keďže sme počas vykazovacieho obdobia nevykonali žiadne opatrenia na presadzovanie predpisov podľa Nariadenia, ako je uvedené vyššie, nemali sme žiadne súvisiace správne ani súdne konania o preskúmaní a neboli sme povinní obnoviť obsah v dôsledku takýchto konaní.

Hodnotenie rizík DSA

Táto správa bola pripravená za cieľom dodržiavať povinnosti spoločnosti Snap podľa článkov 34 a 35 nariadenia (EÚ) 2022/2065 a poskytuje výsledky nášho posúdenia systémových rizík vyplývajúcich z návrhu, funkcie a používania online platforiem spoločnosti Snapchat, spolu s metodikou použitou na posúdenie týchto rizík a opatrení na zmiernenie dôsledkov uvedených rizík.


Správa o hodnotení rizika a zmierňovaní sporov týkajúcich sa DSA | Snapchat | August 2023 (PDF)


Audit a implementácia auditu DSA

Tieto správy boli pripravené na plnenie povinností spoločnosti Snap podľa článku 37 nariadenia (EÚ) 2022/2065 a stanovili: (I) výsledky nezávislého auditu dodržiavania povinností spoločnosti Snap stanovených v kapitole III nariadenia (EÚ) 2022/2065 a II) opatrenia prijaté na zavedenie prevádzkových odporúčaní z tohto nezávislého auditu.

Správa o nezávislom audite DSA | Snapchat | august 2024 (PDF)

Správa o implementácii auditu DSA | Snapchat | september 2024 (PDF)



Kódex postupov VSP EÚ

Spoločnosť Snap je poskytovateľ „služby platformy na zdieľanie videí“ („VSP“) podľa článku 1 ods. 1 písm. aa smernice o audiovizuálnych mediálnych službách (AVMSD). Tento Kódex správania (ďalej len „Kódex“) bol vypracovaný s cieľom popísať, ako spoločnosť Snap dodržiava svoje povinnosti ako VSP podľa Holandského zákona o médiách („DMA“) a Smernice 2010/13 EÚ (zmenená a doplnená Smernicou 2018/1808 EÚ („Smernica o audiovizuálnych mediálnych službách“ alebo „AVMSD“)). Kódex sa uplatňuje v celej Európskej únii ako aj v Európskom hospodárskom priestore.

Kódex správania VSP EÚ | Snapchat | December 2024 (PDF)