Európska únia
1. júl 2023 – 31. december 2023

Uverejnené:

25. apríl 2024

Aktualizované:

25. apríl 2024

Vitajte na našej stránke pre transparentnosť v Európskej únii (EÚ), kde zverejňujeme informácie špecifické pre EÚ požadované aktom o digitálnych službách (DSA), smernicou o audiovizuálnych mediálnych službách (AVMSD) a holandským zákonom o médiách (DMA). Upozorňujeme, že najaktuálnejšiu verziu týchto Správ o transparentnosti možno nájsť v lokálnom nastavení en-US.

Právny zástupca 

Spoločnosť Snap Group Limited vymenovala spoločnosť Snap B.V. za svojho právneho zástupcu pre účely DSA. Zástupcu pre DSA môžete kontaktovať na adrese dsa-enquiries [zavináč] snapchat.com, pre AVMSD a DMA na adrese vsp-enquiries [zavináč] snapchat.com, prostredníctvom našej Stránky podpory [tu] alebo na:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holandsko

Ak ste orgán činný v trestnom konaní, postupujte podľa krokov uvedených tu. Ak nás kontaktujete, komunikujte, prosím, v holandčine alebo angličtine.

Regulačné orgány

V prípade DSA sme regulovaní Európskou komisiou a holandským Úradom pre spotrebiteľov a trhy (ACM). V prípade AVMSD a DMA sa riadime holandským Úradom pre médiá (CvdM)

Správa o transparentnosti podľa DSA

Články 15, 24 a 42 zákona DSA vyžadujú, aby spoločnosť Snap zverejňovala správy obsahujúce predpísané informácie týkajúce sa moderovania obsahu spoločnosti Snap pre služby Snapchatu, ktoré sa považujú za „online platformy“, t. j. Stred záujmu, Pre vás, Verejné profily, Mapy, Šošovky a Reklama. Táto správa sa musí od 25. októbra 2023 zverejňovať každých 6 mesiacov.

Spoločnosť Snap zverejňuje správy o transparentnosti dvakrát ročne, aby poskytla prehľad o snahách spoločnosti Snap v oblasti bezpečnosti a povahe a objeme obsahu nahláseného na našej platforme. Našu najnovšiu správu za H2 2023 (1. júla – 31. decembra) nájdete tu. Ukazovatele špecifické pre akt o digitálnych službách nájdete na tejto stránke.

Priemerní mesační aktívni príjemcovia
(Články 24.2 a 42.3 DSA)

K 31. decembru 2023 máme v EÚ 90,9 milióna priemerných mesačných aktívnych príjemcov („AMAR“) našej aplikácie Snapchat. To znamená, že v priemere za posledných 6 mesiacov si 90,9 milióna registrovaných používateľov v EÚ otvorilo aplikáciu Snapchat aspoň raz počas daného mesiaca.

Tento údaj sa rozdeľuje podľa členských štátov takto:

Tieto údaje boli vypočítané tak, aby vyhovovali súčasným pravidlám DSA a mali by ste sa na ne spoliehať len na účely DSA. Zmenili sme spôsob, akým počítame toto číslo v priebehu času, a to aj v reakcii na zmenu vnútornej politiky, pokyny regulačných orgánov a technológie a údaje by sa nemali porovnávať medzi jednotlivými obdobiami. Môže sa to líšiť aj od výpočtov používaných pre iné aktívne údaje používateľov, ktoré zverejňujeme na iné účely.


Žiadosti správnych orgánov členských štátov
(článok 15 ods. 1 písm. a) aktu o digitálnych službách)

Žiadosti o stiahnutie 

Počas tohto obdobia sme od členských štátov EÚ dostali 0 žiadostí podľa článku 9 aktu o digitálnych službách. 

Žiadosti o informácie 

Počas tohto obdobia sme od členských štátov EÚ dostali nasledujúce žiadosti o informácie podľa článku 10 aktu o digitálnych službách:

Medián času oznámenia správnym orgánom prijatie žiadostí o informácie je 0 minút – poskytujeme automatickú odpoveď potvrdzujúcu prijatie. Stredná doba spracovania žiadostí o informácie je ~10 dní. Táto metrika odráža časové obdobie od momentu, keď spoločnosť Snap dostane žiadosť o informácie, po moment, keď je spoločnosť Snap presvedčená, že žiadosť je v plnej miere vyriešená. V niektorých prípadoch dĺžka tohto procesu závisí čiastočne od rýchlosti reakcie orgánov činných v trestnom konaní na všetky žiadosti o objasnenie od spoločnosti Snap, ktoré sú potrebné na spracovanie danej žiadosti.

Moderácia obsahu 


Všetok obsah na Snapchate musí byť v súlade s našimi Smernicami komunity a Podmienkami používania, ako aj s doplňujúcimi podmienkami, pokynmi a vysvetlivkami. Proaktívne detekčné mechanizmy a hlásenia o nezákonnom alebo porušujúcom obsahu či účtoch si vyžiadajú kontrolu – v tomto bode naše systémy nástrojov spracujú požiadavku, zhromaždia relevantné metadáta a nasmerujú relevantný obsah nášmu moderátorskému tímu prostredníctvom štruktúrovaného používateľského rozhrania, ktoré je navrhnuté tak, aby uľahčilo účinné a efektívne operácie kontrolného preskúmania. Keď naše moderátorské tímy zistia, či už prostredníctvom kontroly človekom alebo automatickými prostriedkami, že používateľ porušil naše Podmienky, môžeme odstrániť predmetný obsah alebo účet, ukončiť alebo obmedziť viditeľnosť príslušného účtu a/alebo upozorniť orgány činné v trestnom konaní, ako je to popísané v časti Vysvetlenie moderovania, presadzovania pravidiel a odvolaní služby Snapchat.  Používatelia, ktorých účty boli uzamknuté naším bezpečnostným tímom pre porušenie Smerníc komunity, môžu odoslať odvolanie proti uzamknutiu účtu a môžu sa odvolať proti určitým reštrikčným opatreniam voči obsahu.

Nahlásenia obsahu a účtov (článok 15 ods. 1 písm. b aktu o digitálnych službách)

Spoločnosť Snap zaviedla mechanizmy, ktoré používateľom aj nepoužívateľom umožňujú nahlásiť spoločnosti Snap obsah a účty porušujúce naše Smernice komunity a Podmienky používania na platforme vrátane tých, ktoré považujú za nezákonné podľa článku 16 aktu o digitálnych službách.  Tieto mechanizmy nahlasovania sú dostupné v samotnej aplikácii (t. j. priamo v danom obsahu) a na našej stránke.

Počas príslušného obdobia sme v EÚ dostali nasledujúce nahlásenia o obsahu a účtov:

V 2. polroku 2023 sme spracovali 664 896 oznámení výhradne prostredníctvom automatických prostriedkov. V prípade všetkých boli presadené naše Smernice komunity, pretože Smernice komunity zahŕňajú aj opatrenia proti nelegálnemu obsahu. 

Okrem obsahu vytvoreného používateľmi a účtov moderujeme aj reklamy, ak porušujú pravidlá našej platformy. Nižšie je uvedený počet všetkých reklám, ktoré boli v EÚ nahlásené a odstránené. 

Oznámenia dôveryhodných oznamovateľov (článok 15 ods. 1 písm. b))

Počas obdobia zahrnutého v našej najnovšej Správe o transparentnosti (2. polrok 2023) neboli oficiálne vymenovaní žiadni dôveryhodní oznamovatelia podľa aktu o digitálnych službách. V dôsledku toho bol počet oznámení predložených takýmito dôveryhodnými oznamovateľmi v tomto období nulový (0).

Proaktívne moderovanie obsahu (článok 15 ods. 1 písm. c))

Počas príslušného obdobia spoločnosť Snap zakázala v EÚ nasledujúce účty a obsah po tom, ako z vlastnej iniciatívy použila moderovanie obsahu:

Spoločnosť Snap využívala pri všetkom moderovaní z vlastnej iniciatívy ľudí alebo automatizáciu. Na našich verejných obsahových plochách obsah vo všeobecnosti prechádza automatickým moderovaním aj kontrolou človekom, kým je schválený ako vhodný na distribúciu širokému publiku. Pokiaľ ide o automatizované nástroje, patria medzi ne:

  • proaktívne odhaľovanie nezákonného a porušujúceho obsahu pomocou strojového učenia;

  • nástroje na porovnávanie hašov (tzv. hash-matching, ako napríklad PhotoDNA a detekcia CSAI Match od Googlu);

  • detekcia urážlivého jazyka na odmietnutie obsahu na základe identifikovaného a pravidelne aktualizovaného zoznamu urážlivých kľúčových slov vrátane emoji.


Odvolania (článok 15 ods. 1 písm. d))

Počas príslušného obdobia spoločnosť Snap v EÚ spracovala prostredníctvom svojich interných systémov na vybavovanie sťažností nasledujúce odvolania v súvislosti s obsahom a účtami:


* Zastavenie sexuálneho vykorisťovania detí je najvyššou prioritou. Spoločnosť Snap na to venuje značné prostriedky a má nulovú toleranciu pre takéto správanie.  Na preskúmanie odvolaní v prípadoch sexuálneho vykorisťovania detí (CSE) je potrebné špeciálne vyškolenie a z dôvodu grafického charakteru obsahu má spoločnosť obmedzený tím zástupcov, ktorí sa týmito kontrolami zaoberajú.  Na jeseň roku 2023 spoločnosť Snap zaviedla zmeny zásad, ktoré ovplyvnili konzistenciu určitého presadzovania pravidiel týkajúcich sa sexuálneho vykorisťovania detí, a tieto nezrovnalosti sme vyriešili preškolením zástupcov a prísnym zabezpečením kvality.  Očakávame, že ďalšia správa o transparentnosti odhalí pokrok v zlepšovaní času reakcie pri odvolaniach v prípadoch sexuálneho vykorisťovania detí a zlepšenie presnosti spracovania počiatočných nahlásení. 

Automatizované prostriedky na moderovanie obsahu (Článok 15.1(e))

Na našich verejných obsahových plochách obsah vo všeobecnosti prechádza automatickým moderovaním aj kontrolou človekom, kým je schválený ako vhodný na distribúciu širokému publiku. Pokiaľ ide o automatizované nástroje, patria medzi ne:

  • proaktívne odhaľovanie nezákonného a porušujúceho obsahu pomocou strojového učenia;

  • nástroje na porovnávanie hašov (tzv. hash-matching, ako napríklad PhotoDNA a detekcia CSAI Match od Googlu);

  • detekcia urážlivého jazyka na odmietnutie obsahu na základe identifikovaného a pravidelne aktualizovaného zoznamu urážlivých kľúčových slov vrátane ikon emodži.


Presnosť technológií automatického moderovania pre všetky škody bola približne 96,61 % a miera pochybenia bola približne 3,39 %.


Záruky moderovania obsahu (Články 15.1(e))

Uvedomujeme si, že s moderovaním obsahu sú spojené riziká vrátane rizík pre slobodu prejavu a zhromažďovania, ktoré môžu byť spôsobené zaujatosťou automatizovaných a ľudských moderátorov a zneužívaním správ vrátane správ vlád, politických skupín alebo dobre organizovaných jednotlivcov. Snapchat vo všeobecnosti nie je miestom pre politický alebo aktivistický obsah, najmä v našich verejných priestoroch.


Napriek tomu má spoločnosť Snap na ochranu pred týmito rizikami zavedené testovanie a školenia a má spoľahlivé a konzistentné postupy na spracovanie hlásení o nezákonnom alebo porušujúcom obsahu vrátane hlásení od orgánov činných v trestnom konaní a vládnych orgánov. Neustále vyhodnocujeme a vyvíjame naše algoritmy moderovania obsahu. Hoci je ťažké odhaliť potenciálne poškodenie slobody prejavu, nie sme si vedomí žiadnych závažných problémov a používateľom poskytujeme možnosti nahlasovania chýb, ak sa vyskytnú.


Naše zásady a systémy podporujú konzistentné a spravodlivé presadzovanie a, ako je opísané vyššie, poskytujú používateľom Snapchatu možnosť zmysluplne namietať voči výsledkom presadzovania prostredníctvom procesov oznamovania a odvolania, ktorých cieľom je chrániť záujmy našej komunity a zároveň chrániť práva jednotlivých používateľov Snapchatu.

Neustále sa snažíme zlepšovať naše zásady a procesy presadzovania práva a urobili sme veľký pokrok v boji proti potenciálne škodlivému a nezákonnému obsahu a aktivitám v aplikácii Snapchat. To sa odráža vo vzostupnej tendencii našich údajov o nahlasovaní a presadzovaní práva uvedených v našej najnovšej Správe o transparentnosti a v celkovo klesajúcej miere výskytu porušení pravidiel na Snapchate.


Mimosúdne urovnania sporov (článok 24 ods. 1 písm. a))

Počas obdobia zahrnutého v našej najnovšej Správe o transparentnosti (2. polrok 2023) neboli oficiálne vymenované žiadne orgány mimosúdneho urovnávania sporov podľa aktu o digitálnych službách. Výsledkom toho je, že počet sporov predložených takýmto orgánom bol v tomto období nula (0) a my nemôžeme poskytnúť výsledky, medián času spracovania pre urovnania sporov ani podiel sporov, pri ktorých sme implementovali rozhodnutia takéhoto orgánu. 



Pozastavenie účtu (Článok 24.1(b))

Počas 2. polroka 2023 sme nepresadili žiadne pozastavenia účtov podľa článku 23. Tím dôvery a bezpečnosti spoločnosti Snap má zavedené postupy, ktoré obmedzujú možnosti používateľských účtov často podávať nahlásenia a sťažnosti, ktoré sú zjavne neopodstatnené. Tieto postupy zahŕňajú obmedzenie vytvárania duplicitných hlásení a používanie e-mailových filtrov tak, aby sa zabránilo používateľom, ktorí často predkladajú zjavne nepodložené hlásenia, pokračovať v takejto činnosti. Spoločnosť Snap však podniká príslušné kroky na presadzovanie práva voči účtom, ako je uvedené v našom vysvetlení o moderovaní, presadzovaní práva a odvolaniach spoločnosti Snapchat a informácie týkajúce sa úrovne presadzovania práva voči účtom spoločnosti Snap nájdete v našej Správe o transparentnosti (2. polrok 2023). Tieto opatrenia sa budú neustále posudzovať a zdôrazňovať.


Prostriedky, odbornosť a podpora moderátorov (článok 42 ods. 2)

Náš tím pre moderovanie obsahu pôsobí po celom svete, čo nám umožňuje udržiavať Snapchatterov v bezpečí 24 hodín denne, 7 dní v týždni. Nižšie nájdete rozpis našich ľudských moderátorských zdrojov podľa jazykových špecialít moderátorov (upozorňujeme, že niektorí moderátori sa špecializujú na viacero jazykov) k 31. decembru 2023:

Vyššie uvedená tabuľka obsahuje všetkých moderátoroch, ktorí podporujú jazyky členských štátov EU k31. decembru 2023. V situáciách, keď potrebujeme ďalšiu jazykovú podporu, využívame prekladateľské služby.

Moderátori sú prijímaní na základe štandardného opisu práce, ktorý zahŕňa jazykové požiadavky (v závislosti od potreby). V jazykovej požiadavke sa uvádza, že uchádzač by mal byť schopný preukázať plynulú písomnú a ústnu znalosť jazyka a mať aspoň ročnú pracovnú skúsenosť pre základné pozície. Uchádzači musia spĺňať požiadavky na vzdelanie a odbornú prípravu, aby boli zaradení do výberového konania. Kandidáti taktiež musia preukázať, že rozumejú aktuálnemu dianiu v krajine alebo regióne, v ktorom budú moderovať obsah.

Náš moderátorský tím uplatňuje naše zásady a vynucovacie opatrenia, aby pomohol chrániť našu komunitu Snapchat. Školenie prebieha počas niekoľkých týždňov, počas ktorých sú noví členovia tímu oboznámení so zásadami, nástrojmi a postupmi eskalácie spoločnosti Snap. Po absolvovaní školenia musí každý moderátor absolvovať certifikačnú skúšku a až potom môže hodnotiť obsah. Náš moderátorský tím sa pravidelne zúčastňuje na zdokonaľovacích školeniach, ktoré súvisia s jeho pracovnými postupmi, najmä keď sa stretávame s prípadmi, ktoré sú na hranici politiky a závisia od kontextu. Realizujeme tiež programy zvyšovania kvalifikácie, certifikačné stretnutia a kvízy, aby sme zabezpečili, že všetci moderátori sú aktuálni a dodržiavajú všetky aktualizované zásady. A nakoniec, keď sa na základe aktuálnych udalostí objavia naliehavé trendy v obsahu, rýchlo šírime vysvetlenia zásad, aby tímy mohli reagovať v súlade so zásadami spoločnosti Snap.

Nášmu tímu moderátorov obsahu – „prvým digitálnym respondentom“ spoločnosti Snap – poskytujeme významnú podporu a prostriedky vrátane podpory wellness na pracovisku a ľahkého prístupu k službám duševného zdravia.

Správa o skenovaní médií podľa sexuálneho zneužívania a vykorisťovania a detí (CSEA)


Pozadie

Sexuálne vykorisťovanie ktoréhokoľvek člena našej komunity, najmä neplnoletých, je nezákonné, ohavné a naše Smernice komunity ho zakazujú. Prevencia, odhaľovanie a odstraňovanie sexuálneho vykorisťovania a zneužívania detí (CSEA) na našej platforme je pre Snap najvyššou prioritou a neustále rozvíjame naše schopnosti na boj proti týmto a iným zločinom.


Používame robustné porovnávanie hašov PhotoDNA či Detekciu obsahu zobrazujúceho sexuálne zneužívanie detí od Googlu a nahlasujeme ich Národnému centru pre nezvestné a zneužívané deti v USA (NCMEC), ako to vyžaduje zákon. NCMEC potom podľa potreby koordinuje s vnútroštátnymi alebo medzinárodnými orgánmi činnými v trestnom konaní.


Správa

Nižšie uvedené údaje sú založené na výsledku proaktívneho skenovania pomocou PhotoDNA a Detekciu CSAI médií nahraných pomocou kamerového záznamu na Snapchat.

Zastavenie sexuálneho vykorisťovania detí je najvyššou prioritou. Spoločnosť Snap na to venuje značné prostriedky a má nulovú toleranciu pre takéto správanie.  Na preskúmanie odvolaní v prípadoch sexuálneho vykorisťovania detí (CSE) je potrebné špeciálne vyškolenie a z dôvodu grafického charakteru obsahu má spoločnosť obmedzený tím zástupcov, ktorí sa týmito kontrolami zaoberajú.  Na jeseň roku 2023 spoločnosť Snap zaviedla zmeny zásad, ktoré ovplyvnili konzistenciu určitého presadzovania pravidiel týkajúcich sa sexuálneho vykorisťovania detí, a tieto nezrovnalosti sme vyriešili preškolením zástupcov a prísnym zabezpečením kvality.  Očakávame, že ďalšia správa o transparentnosti odhalí pokrok v zlepšovaní času reakcie pri odvolaniach v prípadoch sexuálneho vykorisťovania detí a zlepšenie presnosti spracovania počiatočných nahlásení.  

Ochranné opatrenia na moderovanie obsahu

Ochranné opatrenia použité pri skenovaní médii podľa CSEA sú uvedené vyššie v sekcii „Ochranné opatrenia na moderovanie obsahu“ v rámci našej správy v súvislosti s DSA.


Správa o skenovaní médií podľa sexuálneho zneužívania a vykorisťovania a detí (CSEA)


Pozadie

Sexuálne vykorisťovanie ktoréhokoľvek člena našej komunity, najmä neplnoletých, je nezákonné, ohavné a naše Smernice komunity ho zakazujú. Prevencia, odhaľovanie a odstraňovanie sexuálneho vykorisťovania a zneužívania detí (CSEA) na našej platforme je pre Snap najvyššou prioritou a neustále rozvíjame naše schopnosti na boj proti týmto a iným zločinom.


Používame robustné porovnávanie hašov PhotoDNA či Detekciu obsahu zobrazujúceho sexuálne zneužívanie detí od Googlu a nahlasujeme ich Národnému centru pre nezvestné a zneužívané deti v USA (NCMEC), ako to vyžaduje zákon. NCMEC potom podľa potreby koordinuje s vnútroštátnymi alebo medzinárodnými orgánmi činnými v trestnom konaní.


Správa

Nižšie uvedené údaje sú založené na výsledku proaktívneho skenovania pomocou PhotoDNA a Detekciu CSAI médií nahraných pomocou kamerového záznamu na Snapchat.

Zastavenie sexuálneho vykorisťovania detí je najvyššou prioritou. Spoločnosť Snap na to venuje značné prostriedky a má nulovú toleranciu pre takéto správanie.  Na preskúmanie odvolaní v prípadoch sexuálneho vykorisťovania detí (CSE) je potrebné špeciálne vyškolenie a z dôvodu grafického charakteru obsahu má spoločnosť obmedzený tím zástupcov, ktorí sa týmito kontrolami zaoberajú.  Na jeseň roku 2023 spoločnosť Snap zaviedla zmeny zásad, ktoré ovplyvnili konzistenciu určitého presadzovania pravidiel týkajúcich sa sexuálneho vykorisťovania detí, a tieto nezrovnalosti sme vyriešili preškolením zástupcov a prísnym zabezpečením kvality.  Očakávame, že ďalšia správa o transparentnosti odhalí pokrok v zlepšovaní času reakcie pri odvolaniach v prípadoch sexuálneho vykorisťovania detí a zlepšenie presnosti spracovania počiatočných nahlásení.  

Ochranné opatrenia na moderovanie obsahu

Ochranné opatrenia použité pri skenovaní médii podľa CSEA sú uvedené vyššie v sekcii „Ochranné opatrenia na moderovanie obsahu“ v rámci našej správy v súvislosti s DSA.


Zastavenie sexuálneho vykorisťovania detí je najvyššou prioritou. Spoločnosť Snap na to venuje značné prostriedky a má nulovú toleranciu pre takéto správanie.  Na preskúmanie odvolaní v prípadoch sexuálneho vykorisťovania detí (CSE) je potrebné špeciálne vyškolenie a z dôvodu grafického charakteru obsahu má spoločnosť obmedzený tím zástupcov, ktorí sa týmito kontrolami zaoberajú.  Na jeseň roku 2023 spoločnosť Snap zaviedla zmeny zásad, ktoré ovplyvnili konzistenciu určitého presadzovania pravidiel týkajúcich sa sexuálneho vykorisťovania detí, a tieto nezrovnalosti sme vyriešili preškolením zástupcov a prísnym zabezpečením kvality.  Očakávame, že ďalšia správa o transparentnosti odhalí pokrok v zlepšovaní času reakcie pri odvolaniach v prípadoch sexuálneho vykorisťovania detí a zlepšenie presnosti spracovania počiatočných nahlásení.  

Ochranné opatrenia na moderovanie obsahu

Ochranné opatrenia použité pri skenovaní médii podľa CSEA sú uvedené vyššie v sekcii „Ochranné opatrenia na moderovanie obsahu“ v rámci našej správy v súvislosti s DSA.


Tento údaj sa rozdeľuje podľa členských štátov takto:

Tento údaj sa rozdeľuje podľa členských štátov takto: