Evropska unija
1. julij 2023 – 31. december 2023

Izdano:

25. april 2024

Posodobljeno:

25. april 2024

Dobrodošli na naši strani za preglednost v Evropski uniji (EU), kjer objavljamo posebne informacije v skladu z zahtevami Akta EU o digitalnih storitvah (DSA), Direktivo o avdiovizualnih medijskih storitvah (AVMSD) in nizozemskim Aktom o digitalnih trgih (DMA). Najnovejša različica teh poročil o preglednosti je objavljena na ameriškem trgu.

Pravni zastopnik 

Skupina Snap Group Limited je za svojega pravnega zastopnika za namene Akta o digitalnih storitvah imenovala družbo Snap B.V. Na zastopnika se lahko glede Akta o digitalnih storitvah obrnete prek e-naslova dsa-enquiries [at] snapchat.com, glede Direktive EU o avdiovizualnih medijskih storitvah in Akta o digitalnih trgih prek e-naslova vsp-enquiries [at] snapchat.com ali prek naše spletne strani za podporo [tukaj] ali pa preko poštnega naslova:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nizozemska

Če ste organ za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, sledite korakom, navedenim tukaj. Ko stopite v stik z nami, lahko komunicirate v nizozemščini ali angleščini.

Regulativni organi

V okviru Akta o digitalnih storitvah sta naša regulativna organa Evropska komisija in nizozemski organ za potrošnike in trge. V okviru Direktive EU o avdiovizualnih medijskih storitvah in Akta o digitalnih trgih pa je naš regulativni organ Nizozemska komisija za medije (CvdM)

Poročilo o preglednosti na podlagi Akta o digitalnih storitvah

Družba Snap mora v skladu s členi 15, 24 in 42 Akta o digitalnih storitvah objavljati poročila, ki vsebujejo predpisane podatke o tem, kako družba Snap moderira vsebino za Snapchatove storitve, ki se štejejo za "spletne platforme", tj. Spotlight, For You, Public Profiles, Maps, L, tj.es in Advertising. Poročilo je treba od 25. oktobra 2023 objavljati vsakih 6 mesecev.

Družba Snap dvakrat letno objavlja poročila o preglednosti, ki omogočajo pregled prizadevanj družbe Snap glede varnosti ter vrst in obsega vsebin na naši platformi. Naše najnovejše poročilo za drugo polovico leta 2023 (od 1. julija do 31. decembra) je na voljo tukaj. Meritve, ki so posebej povezane z Zakonom o digitalnih storitvah, najdete na tej strani.

Povprečno mesečno število aktivnih prejemnikov 
(Zakon o digitalnih storitvah, člen 24.2 in 42.3)

Od 31. decembra 2023 imamo 90,9 milijona povprečnih mesečnih aktivnih prejemnikov (»AMAR«) v aplikaciji Snapchat v EU. To pomeni, da je v zadnjih 6-ih mesecih v povprečju 90,9 milijonov registriranih uporabnikov v EU vsaj enkrat v danem mesecu odprlo aplikacijo Snapchat.

To število je tako razporejeno po državah članicah:

Ti izračuni so namenjeni izpolnjevanju trenutnih pravil Akta o digitalnih storitvah in se je mogoče nanje opirati samo za namene Akta o digitalnih storitvah. Način za izračun te številke smo skozi čas prilagajali, vključno kot odziv na spremenjeno notranjo politiko, smernice regulatorjev in tehnološki napredek, zato številke niso primerne za medsebojno primerjavo med obdobji. Lahko se tudi razlikuje od izračunov drugih podatkov o aktivnih uporabnikih, ki jih objavljamo za druge namene.


Zahteve organov držav članic
( Člen 15.1(a) Akta o digitalnih storitvah)

Zahtevki za odstranitev

V tem obdobju nismo prejeli nobenega zahtevka za odstranitev od držav članic Evropske unije v skladu s členom 9 Akta o digitalnih storitvah.

Zahtevki za podatke

V tem obdobju smo prejeli toliko zahtevkov za podatke od držav članic Evropske unije v skladu s členom 10 Akta o digitalnih storitvah:

Povprečni čas odziva za obveščanje pristojnih organov o prejemu zahtev za podatke je 0 minut - pošljemo samodejni odgovor, ki potrdi prejem. Povprečni čas za obravnavo zahtev za pridobitev podatkov znaša okoli 10 dni. Ta metrika prikazuje časovno obdobje od prejema zahteve za podatke s strani družbe Snap do trenutka, ko družba Snap presodi, da je zahteva popolnoma rešena. V nekaterih primerih je trajanje tega postopka delno odvisno od hitrosti, s katero pristojni organi odgovorijo na morebitne zahteve za pojasnilo s strani družbe Snap, ki so potrebne za obdelavo njihove zahteve.

Moderiranje vsebine


Vsa vsebina v aplikaciji Snapchat mora biti skladna z našimi Smernicami skupnosti in Pogoji storitve, pa tudi dodatnimi pogoji, smernicami in pojasnili. Na podlagi mehanizmov za proaktivno odkrivanje in prijavljanje vsebin in računov, ki so nezakoniti ali v nasprotju s pravili, se izvede pregled, pri katerem naša sistemska orodja zahtevo obdelajo, zberejo ustrezne metapodatke in zadevno vsebino prek strukturiranega uporabniškega vmesnika, zasnovanega za učinkovito in uspešno pregledovanje, posredujejo naši ekipi za moderiranje. Kadar naše ekipe za moderiranje po človeškem ali avtomatiziranem pregledu ugotovijo, da je uporabnik kršil naše Pogoje, lahko vsebine ali račune, ki so v nasprotju s pravili, odstranimo, ukinemo zadevni račun ali omejimo njegovo vidnost, in/ali obvestimo organe za preprečevanje, odkrivanje in preiskovanje kaznivih dejanj, kakor je navedeno v Pojasnilu Snapchata o moderiranju, uveljavljanju in pritožbah.  Uporabniki, katerih račune naša varnostna ekipa zaradi kršitev Smernic skupnosti zaklene, lahko vložijo pritožbo zaradi zaklenjenega računa, prav tako se lahko uporabniki pritožijo zoper nekatere ukrepe glede vsebin.

Obvestila o vsebini in računu (člen 15.1(b) Akta o digitalnih storitvah)

Družba Snap je vzpostavila mehanizme, ki omogočajo uporabnikom in neuporabnikom, da obvestijo družbo Snap o vsebini in računih, ki kršijo naše smernice skupnosti in pogoje storitev na platformi, vključno s tistimi, ki se zdijo nezakonite v skladu s členom 16 Akta o digitalnih storitvah. Te poročevalne mehanizme je mogoče uporabiti kar v aplikaciji (tj. neposredno iz vsebine) ali na naši spletni strani.

V relevantnem obdobju smo prejeli naslednja obvestila o vsebini in računih v EU:

V drugi polovici leta 2023 smo obravnavali 664.896 obvestil izključno prek avtomatiziranih sredstev. Vsa ta dejanja so bila izvedena v skladu z našimi smernicami skupnosti, saj naše smernice skupnosti zajemajo nezakonito vsebino.

Poleg vsebine in računov, ki jih ustvarijo uporabniki, moderiramo tudi oglase, če kršijo pravilnike naše platforme. Spodaj so prikazani skupni oglasi, ki so bili prijavljeni in odstranjeni v EU.

Obvestila o zaupanja vrednih prijaviteljih (člen 15.1(b))

V obdobju našega najnovejšega poročila o preglednosti (H2 2023) ni bilo formalno imenovanih Zaupanja vrednih prijaviteljev v skladu z Aktom o digitalnih storitvah. Posledično je bilo število obvestil, ki so jih predložili taki Zaupanja vredni prijavitelji, v tem obdobju nič (0).

Proaktivno moderiranje vsebine (člen 15.1(c))

V relevantnem obdobju je družba Snap v EU samoiniciativno izvajala moderiranje vsebine in računov ter uveljavila naslednje ukrepe:

Vsa moderacijska dela, ki jih je družba Snap izvajala na lastno pobudo, so vključevali človeške vire ali avtomatizacijo. Tam, kjer se pri nas objavlja javna vsebina, le-ta pred objavo za širše občinstvo načeloma prestane avtomatizirano in človeško moderiranje. Avtomatizirana orodja vključujejo:

  • Proaktivno odkrivanje vsebine, ki so nezakonite in v nasprotju s pravili, s strojnim učenjem,

  • Orodja za iskanje ujemanj, kot so PhotoDNA in Googlov CSAI Match;

  • Odkrivanje žaljivega izražanja, ki omogoča zavrnitev vsebine na podlagi opredeljenega in redno posodobljenega seznama ključnih žaljivih besed, vključno z emoji-ji


Pritožbe (člen 15.1(d))

V relevantnem obdobju je družba Snap v EU obravnavala naslednje pritožbe glede vsebine in računov prek svojih notranjih sistemov za obravnavo pritožb:


* Zaustavitev spolnega izkoriščanja otrok je naša prednostna naloga. Družba Snap temu namenja znatna sredstva in ne dopušča takšnega ravnanja. Za obravnavo pritožb, povezanih s spolnim izkoriščanjem otrok, je potrebno posebno usposabljanje. Zaradi grafične narave vsebine te naloge opravlja le omejena ekipa agentov. Jeseni leta 2023 je družba Snap uvedla spremembe pravilnikov, ki so vplivale na doslednost določenih ukrepov, povezanih s spolnim izkoriščanjem otrok. Te neskladnosti smo odpravili z dodatnim usposabljanjem agentov in strogim nadzorom kakovosti. Pričakujemo, da bo naslednje poročilo o transparentnosti razkrilo napredek v skrajšanju časa odzivov na prijave spolnega izkoriščanja otrok ter v izboljšanju natančnosti začetnih ukrepov.

Avtomatizirano moderiranje pomeni moderiranje vsebine (člen 15.1(e))

Tam, kjer se pri nas objavlja javna vsebina, le-ta pred objavo za širše občinstvo načeloma prestane avtomatizirano in človeško moderiranje. Avtomatizirana orodja vključujejo:

  • proaktivno odkrivanje nezakonitih vsebin, ki so v nasprotju s pravili, z uporabo strojnega učenja;

  • orodja za primerjanje digitalnih prstnih odtisov (na primer PhotoDNA in Googlove CSAI Match);

  • odkrivanje žaljivega izražanja, ki omogoča zavrnitev vsebine na podlagi opredeljenega in redno posodobljenega seznama ključnih žaljivih besed, vključno s čustveni simboli;


Natančnost avtomatiziranih tehnologij za moderiranje vseh vrst škode je bila približno 96,61 %, stopnja napak pa približno 3,39 %.


Varnostni ukrepi za moderiranje vsebine (člen 15.1(e))

Zavedamo se, da obstajajo tveganja, povezana z moderiranjem vsebine, vključno s tveganji glede svobode izražanja in združevanja, ki jih lahko povzroči pristranskost avtomatiziranega in človeškega moderiranja, ter zloraba poročil, med drugim tudi s strani državnih organov, političnih skupin ali dobro organiziranih posameznikov. Snapchat na splošno ni kraj za politično ali aktivistično vsebino, zlasti ne v naših javnih prostorih. 


Kljub temu pa ima družba Snap za zaščito pred temi tveganji vzpostavljeno testiranje in usposabljanje ter zanesljive in dosledne postopke za obravnavanje prijav nezakonite ali kako drugače kršeče vsebine, med drugim tudi iz strani organov pregona in državnih organov. Svoje algoritme za moderiranje vsebine stalno ocenjujemo in razvijamo. Čeprav je morebitne nevarnosti za svobodo izražanja težko zaznati, nismo seznanjeni glede nobenih pomembnih težav in svojim uporabnikom zagotavljamo možnosti, da prijavijo morebitne napake, do katerih lahko pride. 


Naši pravilniki in sistemi vzpodbujajo dosledno in pravično uveljavljanje pravil in, kot je opisano zgoraj, uporabnikom aplikacije Snapchat dajejo priložnost, da smiselno ugovarjajo rezultatom tega uveljavljanja s postopki obveščanja in ugovorov, katerih namen je varovati interese naše skupnosti in hkrati zaščititi pravice posameznih uporabnikov aplikacije Snapchat.

Stalno si prizadevamo izboljšati svoje pravilnike in postopke za njihovo uveljavljanje. Naredili smo precejšnje korake v boju proti potencialno škodljivim in nezakonitim vsebinam in dejavnostim v Snapchatu. To se odraža v naraščajočem trendu števila naših poročil in uveljavljanj ukrepov, kar je razvidno v našem najnovejšem poročilu o preglednosti in vse manjši stopnji kršitev v aplikaciji Snapchat na splošno. 


Izvensodne poravnave (člen 24.1(a))

V obdobju našega najnovejšega poročila o preglednosti (2. polovica leta 2023) niso bili formalno imenovani nobeni organi za reševanje sporov v skladu z Aktom o digitalnih storitvah. Posledično v tem obdobju ni bilo nobenega predloženega spora tem organom, zato ne moremo posredovati informacij o izidih, povprečnih časih obravnave poravnav ali deležu sporov, pri katerih smo upoštevali določitve teh organov.



Začasna onemogočenja računov (člen 24.1(b))

V drugem polletju 2023 nismo izvedli nobenega začasnega onemogočenja računa v skladu s členom 23. Ekipa za zaupanje in varnost pri družbi Snap sledi uveljavljenim postopkom, ki zmanjšujejo možnost, da bi uporabniški računi pogosto vlagali očitno neutemeljene prijave ali pritožbe. Ti postopki vključujejo omejevanje ustvarjanja podvojenih poročil in uporabo e-poštnih filtrov za preprečevanje nadaljnjega oddajanja očitno neutemeljenih poročil s strani uporabnikov, ki to pogosto počnejo. Vendar pa družba Snap ustrezno ukrepa glede računov, kot je pojasnjeno v našem pojasnilu družbe Snapchat glede moderiranja, uveljavljanja in ugovorov, informacije o ravni ukrepanja družbe Snap glede računov pa so na voljo v našem poročilu o preglednosti (2. polovica leta 2023). Takšne ukrepe bomo še naprej pregledovali in izboljševali.


Viri za moderatorje, strokovno znanje in podpora (člen 42.2)

Naša ekipa za moderiranje vsebin deluje po vsem svetu, zato lahko uporabnikom aplikacije Snapchat zaščito zagotavljamo 24 ur na dan in 7 dni na teden. V nadaljevanju boste našli seznam naših človeških moderatorjev glede na njihovo jezikovno specializacijo (nekateri so specializirani za več jezikov) od 31. decembra 2023:

Zgornja tabela prikazuje vse moderatorje, ki podpirajo jezike držav članic EU, stanje na dan 31. decembra 2023. V primerih, ko potrebujemo dodatno jezikovno podporo, uporabljamo prevajalske storitve.

Moderatorje zaposlujemo z uporabo standardnega opisa delovnega mesta, ki vključuje zahtevo glede poznavanja jezika (odvisno od potrebe). V zahtevi glede poznavanja jezika je navedeno, da mora biti kandidat sposoben dokazati tekoče pisno in govorno znanje jezika in imeti vsaj eno leto delovnih izkušenj za začetne pozicije. Pogoj, da kandidate obravnavamo, je tudi ta, da izpolnjujejo zahteve glede izobraževanja in preverjene preteklosti. Kandidati morajo tudi pokazati razumevanje trenutnih dogodkov za državo ali regijo, v kateri bodo podpirali moderiranje vsebine. 

Naša ekipa za moderiranje uveljavlja naše pravilnike in ukrepe za zaščito skupnosti Snapchat. Usposabljanje poteka v večtedenskem obdobju, med katerim se novi člani ekipe izobražujejo o pravilnikih, orodjih in postopkih stopnjevanja v družbi Snap. Po usposabljanju mora vsak moderator opraviti izpit za pridobitev potrdila, preden mu je dovoljeno pregledovati vsebino. Naša ekipa za moderiranje redno sodeluje pri osvežitvenem usposabljanju, primernem za njene poteke dela, zlasti kadar se srečujemo z mejnimi primeri glede pravilnikov in primeri, ki so odvisni od konteksta. Izvajamo tudi programe za izpopolnjevanje, seje za pridobitev potrdil in kvize za zagotavljanje, da so vsi moderatorji na tekočem z vsemi posodobljenimi pravilniki in ravnajo v skladu z njimi. Ko postanejo očitni nujni trendi glede vsebine na podlagi tekočih dogodkov, hitro distribuiramo pojasnila pravilnikov tako, da se lahko ekipe odzovejo v skladu s pravilniki družbe Snap.

Naši ekipi za moderiranje vsebine – neke vrste digitalni prvi pomoči družbe Snap – zagotavljamo znatno podporo in vire, vključno s podporo za dobro počutje na delovnem mestu in preprostim dostopom do storitev za duševno zdravje. 

Poročilo o spremljanju medijev na temo zlorabe in spolnega izkoriščanja otrok (CSEA)


Ozadje

Spolno izkoriščanje kateregakoli člana naše skupnosti, zlasti mladoletnikov, je nezakonito, neprimerno in prepovedano v skladu z našimi Smernicami skupnosti. Družba Snap postavlja preprečevanje objavljanja, odkrivanje in odstranjevanje podob spolnega izkoriščanja in zlorabe otrok s platforme za svojo prednostno nalogo. Nenehno tudi razvijamo zmogljivosti za boj proti tem in drugim kaznivim dejanjem.


Pri naših prizadevanjih uporabljamo zanesljivo orodje PhotoDNA in Googlovo orodje za ujemanje podob spolne zlorabe otrok, ki prepoznava znane nezakonite podobe in videoposnetke spolne zlorabe otrok. Tovrstne vsebine prijavljamo ameriškemu Nacionalnemu centru za pogrešane in zlorabljene otroke (NCMEC), kot to zahteva zakonodaja. Center NCMEC se nato po potrebi usklajuje z nacionalnimi in mednarodnimi organi kazenskega pregona.


Poročilo

Spodnji podatki so pridobljeni na podlagi rezultatov proaktivnega skeniranja z uporabo tehnologij PhotoDNA in/ali CSAI Match, ki se uporabljajo za analizo medijev, naloženih iz foto galerije uporabnika v aplikacijo Snapchat.

Zaustavitev spolnega izkoriščanja otrok je naša prednostna naloga. Družba Snap temu namenja znatna sredstva in ne dopušča takšnega ravnanja. Za obravnavo pritožb, povezanih s spolnim izkoriščanjem otrok, je potrebno posebno usposabljanje. Zaradi grafične narave vsebine, te naloge opravlja le omejena ekipa agentov. Jeseni leta 2023 je družba Snap uvedla spremembe pravilnikov, ki so vplivale na doslednost določenih ukrepov povezanih s spolnim izkoriščanjem otrok. Te neskladnosti smo odpravili z dodatnim usposabljanjem agentov in rigoroznim nadzorom kakovosti. Pričakujemo, da bo naslednje poročilo o transparentnosti razkrilo napredek v skrajšanju časov odzivanja na pritožbe spolnega izkoriščanja otrok ter v izboljšanju natančnosti začetnih ukrepov.

Zaščitni ukrepi za moderiranje vsebine

Varnostni ukrepi za skeniranje medijev CSEA so podrobno opisani v zgornjem razdelku »Varnostni ukrepi pri moderiranju vsebine« v našem poročilu DSA.


Poročilo o spremljanju medijev na temo zlorabe in spolnega izkoriščanja otrok (CSEA)


Ozadje

Spolno izkoriščanje kateregakoli člana naše skupnosti, zlasti mladoletnikov, je nezakonito, neprimerno in prepovedano v skladu z našimi Smernicami skupnosti. Družba Snap postavlja preprečevanje objavljanja, odkrivanje in odstranjevanje podob spolnega izkoriščanja in zlorabe otrok s platforme za svojo prednostno nalogo. Nenehno tudi razvijamo zmogljivosti za boj proti tem in drugim kaznivim dejanjem.


Pri naših prizadevanjih uporabljamo zanesljivo orodje PhotoDNA in Googlovo orodje za ujemanje podob spolne zlorabe otrok, ki prepoznava znane nezakonite podobe in videoposnetke spolne zlorabe otrok. Tovrstne vsebine prijavljamo ameriškemu Nacionalnemu centru za pogrešane in zlorabljene otroke (NCMEC), kot to zahteva zakonodaja. Center NCMEC se nato po potrebi usklajuje z nacionalnimi in mednarodnimi organi kazenskega pregona.


Poročilo

Spodnji podatki so pridobljeni na podlagi rezultatov proaktivnega skeniranja z uporabo tehnologij PhotoDNA in/ali CSAI Match, ki se uporabljajo za analizo medijev, naloženih iz foto galerije uporabnika v aplikacijo Snapchat.

Zaustavitev spolnega izkoriščanja otrok je naša prednostna naloga. Družba Snap temu namenja znatna sredstva in ne dopušča takšnega ravnanja. Za obravnavo pritožb, povezanih s spolnim izkoriščanjem otrok, je potrebno posebno usposabljanje. Zaradi grafične narave vsebine, te naloge opravlja le omejena ekipa agentov. Jeseni leta 2023 je družba Snap uvedla spremembe pravilnikov, ki so vplivale na doslednost določenih ukrepov povezanih s spolnim izkoriščanjem otrok. Te neskladnosti smo odpravili z dodatnim usposabljanjem agentov in rigoroznim nadzorom kakovosti. Pričakujemo, da bo naslednje poročilo o transparentnosti razkrilo napredek v skrajšanju časov odzivanja na pritožbe spolnega izkoriščanja otrok ter v izboljšanju natančnosti začetnih ukrepov.

Zaščitni ukrepi za moderiranje vsebine

Varnostni ukrepi za skeniranje medijev CSEA so podrobno opisani v zgornjem razdelku »Varnostni ukrepi pri moderiranju vsebine« v našem poročilu DSA.


Zaustavitev spolnega izkoriščanja otrok je naša prednostna naloga. Družba Snap temu namenja znatna sredstva in ne dopušča takšnega ravnanja. Za obravnavo pritožb, povezanih s spolnim izkoriščanjem otrok, je potrebno posebno usposabljanje. Zaradi grafične narave vsebine, te naloge opravlja le omejena ekipa agentov. Jeseni leta 2023 je družba Snap uvedla spremembe pravilnikov, ki so vplivale na doslednost določenih ukrepov povezanih s spolnim izkoriščanjem otrok. Te neskladnosti smo odpravili z dodatnim usposabljanjem agentov in rigoroznim nadzorom kakovosti. Pričakujemo, da bo naslednje poročilo o transparentnosti razkrilo napredek v skrajšanju časov odzivanja na pritožbe spolnega izkoriščanja otrok ter v izboljšanju natančnosti začetnih ukrepov.

Zaščitni ukrepi za moderiranje vsebine

Varnostni ukrepi za skeniranje medijev CSEA so podrobno opisani v zgornjem razdelku »Varnostni ukrepi pri moderiranju vsebine« v našem poročilu DSA.


To število je tako razporejeno po državah članicah:

To število je tako razporejeno po državah članicah: