Euroopa Liit
1. juuli 2023 - 31. detsember 2023

Avaldatud:

25. aprillil 2024

Uuendatud:

25. aprillil 2024

Tere tulemast meie Euroopa Liidu (EL) läbipaistvuse lehele, kus me avaldame Digitaalteenuste seaduses (DSA), Audiovisuaalsete meediateenuste direktiivis (AVMSD) ja Madalmaade meediaseaduses (DMA) nõutud ELi-spetsiifilist teavet. Palun pange tähele, et nende Läbipaistvusaruannete kõige ajakohasem versioon on leitav keeles en-US.

Seaduslik esindaja 

Snap Group Limited on DSA puhul määranud oma seaduslikuks esindajaks Snap B.V. DSA päringute puhul saate esindajaga ühendust võtta aadressil dsa-enquiries [at] snapchat.com, AVMSD päringute puhul aadressil vsp-enquiries [at] snapchat.com ja DMA päringute puhul läbi klienditoe [siin], või:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Holland

Kui olete korrakaitseorgan, järgige palun väljatoodud samme siin. Palun võtke meiega ühendust hollandi või inglise keeles.

Reguleerivad asutused

DSA puhul reguleerivad meid Euroopa Komisjon ning Madalmaade tarbijakaitse- ja turuamet (ACM). AVMSD ja DMA puhul reguleerib meid Madalmaade meediaamet (CvdM)

DSA läbipaistvuse aruanne

Snap peab vastavalt DSA artiklitele 15, 24 ja 42 avaldama aruandeid, mis sisaldavad ettenähtud teavet Snapi sisu modereerimise kohta Snapchati teenuste puhul, mida peetakse "veebiplatvormideks", st Rambivalgus, For You, avalikud profiilid, kaardid, objektiivid ja reklaam. See aruanne tuleb avaldada iga 6 kuu tagant alates 25. oktoobrist 2023.

Snap avaldab kaks korda aastas läbipaistvuse aruandeid, et anda ülevaade Snapi turvameetmetest ning meie platvormil teatatud sisu tüübist ja mahust. Meie viimane aruanne H2 2023 (1. juuli - 31. detsember) on leitav siit. Digitaalteenuste seaduse spetsiifilised näitajad leiate sellelt leheküljelt.

Keskmine igakuiste aktiivsete vastuvõtjate arv 
(DSA artiklid 24.2 ja 42.3)

2023. aasta 31. detsembri seisuga on meie Snapchat rakendusel ELis keskmiselt 90,9 miljonit igakuist aktiivset kasutajat ("AMAR"). See tähendab, et viimase kuue kuu jooksul on keskmiselt 90,9 miljonit registreeritud kasutajat ELis avanud Snapchati rakenduse vähemalt korra ühe kuu jooksul.

See arv jaguneb liikmesriikide kaupa järgmiselt:

Need arvud kalkuleeriti vastavalt kehtivatele DSA reeglitele ja neile tuleks tugineda ainult DSA puhul. Me oleme aja jooksul muutnud selle näitaja arvutamise viisi, sealhulgas vastuseks muutuvale sisepoliitikale, reguleerivate asutuste juhistele ja tehnoloogiale, ning arvud ei ole mõeldud perioodide vaheliseks võrdlemiseks. See võib erineda ka kalkulatsioonidest, mida kasutame teiste aktiivsete kasutajate näitajate puhul, mida avaldame muudel eesmärkidel.


Liikmesriikide institutsioonide taotlused
(DSA artikli 15.1(a))

Eemaldamis taotlused 

Selle ajavahemiku jooksul oleme saanud ELi liikmesriikidelt DSA artikli 9 alusel 0 eemaldamis taotlust. 

Infopäringud 

Selle ajavahemiku jooksul oleme saanud ELi liikmesriikidelt vastavalt DSA artiklile 10 järgmised infopäringud:

Keskmine aeg, mis kulub ametiasutuste teavitamiseks teabenõuete kättesaamisest, on 0 minutit — me anname automaatse vastuse, mis kinnitab taotluse kättesaamist. Teabenõuete rahuldamiseks kulub keskmiselt ~10 päeva. See näitaja kajastab ajavahemikku, mis kulub Snap'il teabenõude saamisest kuni hetkeni, mil Snap usub, et nõue on täielikult lahendatud. Mõnel juhul sõltub selle protsessi kestus osaliselt sellest, kui kiiresti vastavad õiguskaitseorganid Snapi selgitustaotlustele, mis on vajalikud nende nõude menetlemiseks.

Sisu modereerimine 


Kogu Snapchati sisu peab järgima meie kogukonna suuniseid ja teenustingimusi, samuti toetavaid tingimusi, suuniseid ja selgitusi. Ennetavad tuvastusmehhanismid ja ebaseaduslikust või rikkuvast sisust või kontodest teatamised nõuavad läbivaatamist, mille järel meie töötlemissüsteemid töötlevad taotlust, koguvad asjakohaseid metaandmeid ning suunavad asjakohase sisu meie modereerimismeeskonnale struktureeritud kasutajaliidese kaudu, mis on loodud mõjusa ja tõhusa läbivaatamise hõlbustamiseks. Kui meie modereerimismeeskonnad teevad kas inimkontrolli või automatiseeritud vahendite abil kindlaks, et kasutaja on meie tingimusi rikkunud, võime eemaldada rikkuva sisu või konto, lõpetada või piirata asjaomase konto nähtavust ja/või teavitada korrakaitseorganit, nagu on selgitatud meie Snapchati modereerimise, jõustamise ja kaebuste selgituses.  Kasutajad, kelle kontod on meie turvameeskond kogukonna suuniste rikkumise tõttu lukustanud, saavad esitada kaebuse lukustatud konto kohta ja teatud sisu jõustamise kohta..

Sisu ja konto teatised (DSA artikli 15.1(b))

Snap on kehtestanud mehhanismid, mis võimaldavad kasutajatel ja mittekasutajatel teavitada Snap'i sisu ja kontode kohta, mis rikuvad meie kogukonna suuniseid ja teenusetingimusi platvormil, sealhulgas neid, mida nad peavad ebaseaduslikuks vastavalt DSA artiklile 16.  Need teavitusmehhanismid on saadaval rakenduses endas (st otse sisust) ja meie veebilehel.

Asjaomase ajavahemiku jooksul saime ELis järgmised sisu- ja kontoteavitused:

2023 aasta teises pooles menetlesime me 664 896 teadet üksnes automatiseeritult. Kõiki neid rakendati meie Kogukonna suuniste vastu, sest meie Kogukonna suunised hõlmavad ebaseaduslikku sisu. 

Lisaks kasutajate loodud sisule ja kontodele modereerime ka reklaame, kui need rikuvad meie platvormi poliitikaid. Allpool on kõik ELis raporteeritud ja eemaldatud reklaamid. 

Usaldusväärsete märkijate teated (artikkel 15.1(b))

Meie viimase läbipaistvuse aruande perioodis (2023. aasta teisel poolaastal) ei olnud ühtegi ametlikult määratud usaldusväärset märkijat DSA alusel. Selle tulemusena oli selliste usaldusväärsete märkijate esitatud teadete arv sel perioodil null (0).

Proaktiivne sisu modereerimine (artikli 15.1(c))

Asjaomase perioodi jooksul jõustas Snap pärast omal algatusel teostatud sisumodereerimist ELis järgmise sisu ja kontod:

Kõik Snapi omal algatusel tehtud modereerimispüüdlused kasutasid inimesi või automatiseerimist. Meie avalikel infosisu pindadel läbib sisu üldjuhul nii automaatse modereerimise kui ka inimkontrolli, enne kui seda saab laiale sihtrühmale levitada. Automatiseeritud tööriistade hulka kuuluvad:

  • ebaseadusliku ja rikkuva sisu ennetav tuvastamine masinõppe abil;

  • Räsi-tuvastus tööriistad (näiteks PhotoDNA ja Google'i CSAI Match);

  • Solvava keelekasutuse tuvastamine sisu tagasilükkamiseks tuvastatud ja regulaarselt uuendatavate solvavate märksõnade loendi, sealhulgas emotikonide alusel


Apellatsioonid (artikli 15.1(d))

Asjaomase ajavahemiku jooksul menetles Snap oma sisemiste kaebuste menetlemise süsteemide kaudu ELis järgmisi sisu- ja konto kaebusi:


* Laste seksuaalse ekspluateerimise peatamine on esmane prioriteet. Snap pühendab sellele märkimisväärseid ressursse ja on sellise käitumise suhtes nulltolerantne.  CSE kaebuste läbivaatamiseks on vajalik erikoolitust ja nende läbivaatamisega tegeleb piiratud arv töötajaid, kuna nende sisu on graafiline.  2023. aasta sügisel rakendas Snap poliitika muudatusi, mis mõjutasid teatavate CSE jõustamiste järjepidevust, ja me oleme need ebakõlad kõrvaldanud agentide ümberõppe ja range kvaliteedi tagamise kaudu.  Eeldame, et järgmisest läbipaistvuse aruandest selgub, milliseid edusamme on tehtud CSE kaebustele reageerimise aja ja esialgse jõustamise täpsuse parandamisel. 

Automaatiseeritud meetodid sisu modereerimiseks (artikkel 15.1(e))

Meie avalikel infosisu pindadel läbib sisu üldjuhul nii automaatse modereerimise kui ka inimkontrolli, enne kui seda saab laiale sihtrühmale levitada. Automatiseeritud tööriistade hulka kuuluvad:

  • Ebaseadusliku ja rikkuva sisu ennetav tuvastamine masinõppe abil;

  • Räsivõrdlemise tööriistad (nagu PhotoDNA ja Google’i CSAI Match);

  • Solvava keelekasutuse tuvastamine sisu tagasilükkamiseks tuvastatud ja regulaarselt uuendatavate solvavate märksõnade loendi, sealhulgas emotikonide alusel.


Automaatsete modereerimis tehnoloogiate täpsus kõigi kahjude puhul oli ligikaudu 96,61% ja veamäär ligikaudu 3,39%.


Sisu modereerimise kaitsemeetmed (artiklid 15.1(e))

Tunnistame, et sisu modereerimisega kaasnevad riskid, sealhulgas riskid sõna- ja kogunemisvabadusele, mida võivad põhjustada automatiseeritud ja inimmoderaatorite eelarvamused ja kuritarvitused, sealhulgas valitsuste, poliitiliste ringkondade või hästi organiseeritud üksikisikute poolt. Snapchat ei ole üldiselt koht poliitilise või aktivistliku sisu jaoks, eriti meie avalikus ruumis. 


Sellegipoolest on Snapil nende riskide eest kaitsmiseks olemas testimine ja koolitus ning kindel ja järjepidev kord ebaseadusliku või rikkuva sisu kohta käivate teadete, sealhulgas õiguskaitse- ja valitsusasutustelt saadud teadete käsitlemiseks. Me hindame ja arendame pidevalt oma sisumodereerimise algoritme. Kuigi sõnavabaduse võimalikku kahjustamist on raske tuvastada, ei ole meile teada ühtegi märkimisväärset probleemi ja me pakume kasutajatele võimalusi vigadest teatamiseks, kui neid esineb. 


Meie poliitikad ja süsteemid edendavad järjepidevat ja õiglast jõustamist ning, nagu eespool kirjeldatud, annavad Snapchatteritele võimaluse sisuliselt vaidlustada jõustamise tulemusi teatise ja apellatsioonimenetluste kaudu, mille eesmärk on kaitsta meie kogukonna huve, kaitstes samal ajal individuaalseid Snapchatteri õigusi.

Me püüame pidevalt täiustada oma jõustamispoliitikat ja -protsesse ning oleme teinud suuri edusamme Snapchati potentsiaalselt kahjuliku ja ebaseadusliku sisu ja tegevuse vastu võitlemisel. See kajastas meie aruandluse ja jõustamise näitajate kasvutrendi, mis on esitatud meie viimases läbipaistvuse aruandes ja vähenevaid rikkumiste levimusmäärasid Snapchatis üldiselt.


Kohtuvälised lahendid (artikkel 24.1(a))

Meie viimase läbipaistvuse aruande (2023. aasta teisel poolaastal) perioodis,ei olnud ühtegi ametlikult määratud kohtuvälist vaidluste lahendamise organit DSA alusel. Seetõttu oli kõnealusel ajavahemikul sellistele asutustele esitatud vaidluste arv null (0) ning me ei saa esitada tulemusi, lahendamise keskmist aega ja nende vaidluste osakaalu, mille puhul me rakendasime asutuse otsuseid. 



Konto peatamised (artikkel 24.1(b))

2023. aasta teisel poolaastal ei olnud meil ühtegi artikli 23 alusel kehtestatud konto peatamist. Snap'i usalduse ja turvalisuse meeskonnal on kehtestatud protseduurid, et piirata võimalust, et kasutajakontod esitavad sageli teateid või kaebusi, mis on ilmselgelt põhjendamatud. Need menetlused hõlmavad dubleerivate teadete koostamise piiramist ja e-posti filtrite kasutamist, et vältida seda, et kasutajad, kes on sageli esitanud ilmselgelt põhjendamatuid teateid, jätkaksid seda. Snap võtab kasutusele kontode suhtes asjakohaseid jõustamismeetmeid, nagu on selgitatud meie Snapchati modereerimise, jõustamise ja kaebuste selgituses ning teavet Snapi kontode jõustamise taseme kohta leiate meie läbipaistvuse aruandest (2023. aasta 2. poolaasta). Sellised meetmed vaadatakse pidevalt läbi ja neid täiendatakse.


Moderaatori ressursid, asjatundlikkus ja tugi (artikkel 42.2)

Meie sisu modereerimise meeskond tegutseb üle kogu maailma, võimaldades meil ööpäevaringselt Snapchatterite turvalisust tagada. Allpool leiate meie inimmodereerimise ressursside jaotuse moderaatorite keeleerialade järgi (pange tähele, et mõned moderaatorid on spetsialiseerunud mitmele keelele) alates 31. detsembrist 2023:

Ülaltoodud tabelis on esitatud kõik moderaatorid, kes toetavad ELi liikmesriikide keeli seisuga 31. detsember 2023. Olukordades, kus vajame täiendavat keelelist tuge, kasutame tõlketeenuseid.

Moderaatorid võetakse tööle standardse ametijuhendi alusel, mis sisaldab keelenõudeid (sõltuvalt vajadusest). Keelenõue sätestab, et kandidaat peab suutma näidata, et ta valdab keelt suuliselt ja kirjalikult ning omab vähemalt üheaastast töökogemust algtaseme ametikoha puhul. Kandidaadid peavad vastama haridus- ja taustanõuetele, et neid saaks arvestada. Samuti peavad kandidaadid näitama, et nad mõistavad sisu modereerimise selle riigi või piirkonna päevakajalisi sündmusi, mida nad toetavad.

Meie modereerimismeeskond rakendab meie poliitikaid ja jõustamismeetmeid, et aidata kaitsta meie Snapchati kogukonda. Koolitus toimub mitme nädala jooksul, mille käigus tutvustatakse uutele meeskonnaliikmetele Snapi põhimõtteid, vahendeid ja eskalatsiooniprotseduure. Pärast koolitust peab iga moderaator sooritama sertifitseerimiseksami, enne kui tal lubatakse sisu üle vaadata. Meie modereerimismeeskond osaleb regulaarselt täiendkoolitustel, mis on seotud nende töövoogudega, eriti kui me puutume kokku poliitikaga seotud piiripealsete ja kontekstist sõltuvate juhtumitega. Samuti korraldame täiendkoolitusprogramme, sertifitseerimisseansse ja viktoriine, et tagada kõigi moderaatorite ajakohasus ja vastavus kõikidele ajakohastatud põhimõtetele. Lõpuks, kui päevakajaliste sündmuste tõttu ilmnevad kiireloomulised sisutrendid, levitame kiiresti selgitusi, et meeskonnad saaksid reageerida vastavalt Snapi poliitikale.

Pakume oma sisu modereerimise meeskonnale - Snapi "digitaalsetele esmareageerijatele" - märkimisväärset tuge ja ressursse, sealhulgas tööalast tuge ja lihtsat juurdepääsu vaimse tervise teenustele. 

Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) meedia skaneerimise aruanne


Taust

Meie kogukonna liikmete, eriti alaealiste seksuaalne ekspluateerimine on ebaseaduslik, kohutav ja meie kogukonna suunistega keelatud. Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) ennetamine, avastamine ja likvideerimine meie platvormil on Snapi jaoks esmatähtis ning me arendame pidevalt oma võimalusi nende ja teiste kuritegude vastu võitlemiseks.


Me kasutame PhotoDNA tugevat räsi-kokkusobivust ja Google'i laste seksuaalse kuritarvitamise pildimaterjali (CSAI) kokkusobivust, et tuvastada vastavalt teadaolevad ebaseaduslikud pildid ja videod laste seksuaalsest kuritarvitamisest ning teatada neist USA riiklikule kadunud ja ekspluateeritud laste keskusele (NCMEC), nagu seadusega nõutud. Seejärel kooskõlastab omakorda NCMEC vastavalt vajadusele siseriiklike või rahvusvaheliste õiguskaitseorganitega.


Raport

Allpool esitatud andmed põhinevad kasutaja kaamerarullist Snapchati üleslaetud meediakanalite PhotoDNA ja/või CSAI Match abil tehtud ennetava skaneerimise tulemusel.

Laste seksuaalse ekspluateerimise peatamine on esmatähtis. Snap pühendab sellele märkimisväärseid ressursse ja on sellise käitumise suhtes nulltolerantne.  CSE kaebuste läbivaatamiseks on vajalik erikoolitust ja nende läbivaatamisega tegeleb piiratud arv töötajaid, kuna nende sisu on graafiline.  2023. aasta sügisel rakendas Snap poliitika muudatusi, mis mõjutasid teatavate CSE jõustamiste järjepidevust, ja me oleme need ebakõlad kõrvaldanud agentide ümberõppe ja range kvaliteedi tagamise kaudu.  Eeldame, et järgmisest läbipaistvuse aruandest selgub, milliseid edusamme on tehtud CSE kaebustele reageerimise aja ja esialgse jõustamise täpsuse parandamisel.  

Sisu modereerimise kaitsemeetmed

CSEA meedia skaneerimise suhtes kohaldatavad kaitsemeetmed on sätestatud eespool meie DSA-aruande jaotises "Sisu modereerimise kaitsemeetmed".


Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) meedia skaneerimise aruanne


Taust

Meie kogukonna liikmete, eriti alaealiste seksuaalne ekspluateerimine on ebaseaduslik, kohutav ja meie kogukonna suunistega keelatud. Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) ennetamine, avastamine ja likvideerimine meie platvormil on Snapi jaoks esmatähtis ning me arendame pidevalt oma võimalusi nende ja teiste kuritegude vastu võitlemiseks.


Me kasutame PhotoDNA tugevat räsi-kokkusobivust ja Google'i laste seksuaalse kuritarvitamise pildimaterjali (CSAI) kokkusobivust, et tuvastada vastavalt teadaolevad ebaseaduslikud pildid ja videod laste seksuaalsest kuritarvitamisest ning teatada neist USA riiklikule kadunud ja ekspluateeritud laste keskusele (NCMEC), nagu seadusega nõutud. Seejärel kooskõlastab omakorda NCMEC vastavalt vajadusele siseriiklike või rahvusvaheliste õiguskaitseorganitega.


Raport

Allpool esitatud andmed põhinevad kasutaja kaamerarullist Snapchati üleslaetud meediakanalite PhotoDNA ja/või CSAI Match abil tehtud ennetava skaneerimise tulemusel.

Laste seksuaalse ekspluateerimise peatamine on esmatähtis. Snap pühendab sellele märkimisväärseid ressursse ja on sellise käitumise suhtes nulltolerantne.  CSE kaebuste läbivaatamiseks on vajalik erikoolitust ja nende läbivaatamisega tegeleb piiratud arv töötajaid, kuna nende sisu on graafiline.  2023. aasta sügisel rakendas Snap poliitika muudatusi, mis mõjutasid teatavate CSE jõustamiste järjepidevust, ja me oleme need ebakõlad kõrvaldanud agentide ümberõppe ja range kvaliteedi tagamise kaudu.  Eeldame, et järgmisest läbipaistvuse aruandest selgub, milliseid edusamme on tehtud CSE kaebustele reageerimise aja ja esialgse jõustamise täpsuse parandamisel.  

Sisu modereerimise kaitsemeetmed

CSEA meedia skaneerimise suhtes kohaldatavad kaitsemeetmed on sätestatud eespool meie DSA-aruande jaotises "Sisu modereerimise kaitsemeetmed".


Laste seksuaalse ekspluateerimise peatamine on esmatähtis. Snap pühendab sellele märkimisväärseid ressursse ja on sellise käitumise suhtes nulltolerantne.  CSE kaebuste läbivaatamiseks on vajalik erikoolitust ja nende läbivaatamisega tegeleb piiratud arv töötajaid, kuna nende sisu on graafiline.  2023. aasta sügisel rakendas Snap poliitika muudatusi, mis mõjutasid teatavate CSE jõustamiste järjepidevust, ja me oleme need ebakõlad kõrvaldanud agentide ümberõppe ja range kvaliteedi tagamise kaudu.  Eeldame, et järgmisest läbipaistvuse aruandest selgub, milliseid edusamme on tehtud CSE kaebustele reageerimise aja ja esialgse jõustamise täpsuse parandamisel.  

Sisu modereerimise kaitsemeetmed

CSEA meedia skaneerimise suhtes kohaldatavad kaitsemeetmed on sätestatud eespool meie DSA-aruande jaotises "Sisu modereerimise kaitsemeetmed".


See arv jaguneb liikmesriikide kaupa järgmiselt:

See arv jaguneb liikmesriikide kaupa järgmiselt: