Europos Sąjunga
2023 m. liepos 1 d. – 2023 m. gruodžio 31 d.

Išleista:

2024 m. balandžio 25 d.

Atnaujinta:

2024 m. balandžio 25 d.

Sveiki atvykę į mūsų Europos Sąjungos (ES) skaidrumo puslapį, kuriame skelbiame ES specifinę informaciją, kurios reikalaujama pagal Skaitmeninių paslaugų įstatymą (DSA), Audiovizualinės žiniasklaidos paslaugų direktyvą (AVMSD) ir Nyderlandų žiniasklaidos įstatymą (DMA). Atkreipkite dėmesį, kad naujausios šios skaidrumo ataskaitos versijos pateikiamos anglų (JAV) kalba.

Teisinis atstovas 

„Snap Group Limited“ paskyrė „Snap B.V.“ savo teisiniu atstovu DSA tikslais. Dėl DSA galite susisiekti su atstovu adresu dsa-enquiries [at] snapchat.com, dėl AVMSD ir DMA - adresu vsp-enquiries [at] snapchat.com, per mūsų pagalbos svetainę [čia], arba adresu:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdamas, Nyderlandai

Jei esate teisėsaugos institucija, atlikite veiksmus, kaip nurodyta čia.

Reguliavimo institucijos

DSA srityje esame reguliuojami Europos Komisijos ir Nyderlandų vartotojų ir rinkų institucijos (ACM). AVMSD ir DMA reglamentuoja Olandijos žiniasklaidos institucija (CvdM)

DSA Skaidrumo ataskaita

Pagal DSA 15, 24 ir 42 straipsnius „Snap“ privalo rengti ataskaitas, kuriose būtų pateikiama informacija apie „Snap“ turinio moderavimą „Snapchat“ paslaugoms, kurios laikomos „internetinėmis platformomis“, t.y., Spotlight, For You, Public Profiles, Maps, Lenses ir Advertising. Šią ataskaitą privaloma parengti kas 6 mėnesius, pradedant nuo 2023 m. spalio 25 d.

„Snap“ du kartus per metus skelbia skaidrumo ataskaitas, siekdami suteikti įžvalgas apie pastangas dėl „Snap“ saugos ir apie mūsų platformoje pateikiamo turinio pobūdžio ir apimties. Naujausią mūsų 2023 m. II pusmečio ataskaitą (liepos 1 d. – gruodžio 31 d.) rasite čia. Skaitmeninių paslaugų įstatymui būdingą metriką rasite šiame puslapyje.

Vidutinis aktyvių paslaugos gavėjų skaičius per mėnesį  
(DSA Straipsniai 24.2 ir 42.3)

2023 m. gruodžio 31 d. duomenimis ES turime vidutiniškai 90.9 milijonus aktyvių „Snapchat“ programėlės paslaugų gavėjų („AMAR“) per mėnesį. Tai reiškia, kad per pastaruosius 6 mėnesius vidutiniškai 90.9 milijonai registruotų naudotojų ES bent kartą per atitinkamą mėnesį atsidarė „Snapchat“ programėlę.

Pagal valstybę narę šis skaičius išskaidomas taip:

Šie skaičiai buvo apskaičiuoti taip, kad atitiktų dabartinius DSA nuostatus ir jais turėtų būti remiamasi tik DSA tikslais. Laikui bėgant pakeitėme šio skaičiaus apskaičiavimo būdą, taip pat reaguodami į besikeičiančią vidaus politiką, reguliavimo institucijų gaires ir technologijas, o skaičiai nėra skirti lyginti laikotarpiais. Tai taip pat gali skirtis nuo skaičiavimų, taikomų kitiems aktyviems naudotojams, kuriuos skelbiame kitais tikslais.


Valstybių narių valdžios institucijų prašymai
(DSA Straipsnis 15.1(a))

Panaikinimo užklausos 

Per šį laikotarpį iš ES valstybių narių gavome 0 panaikinimo užklausų pagal DSA 9 straipsnį.

Informacijos užklausos 

Per šį laikotarpį iš ES valstybių narių gavome šias informacijos užklausas pagal DSA 10 straipsnį:

Vidutinis laikas, per kurį reikia informuoti institucijas apie informacijos užklausų gavimą, yra 0 minučių – pateikiame automatinį atsakymą, patvirtinantį gavimą. Vidutinis informacijos užklausų įvykdymo laikas yra ~10 dienų. Ši metrika atspindi laikotarpį nuo tada, kai „Snap“ gauna IR (informacijos užklausą), iki tada, kai „Snap“ mano, kad užklausa visiškai išspręsta. Kai kuriais atvejais šio proceso trukmė iš dalies priklauso nuo to, kaip greitai teisėsauga reaguoja į visus „Snap“ prašymus paaiškinti, reikalingus jų užklausai apdoroti.

Turinio moderavimas 


Visas „Snapchat“ turinys turi atitikti mūsų Bendruomenės gaires ir Paslaugų teikimo sąlygas, taip pat pagalbines sąlygas, gaires ir paaiškinimus. Aktyvūs aptikimo mechanizmai ir pranešimai apie neteisėtą ar pažeidžiantį turinį ar paskyras skatina peržiūrą, kurios metu mūsų įrankių sistemos apdoroja užklausą, surenka atitinkamus metaduomenis ir nukreipia atitinkamą turinį mūsų moderavimo komandai per struktūrinę vartotojo sąsają, skirtą palengvinti įsigaliojančias ir efektyvias peržiūros operacijas. Kai mūsų moderavimo komandos, žmogaus arba automatizuotomis priemonėmis atliekamų peržiūrų metu nustato, kad naudotojas pažeidė mūsų Taisykles, galime pašalinti pažeidžiantį turinį arba paskyrą, nutraukti arba apriboti atitinkamos paskyros matomumą ir (arba) pranešti teisėsaugai, kaip tai paaiškinta mūsų „Snapchat“ moderavimo, vykdymo ir apeliacijų paaiškinimo priemonėje.  Naudotojai, kurių paskyras mūsų saugos komanda užrakino dėl Bendruomenės gairių pažeidimų, gali pateikti skundą dėl užrakintos paskyros, o naudotojai gali teikti skundą dėl tam tikro turinio įjungimo.

Turinio ir paskyros pranešimai (DPS 15 straipsnio 1 dalies b punktas)

„Snap“ įdiegė mechanizmus, leidžiančius naudotojams ir nenaudotojams pranešti „Snap“ apie turinį ir paskyras, platformoje pažeidžiančias bendruomenės gaires ir paslaugų teikimo sąlygas, įskaitant tuos, kuriuos jie laiko neteisėtais pagal DSA 16 straipsnį. Šiuos ataskaitų teikimo mechanizmus galima rasti pačioje programėlėje (t. y. tiesiogiai iš turinio dalies) ir mūsų svetainėje.

Atitinkamu laikotarpiu ES gavome šiuos turinio ir paskyros pranešimus:

Per 2023 metų antrą pusmetį
mes spendėme 664 896 pranešimus vien automatinėmis priemonėmis. Visa tai buvo vykdoma prieš bendruomenės gaires, nes bendruomenės gairės apima neteisėtą turinį.

Be naudotojų sukurto turinio ir paskyrų, reguliuojame skelbimus, jei jie pažeidžia mūsų platformos politiką. Toliau pateikiamas bendras skelbimų, apie kuriuos pranešta ir kurie buvo pašalinti ES, skaičius.

Pranešimai apie patikimus signalizuotojus (15.1 straipsnio b punktas)

Naujausios Skaidrumo ataskaitos laikotarpiu (2023 m. II pusmetis) pagal DSA nebuvo oficialiai paskirtų patikimų žymėtojų. Todėl šiuo laikotarpiu tokių patikimų tikrintojų pateiktų pranešimų skaičius buvo lygus nuliui (0).

Aktyvus turinio tvarkymas (15 straipsnio 1 dalies c punktas)

Atitinkamu laikotarpiu „Snap“ įgyvendino šį turinį ir paskyras ES, savo iniciatyva prižiūrėjusi turinį:

Visos „Snap“ iniciatyvos moderavimo pastangos buvo naudojamos žmonėms arba automatizavimui. Mūsų viešojo turinio paviršiuose, turinys paprastai yra peržiūrimas automatinių priemonių ir žmogaus pagalba, kol jis bus tinkamas platinti plačiajai auditorijai. Turint omenyje automatizuotus įrankius, juos apima:

  • Aktyvus neteisėto ir pažeidžiančio turinio aptikimas naudojant mašininį mokymąsi;

  • Sumaišymo atitikimo įrankiai (pvz., PhotoDNA ir Google CSAI Match);

  • Įžeidžiančios kalbos aptikimas, skirtas atmesti turinį, remiantis nustatytu ir reguliariai atnaujinamu įžeidžiančių raktinių žodžių sąrašu, įskaitant jaustukus


Skundai (15.1 straipsnio, d dalis)

Atitinkamu laikotarpiu „Snap“ apdorojo šį turinį ir apeliacijas dėl paskyros ES naudodama vidines skundų nagrinėjimo sistemas:


* Vaikų seksualinio išnaudojimo sustabdymas yra svarbiausias prioritetas. „Snap“ tam skiria daug išteklių ir visiškai netoleruoja tokio elgesio. Norint peržiūrėti CSE skundus, reikalingas specialus mokymas, o dėl grafiško turinio pobūdžio šias peržiūras atlieka ribota agentų komanda. 2023 m. rudenį „Snap“ įgyvendino politikos pakeitimus, kurie turėjo įtakos tam tikrų CSE priemonių nuoseklumui, ir mes pašalinome šiuos neatitikimus perkvalifikuodami agentus ir griežtai užtikrindami kokybę. Tikimės, kad kitoje skaidrumo ataskaitoje bus išryškinta pažanga, gerinant atsakymo į CSE apeliacijas laiką ir pirminio vykdymo tikslumą.

Automatinės turinio moderavimo priemonės (15.1 straipsnio d punktas)

Mūsų viešojo turinio paviršiuose, turinys paprastai yra peržiūrimas automatinių priemonių ir žmogaus pagalba, kol jis bus tinkamas platinti plačiajai auditorijai. Turint omenyje automatizuotus įrankius, juos apima:

  • Aktyvus neteisėto ir pažeidžiančio turinio aptikimas naudojant mašininį mokymąsi;

  • Hash-matching įrankiai (pvz., PhotoDNA ir Google CSAI Match);

  • Įžeidžiančios kalbos aptikimas, skirtas atmesti turinį, remiantis nustatytu ir reguliariai atnaujinamu įžeidžiančių raktinių žodžių sąrašu, įskaitant jaustukus.


Automatizuotų moderavimo technologijų tikslumas visoms žaloms buvo maždaug 96,61%, o klaidų lygis - maždaug 3,39%.


Turinio moderavimo apsaugos priemonės (15.1 straipsnio d punktas)

Pripažįstame, kad egzistuoja su turinio moderavimu susijusi rizika, įskaitant riziką saviraiškos ir susirinkimų laisvei, kuri gali kilti dėl automatinių ir žmogiškųjų moderatorių šališkumo bei piktnaudžiavimo pranešimais, įskaitant vyriausybių, politinių grupių ar gerai organizuotų asmenų pranešimus. „Snapchat“ apskritai nėra vieta politiniam ar aktyvistiniam turiniui, ypač mūsų viešosiose erdvėse.


Vis dėlto, siekdama apsisaugoti nuo šios rizikos, „Snap“ atlieka bandymus ir mokymus bei taiko griežtas ir nuoseklias procedūras, skirtas pranešimams apie neteisėtą ar pažeidžiantį turinį, įskaitant pranešimus iš teisėsaugos ir valdžios institucijų, nagrinėti. Nuolat vertiname ir tobuliname savo turinio moderavimo algoritmus. Nors galimą žalą saviraiškos laisvei aptikti sunku, nesame pastebėję jokių didelių problemų ir suteikiame savo naudotojams galimybę pranešti apie klaidas, jei jų pasitaikytų.


Mūsų politika ir sistemos skatina nuoseklų ir sąžiningą vykdymo užtikrinimą ir, kaip aprašyta pirmiau, suteikia „Snapchat“ naudotojams galimybę prasmingai ginčyti vykdymo užtikrinimo rezultatus per įspėjimų ir apeliacijų procesus, kuriais siekiama apsaugoti mūsų bendruomenės interesus ir kartu apsaugoti individualias „Snapchat“ naudotojų teises.

Nuolat stengiamės tobulinti savo vykdymo užtikrinimo politiką ir procesus ir padarėme didelę pažangą kovodami su galimai žalingu ir neteisėtu turiniu bei veikla „Snapchat“. Tai atsispindi mūsų ataskaitų teikimo ir vykdymo rodiklių kilimo tendencijoje, parodytoje mūsų naujausioje Skaidrumo ataskaitoje ir mažėjančiuose pažeidimų „Snapchat“ svetainėje paplitimo rodikliuose apskritai.


Neteisminiai susitarimai (24.1 straipsnio a punktas)

Naujausios Skaidrumo ataskaitos laikotarpiu (2023 m. II pusmetis) pagal DSA nebuvo oficialiai paskirtų ginčų neteisminio sprendimo pusių. Kadangi per šį laikotarpį tokioms institucijoms pateiktų ginčų skaičius buvo nulis (0), todėl negalime pateikti rezultatų, ginčų sprendimo terminų medianos ir ginčų dalies, kai įgyvendinome institucijos sprendimus.



Paskyros sustabdymas (24.1 straipsnio a punktas)

Per 2023 m. antrąjį pusmetį nebuvo atlikta jokių paskyrų sustabdymų pagal 23 straipsnį. „Snap“ Pasitikėjimo ir Saugos komanda taiko procedūras, skirtas apriboti galimybę naudotojų paskyrose dažnai pateikti akivaizdžiai nepagrįstus pranešimus ar skundus. Šios procedūros apima pasikartojančių ataskaitų kūrimo apribojimą ir el. pašto filtrų naudojimą, kad vartotojai, kurie dažnai teikdavo akivaizdžiai nepagrįstas ataskaitas, negalėtų to daryti. „Snap“ prieš paskyras imasi atitinkamų vykdymo užtikrinimo veiksmų, kaip paaiškinta mūsų „Snapchat“ moderavimo, vykdymo užtikrinimo ir apeliacijų paaiškinime, o informaciją apie „Snap“ paskyrų vykdymo užtikrinimo lygį rasite mūsų Skaidrumo ataskaitoje (2023 m. II pusmečio). Tokios priemonės ir toliau bus peržiūrimos ir kartojamos.


Moderatoriaus ištekliai, ekspertizė ir palaikymas (42.2 staipsnis)

Mūsų turinio moderavimo komanda veikia visame pasaulyje, užtikrinanti „Snapchatters“ apsaugą 24 valandas per parą, 7 dienas per savaitę. Toliau rasite mūsų žmogiškųjų moderavimo išteklių suskirstymą pagal moderatorių kalbų specialybes (atkreipkite dėmesį, kad kai kurie moderatoriai specializuojasi keliomis kalbomis) aktyvų nuo 2023 m. gruodžio mėn. 31 d.:

Aukščiau pateiktoje lentelėje pateikti visi moderatoriai, palaikantys 2023 m. gruodžio 31 d. ES esančių valstybių narių kalbas. Tais atvejais, kai mums reikia pagalbos papildoma kalba, naudojamės vertimo paslaugomis.

Moderatoriai įdarbinami naudojant standartinį darbo aprašymą, kuriame taikomas kalbos reikalavimas (atsižvelgiant į poreikį). Kalbos reikalavimuose nurodoma, kad kandidatas turi gebėti puikiai raštu ir žodžiu valdyti kalbą ir turėti ne mažesnę kaip vienerių metų darbo patirtį pradinio lygio pareigoms užimti. Kandidatai turi atitikti išsilavinimo ir asmens patikros reikalavimus. Kandidatai taip pat turi pademonstruoti, kad supranta šalies ar regiono, kurio turinį jie moderuos, dabartinius įvykius.

Mūsų moderavimo komanda taiko mūsų politiką ir vykdymo užtikrinimo priemones, kad padėtų apsaugoti „Snapchat“ bendruomenę. Mokymai vyksta kelias savaites, per kurias nauji komandos nariai yra supažindinami su „Snap“ politika, įrankiais ir eskalavimo procedūromis. Po mokymų kiekvienas moderatorius, prieš gaudamas leidimą peržiūrėti turinį, turi išlaikyti sertifikavimo egzaminą. Mūsų moderatorių komanda reguliariai dalyvauja kvalifikacijos kėlimo mokymuose, susijusiuose su jų darbo eiga, ypač tais atvejais, kai susiduriame su politikos ribomis ir nuo konteksto priklausančiais atvejais. Taip pat vykdome kvalifikacijos kėlimo programas, sertifikavimo sesijas ir viktorinas, kad užtikrintume, jog visi moderatoriai turi naujausią informaciją ir laikosi visų atnaujintų taisyklių. Galiausiai, kai išryškėja skubios turinio tendencijos, pagrįstos aktualiais įvykiais, greitai išplatiname politikos paaiškinimus, kad komandos galėtų reaguoti pagal „Snap“ politiką.

Savo turinio moderavimo komandai - „Snap“ „skaitmeniniams pirmiesiems reaguotojams“ - teikiame didelę paramą ir išteklius, įskaitant sveikatingumo pagalbą darbo vietoje ir lengvą prieigą prie psichikos sveikatos paslaugų.

Vaikų seksualinio išnaudojimo ir prievartos (CSEA) žiniasklaidos nuskaitymo ataskaita


Svarbiausi faktai

Seksualinis bet kurio mūsų bendruomenės nario, o ypač nepilnamečių, išnaudojimas yra neteisėtas, pasibjaurėtinas ir draudžiamas pagal mūsų Bendruomenės gaires. Seksualinio vaikų išnaudojimo ir prievartos prieš vaikus (SVIPPV) prevencija, aptikimas ir išnaikinimas mūsų platformoje yra svarbiausias „Snap“ prioritetas ir nuolat didiname savo pajėgumus, kad galėtume kovoti su šiais bei kitais nusikaltimais.


Naudojame patikimą pagrįsto atitikties nustatymo įrankį „PhotoDNA“ ir „Google“ seksualinės prievartos prieš vaikus vaizdų (CSAI) atitikties technologiją, kad nustatytume neteisėtus vaizdus bei vaizdo įrašus, kuriuose užfiksuota seksualinė prievarta prieš vaikus, ir praneštume apie juos JAV Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC), kaip reikalaujama pagal įstatymus. Tada NCMEC, kaip reikalaujama, koordinuoja veiklą su vietos ir tarptautinėmis teisėsaugos institucijomis.


Ataskaita

Toliau pateikti duomenys yra pagrįsti aktyvaus nuskaitymo naudojant PhotoDNA ir (arba) CSAI Match medijos, kurią naudotojas fotoaparato pagalba įkėlė į "Snapchat", rezultatais.

Vaikų seksualinio išnaudojimo sustabdymas yra svarbiausias prioritetas. „Snap“ tam skiria daug išteklių ir visiškai netoleruoja tokio elgesio. Norint peržiūrėti CSE skundus, reikalingas specialus mokymas, o dėl grafiško turinio pobūdžio šias peržiūras atlieka ribota agentų komanda. 2023 m. rudenį „Snap“ įgyvendino politikos pakeitimus, kurie turėjo įtakos tam tikrų CSE priemonių nuoseklumui, ir mes pašalinome šiuos neatitikimus perkvalifikuodami agentus ir griežtai užtikrindami kokybę. Tikimės, kad kitoje skaidrumo ataskaitoje bus išryškinta pažanga, gerinant atsakymo į CSE apeliacijas laiką ir pirminio vykdymo tikslumą.

Turinio moderavimo apsaugos priemonės

Apsaugos priemonės, taikomos CSEA medijos nuskaitymui, nurodytos aukščiau esančioje mūsų DSA ataskaitos skiltyje „Turinio moderavimo apsaugos priemonės“.


Vaikų seksualinio išnaudojimo ir prievartos (CSEA) žiniasklaidos nuskaitymo ataskaita


Svarbiausi faktai

Seksualinis bet kurio mūsų bendruomenės nario, o ypač nepilnamečių, išnaudojimas yra neteisėtas, pasibjaurėtinas ir draudžiamas pagal mūsų Bendruomenės gaires. Seksualinio vaikų išnaudojimo ir prievartos prieš vaikus (SVIPPV) prevencija, aptikimas ir išnaikinimas mūsų platformoje yra svarbiausias „Snap“ prioritetas ir nuolat didiname savo pajėgumus, kad galėtume kovoti su šiais bei kitais nusikaltimais.


Naudojame patikimą pagrįsto atitikties nustatymo įrankį „PhotoDNA“ ir „Google“ seksualinės prievartos prieš vaikus vaizdų (CSAI) atitikties technologiją, kad nustatytume neteisėtus vaizdus bei vaizdo įrašus, kuriuose užfiksuota seksualinė prievarta prieš vaikus, ir praneštume apie juos JAV Nacionaliniam dingusių ir išnaudojamų vaikų centrui (NCMEC), kaip reikalaujama pagal įstatymus. Tada NCMEC, kaip reikalaujama, koordinuoja veiklą su vietos ir tarptautinėmis teisėsaugos institucijomis.


Ataskaita

Toliau pateikti duomenys yra pagrįsti aktyvaus nuskaitymo naudojant PhotoDNA ir (arba) CSAI Match medijos, kurią naudotojas fotoaparato pagalba įkėlė į "Snapchat", rezultatais.

Vaikų seksualinio išnaudojimo sustabdymas yra svarbiausias prioritetas. „Snap“ tam skiria daug išteklių ir visiškai netoleruoja tokio elgesio. Norint peržiūrėti CSE skundus, reikalingas specialus mokymas, o dėl grafiško turinio pobūdžio šias peržiūras atlieka ribota agentų komanda. 2023 m. rudenį „Snap“ įgyvendino politikos pakeitimus, kurie turėjo įtakos tam tikrų CSE priemonių nuoseklumui, ir mes pašalinome šiuos neatitikimus perkvalifikuodami agentus ir griežtai užtikrindami kokybę. Tikimės, kad kitoje skaidrumo ataskaitoje bus išryškinta pažanga, gerinant atsakymo į CSE apeliacijas laiką ir pirminio vykdymo tikslumą.

Turinio moderavimo apsaugos priemonės

Apsaugos priemonės, taikomos CSEA medijos nuskaitymui, nurodytos aukščiau esančioje mūsų DSA ataskaitos skiltyje „Turinio moderavimo apsaugos priemonės“.


Vaikų seksualinio išnaudojimo sustabdymas yra svarbiausias prioritetas. „Snap“ tam skiria daug išteklių ir visiškai netoleruoja tokio elgesio. Norint peržiūrėti CSE skundus, reikalingas specialus mokymas, o dėl grafiško turinio pobūdžio šias peržiūras atlieka ribota agentų komanda. 2023 m. rudenį „Snap“ įgyvendino politikos pakeitimus, kurie turėjo įtakos tam tikrų CSE priemonių nuoseklumui, ir mes pašalinome šiuos neatitikimus perkvalifikuodami agentus ir griežtai užtikrindami kokybę. Tikimės, kad kitoje skaidrumo ataskaitoje bus išryškinta pažanga, gerinant atsakymo į CSE apeliacijas laiką ir pirminio vykdymo tikslumą.

Turinio moderavimo apsaugos priemonės

Apsaugos priemonės, taikomos CSEA medijos nuskaitymui, nurodytos aukščiau esančioje mūsų DSA ataskaitos skiltyje „Turinio moderavimo apsaugos priemonės“.