Európai Unió
2023. július 1. – 2023. december 31.

Kiadva:

2024. április 25.

Frissítve:

2024. április 25.

Üdvözlünk az Európai Uniós (EU) átláthatósági oldalunkon, ahol az EU-hoz kötődő információkat tesszük közzé a Digitális szolgáltatásokról szóló törvény (DSA), az Audiovizuális médiaszolgáltatásokról szóló irányelv (AVMSD) és a Holland médiatörvény (DMA) által megkövetelt módon. Kérjük, vedd figyelembe, hogy ezeknek az Átláthatósági jelentéseknek a legfrissebb verzióját az amerikai angol nyelvi változatban találod meg.

Jogi képviselő 

A Snap Group Limited a Snap B.V.-t nevezte ki jogi képviselőjének a DSA céljaira. Ön felveheti a kapcsolatot a képviselővel a dsa-enquiries [kukac] snapchat.com címen a DSA ügyében, a vsp-enquiries [kukac] snapchat.com címen az AVMSD és DMA ügyekben, az Ügyfélszolgálati oldalon [itt], vagy itt:

Snap B.V.
Keizersgracht 165, 1016 DP,
Amszterdam, Hollandia

Amennyiben egy törvényi végrehajtói szerv képviselője vagy, kérjük, kövesd az itt felsorolt lépéseket.

Szabályozó hatóságok

A DSA szempontjából az Európai Bizottság és a Holland Fogyasztói és Piaci Hatóság (ACM) szabályoz minket. Az AVMSD és a DMA ügyekben a Holland Média Hatóság (CvdM) szabályoz minket

DSA átláthatósági jelentés

A DSA 15., 24. és 42. cikkelyeknek megfelelően a Snap köteles jelentések közzétételére, amelyek előírt információkat tartalmaznak a Snapchat szolgáltatásairól, mint "online platformokról", pl. a Rivaldafény, a For You, a Nyilvános profilok, a Térképek, az Objektívek és a Hirdetések vonatkozó tartalom-moderálási gyakorlatairól. Ezt a jelentést 2023. október 25-től 6 havonta kell közzétenni.

A Snap átláthatósági jelentéseket tesz közzé évente kétszer, hogy betekintést nyújtson a Snap biztonsági erőfeszítéseibe, és a platformunkon jelentett tartalmak természetébe és mennyiségébe. A legutóbbi jelentésünk 2023 2. félévére (július 1 - december 31)itt. található. A Digitális szolgáltatásokról szóló törvényhez tartozó mérőszámok ezen az oldalon találhatók.

Átlagos havi aktív felhasználók 
(DSA 24.2 és 42.3 cikk)

2023. december 31-én 90,9 millió átlagos havi felhasználóval ("AMAR") rendelkezünk az EU-ban a Snapchat alkalmazásunkban. Ez azt jelenti, hogy az elmúlt 6 hónapban az EU-ban átlagosan 90,9 millió regisztrált felhasználó nyitotta meg a Snapchat alkalmazást legalább egyszer az adott hónapban.

Ez az érték tagállamonként a következőképpen oszlik meg:

Ezeket az értékeket úgy számoltuk ki, hogy megfeleljenek a jelenlegi DSA szabályoknak, és csak a DSA szempontjából szabad rájuk támaszkodni. Az idők során változtattunk azon, hogyan számoljuk ki ezt az adatot, válaszul többek között a változó belső politikára, a szabályozói iránymutatásokra és a technológiára, így az adatoknak nem célja az időszakok közötti összehasonlíthatóság. Ez eltérhet azoktól a számításoktól, amelyeket az aktív felhasználói értékekre teszünk közzé más célokból.


A tagállamok hatósági kérelmei
(DSA 15.1(a) cikk)

Eltávolítási kérelmek 

Ebben az időszakban 0 eltávolítási kérelmet kaptunk az EU tagállamaiból a DSA 9. cikke alapján. 

Tájékoztatási kérelmek 

Ebben az időszakban a következő információkéréseket kaptuk az EU tagállamaiból a DSA 10. cikke alapján:

A hatóságok tájékoztatásának átlagos átfutási ideje az információkérések átvételéről 0 perc – automatizált átvétel-visszaigazoló választ biztosítunk. Az információkérelmek teljesítésének átlagos átfutási ideje kb. 10 nap. Ez a mutató azt az időtartamot tükrözi, amely az információkérés Snap-hez való beérkezésével kezdődik és addig tart, amíg a Snap szerint a kérés mindenben nem teljesült. Bizonyos esetekben a folyamat hossza részben attól függ, hogy milyen sebességgel válaszolnak a bűnüldöző szervek, ha a Snap kér tőlük olyan felvilágosítást, ami az ő kérelmük feldolgozásához szükséges.

Tartalom moderálása


A Snapchat-en lévő összes tartalomnak meg kell felelnie a Közösségi iránymutatásainknak és a Szolgáltatási feltételeinknek, illetve a kiegészítő feltételeinknek, iránymutatásainknak és magyarázatainknak. A proaktív észlelési mechanizmusok és az illegális vagy szabálysértő tartalom vagy fiókok jelentése felülvizsgálatot indít be, amelynek során a rendelkezésre álló rendszereink feldolgozzák a kérést, begyűjtik a kapcsolódó metaadatokat és továbbítják a releváns tartalmat a moderációs csapatunk felé egy olyan struktúrált felhasználói felületen keresztül, mely úgy került megalkotásra, hogy elősegítse a hatékony és eredményes felülvizsgálati műveleteket. Amikor a moderációs csapataink emberi felülvizsgálattal vagy automatizált rendszerek segítségével megállapítják, hogy egy felhasználó megsértette a Feltételeinket, eltávolíthatjuk a sértő tartalmat vagy fiókot, megszüntethetjük a kapcsolódó fiókot, vagy korlátozhatjuk a láthatóságát, és/vagy értesíthetjük a hatóságokat, ahogy az részletezésre került a Snapchat moderációs, végrehajtási és fellebbezési magyarázónkban.  Azok a felhasználók, akiket zárolt a biztonsági csapatunk a Közösségi iránymutatások megsértése miatt, benyújthatnak egy fiókzárolás elleni fellebbezést, és a felhasználók bizonyos tartalmi végrehajtások elleni is fellebbezhetnek.

Tartalom- és fiókértesítések (DSA 15.1(b) cikk)

A Snap olyan mechanizmusokat hozott létre, amelyek lehetővé teszik, hogy a felhasználók és a nem felhasználók értesítsék a Snapet azokról a tartalmakról és fiókokról, amelyek megsértik Közösségi iránymutatásainkat és Szolgáltatási feltételeinket a platformon, beleértve azokat is, amelyek illegálisnak tekinthetők a DSA 16. cikke alapján.  Ezek a jelentési mechanizmusok az alkalmazásban (azaz közvetlenül a tartalomból) és a weboldalunkon érhetők el.

A vonatkozó időszak alatt a következő tartalom- és fiókértesítéseket kaptuk az EU-ban:

A H2'23-ban 664 896 értesítést kezeltünk kizárólag automatizált eszközökön keresztül. Mindezek a Közösségi iránymutatásainkból következő intézkedéssel jártak, ugyanis Közösségi iránymutatásaink felölelik az illegális tartalmakat is. 

A felhasználó által generált tartalmak és fiókok mellett moderáljuk a hirdetéseket, ha azok megsértik a platformunk irányelveit. Az alábbiakban megtalálható a hirdetések teljes száma, amelyeket az EU-ban jelentettek és eltávolítottak. 

Megbízható jelölők értesítései (15.1(b) cikk)

Legutóbbi átláthatósági jelentésünk (H2 2023) időszaka alatt nem voltak hivatalosan kinevezett Megbízható jelölők a DSA keretében. Ennek eredményeképpen ebben az időszakban az ilyen Megbízható jelölők által beküldött értesítések száma nulla (0) volt.

Proaktív tartalommoderálás (15.1(c) cikk)

A vonatkozó időszak alatt a Snap az EU-ban tartalommal és fiókokkal szemben a következők szerint intézkedett, miután saját kezdeményezésére tartalommoderálást folytatott:

A Snap minden saját kezdeményezésű moderációs erőfeszítése vagy embereket, vagy automatizálást használ. A nyilvános tartalmi felületeinken a tartalom általában automatizált moderáción és emberi ellenőrzésen is átesik. mielőtt terjeszthetővé válna a széles körű közönség számára. Az automatizált eszközök tekintetében ezek a következők:

  • Az illegális és sértő tartalom proaktív felismerése a gépi tanulás segítségével;

  • Hash-matching eszközök (például PhotoDNA és a Google CSAI Match);

  • Sértő nyelvhasználat észlelése a tartalom elutasítására a sértőként beazonosított kulcsszavak (emojikat is ideértve) rendszeresen frissített listája alapján.


Fellebbezések (15.1(d) cikk)

A vonatkozó időszak alatt a Snap a következő tartalom- és fiókfellebbezéseket dolgozta fel az EU-ban a belső panaszkezelési rendszerein keresztül:


* A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása. 

A tartalommoderálás automatizált eszközei (15.1(d) cikk)

A nyilvános tartalmi felületeinken a tartalom általában automatizált moderáción és emberi ellenőrzésen is átesik. mielőtt terjeszthetővé válna a széles körű közönség számára. Az automatizált eszközök tekintetében ezek a következők:

  • Az illegális és sértő tartalom proaktív felismerése a gépi tanulás segítségével;

  • Hash-egyeztető eszközök (például a PhotoDNA és a CSAI Match a Google-től);

  • Sértő nyelvhasználat észlelése a tartalom elutasítására, mely a beazonosított sértő kulcsszavak (beleértve az emojikat) rendszeresen frissített listáján alapul.


Az automatizált moderációs technológiák minden káros tartalomra vetített pontossága körülbelül 96,61%-os, míg hibaarányuk körülbelül 3,39%-os volt.


Tartalommoderációs biztosítékok (15.1(d) cikk)

Tisztában vagyunk azzal, hogy a tartalommoderálással kapcsolatos kockázatok léteznek, beleértve a szólásszabadságra és a gyülekezési szabadságra vonatkozó kockázatokat, amelyeket az automatizált és emberi moderátorok elfogultsága és a kormányok, politikai csoportok vagy jól szervezett egyének okozta visszaélések okozhatnak. A Snapchat alapvetően nem a politikai vagy aktivista tartalom helye, különösen a nyilvános tereinkben. 


Mindazonáltal az ilyen kockázatokkal szembeni védekezéshez a Snap tesztelést és képzést vet be, valamint megbízható és következetes eljárásokat alkalmaz az illegális vagy szabálysértő tartalmak jelentésével kapcsolatban, ideérte a bűnüldöző és kormányzati szervektől érkező bejelentéseket is. Folyamatosan értékeljük és fejlesztjük a tartalommoderációs algoritmusainkat. Bár a szólásszabadságot érintő károk nehezen észlelhetők, nem tudunk semmilyen jelentős hibáról, emellett lehetőséget biztosítunk a felhasználóknak, hogy jelentsék az esetlegesen előforduló hibákat. 


Irányelveink és rendszereink elősegítik az egységes és fair intézkedést, és ahogy feljebb említettük, megadják a lehetőséget a Snapchat felhasználói számára, hogy érdemben vitassák az intézkedések eredményeit az értesítési és fellebbezési folyamatok keretében, melyek célja a közösségünk érdekeinek érvényesítése, egyben az egyéni Snapchat-felhasználók jogainak védelme.

Folyamatosan arra törekszünk, hogy javítsuk a végrehajtási iránymutatásainkat és folyamatainkat, és komoly lépéseket tettünk a potenciálisan káros és illegális tartalmak és tevékenységek elleni küzdelemben a Snapchat felületén. Ez megmutatkozik a bejelentések és intézkedések növekvő számában – ahogy az a legutóbbi Átláthatósági jelentésünkben is látszik –, illetve a szabálysértések egész Snapchaten általánosan csökkenő előfordulási arányában.


Bíróságon kívüli megegyezések (24.1(a) cikk)

Legutóbbi Átláthatósági jelentésünk (2023 második féléve) időszaka alatt nem voltak a DSA alapján hivatalosan kinevezett bíróságon kívüli vitarendezési partnerek. Ennek eredményeképpen az ilyen testületek elé terjesztett viták száma nulla (0) volt ebben az időszakban, így nem tudjuk megadni a vitarendezési eredményeket, az átlagos vitarendezési időt, valamint az olyan viták arányát, amelyekben végrehajtottuk a vitarendezési testület döntését. 



Fiókfelfüggesztések (24.1(a) cikk)

2023 2. féléve során nem került sor a 23. cikk alapján kiszabott fiókfelfüggesztésre. A Snap megbízhatóságért és biztonságért felelős csapata olyan eljárásokat alkalmaz, amelyek korlátozzák a felhasználói fiókok által beküldött olyan értesítések vagy panaszok túl gyakori benyújtását, amelyek nyilvánvalóan alaptalanok. Ezek közé az eljárások közé tartozik a többszörös bejelentés korlátozása, valamint az e-mail-szűrők alkalmazása, amelyek megakadályozzák a gyakran alaptalan bejelentéseket küldő felhasználókat e tevékenységük folytatásában. A Snap megteszi a megfelelő intézkedéseket a fiókokkal szemben, ahogy ezt a Snapchat moderációs, végrehajtási és fellebbezési részletezőjében is kifejtettük, a Snap fiókmoderációs szintjével kapcsolatos információk pedig megtalálhatók az Átláthatósági jelentésünkben (2023 második féléve). Ezeket az intézkedéseket a továbbiakban is folyamatosan felül fogjuk vizsgálni, valamint tovább fogjuk fejleszteni.


Moderátori erőforrások, szakértelem és támogatás (42.2 cikk)

A tartalommoderációs csapatunk világszerte működik, így téve lehetővé a számunkra, hogy a Snapchat felhasználóinkat éjjel-nappal biztonságban tarthassuk. Az alábbiakban megtalálod az emberi moderációnk által használt erőforrások lebontását a moderátorok nyelvi specializációja szerint (megjegyzendő, hogy egyes moderátoraink több nyelvre is speciálizálódtak), a 2023. december 31-ei állapot szerint:

A fenti táblázatban az összes olyan moderátor szerepel, aki a 2023. december 31-i állapot szerint támogatja az EU-tagállamok nyelveit. Amennyiben további nyelvi támogatásra van szükségünk, ott fordítási szolgáltatásokat használunk.

A moderátorokat szabványos munkaleírással toborozzák, mely tartalmazza a nyelvi követelményt (a szükséglettől függően). A nyelvi követelmény kimondja, hogy a jelentkezőnek írásban és szóban is folyékonyan kell tudnia használni a nyelvet, és legalább egy év munkatapasztalattal kell rendelkeznie belépőszintű pozíciókban. A jelölteknek meg kell felelniük az oktatási és háttérkövetelményeknek, hogy befogadják a jelentkezésüket. A jelentkezőknek emellett be kell mutatniuk, hogy értik annak az országnak vagy régiónak az aktuális történéseit, melynek tartalommoderálását támogatni fogják.

A moderációs csapatunk alkalmazza a szabályzatainkat és a végrehajtási intézkedéseinket, hogy megvédjék a Snapchat közösségünket. A kiképzés több héten át történik, melynek során az új csapattagok megismerik a Snap irányelveit, eszközeit és eszkalációs eljárásait. A kiképzés után minden moderátornak teljesítenie kell egy minősítő vizsgát, mielőtt jogosulttá válik a tartalmak áttekintésére. A moderációs csapatunk rendszeresen részt vesz a munkafolyamataikhoz kapcsolódó felfrissítő képzésen, különösen, amikor a szabályzat határterületéhez tartozó és kontextusfüggő esetekkel találkozunk. Emellett továbbképző programokat, tanúsítási munkafolyamatokat és kvízeket is tartunk annak biztosítására, hogy az összes moderátor naprakész és a frissített irányelveknek megfelelő tudással rendelkezzen. Végül, amikor sürgős tartalmi trendek bukkannak fel aktuális eseményekhez kapcsolódóan, gondoskodunk az iránymutatás tisztázásának gyors kiosztásáról, hogy a csapatok a Snap irányelveinek megfelelően tudjanak reagálni.

A tartalommoderációs csapatunkat – a Snap digitális gyorsreagálóit – jelentős támogatással és erőforrással látjuk el, közöttük munkahelyi wellness támogatással és könnyű hozzáféréssel a mentális egészséget segítő szolgáltatásokhoz. 

A gyermekek szexuális kizsákmányolásával és bántalmazásával (CSEA) kapcsolatos médiaátvizsgálási jelentés


Háttér

A közösségünk bármely tagjának, különösen a kiskorúaknak a szexuális kizsákmányolása illegális, visszataszító és tilos a Közösségi iránymutatásainknak megfelelően. A gyermekek szexuális kizsákmányolásának és a visszaélések (CSEA) megelőzése, észlelése és felszámolása a platformunkon kiemelt prioritást jelent a Snap számára, és folyamatosan fejlesztjük a képességeinket az ilyen és más bűncselekmények elleni küzdelemre.


PhotoDNA robosztus hash-egyeztetést és a Google Child Sexual Abuse Imagery (CSAI) Match eszközét használjuk a gyermekek szexuális bántalmazásáról szóló, már ismert képek és videók azonosítására, és a törvényeknek megfelelően jelentjük azokat az Egyesült Államok Elveszett és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC). AZ NCMEC ezt követően szükség szerint összehangolja a belföldi vagy nemzetközi bűnüldözési erőfeszítéseket.


Jelentés

A fenti adatok a felhasználó galériája által a Snapchatre feltöltött médiafájlok PhotoDNA és/vagy CSAI Match használatával történő proaktív átvizsgálásának eredményein alapulnak.

A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.


A gyermekek szexuális kizsákmányolásával és bántalmazásával (CSEA) kapcsolatos médiaátvizsgálási jelentés


Háttér

A közösségünk bármely tagjának, különösen a kiskorúaknak a szexuális kizsákmányolása illegális, visszataszító és tilos a Közösségi iránymutatásainknak megfelelően. A gyermekek szexuális kizsákmányolásának és a visszaélések (CSEA) megelőzése, észlelése és felszámolása a platformunkon kiemelt prioritást jelent a Snap számára, és folyamatosan fejlesztjük a képességeinket az ilyen és más bűncselekmények elleni küzdelemre.


PhotoDNA robosztus hash-egyeztetést és a Google Child Sexual Abuse Imagery (CSAI) Match eszközét használjuk a gyermekek szexuális bántalmazásáról szóló, már ismert képek és videók azonosítására, és a törvényeknek megfelelően jelentjük azokat az Egyesült Államok Elveszett és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC). AZ NCMEC ezt követően szükség szerint összehangolja a belföldi vagy nemzetközi bűnüldözési erőfeszítéseket.


Jelentés

A fenti adatok a felhasználó galériája által a Snapchatre feltöltött médiafájlok PhotoDNA és/vagy CSAI Match használatával történő proaktív átvizsgálásának eredményein alapulnak.

A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.


A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.