Európai Unió
2023. július 1. – 2023. december 31.

Kiadva:

2024. április 25.

Frissítve:

2024. április 25.

Üdvözlünk az Európai Uniós (EU) átláthatósági oldalunkon, ahol az EU-hoz kötődő információkat tesszük közzé a Digitális szolgáltatásokról szóló törvény (DSA), az Audiovizuális médiaszolgáltatásokról szóló irányelv (AVMSD) és a Holland médiatörvény (DMA) által megkövetelt módon. Kérjük, vedd figyelembe, hogy ezeknek az Átláthatósági jelentéseknek a legfrissebb verzióját az amerikai angol nyelvi változatban találod meg.

Jogi képviselő 

A Snap Group Limited a Snap B.V.-t nevezte ki jogi képviselőjének a DSA céljaira. Felveheted a kapcsolatot a képviselővel a dsa-enquiries [kukac] snapchat.com címen a DSA, a vsp-enquiries [kukac] snapchat.com címen az AVMSD és DMA ügyekben, az Ügyfélszolgálati oldalunkon [itt], vagy itt:

Snap B.V.
Keizersgracht 165, 1016 DP,
Amszterdam, Hollandia

Amennyiben egy törvényi végrehajtói szerv képviselője vagy, kérjük, kövesd az itt felsorolt lépéseket. Kérjük, hogy holland vagy angol nyelven kommunikálj velünk.

Szabályozó hatóságok

A DSA szempontjából az Európai Bizottság és a Holland Fogyasztói és Piaci Hatóság (ACM) szabályoz minket. Az AVMSD és a DMA ügyekben a Holland Média Hatóság (CvdM) szabályoz minket

DSA átláthatósági jelentés

A DSA 15., 24. és 42. cikkelyeinek megfelelően a Snap köteles jelentések közzétételére, amelyek előírt információkat tartalmaznak a Snapchat szolgáltatásairól, mint "online platformokról", pl. a Rivaldafény, a For You, a Nyilvános profilok, a Térképek, az Objektívek és a Hirdetések vonatkozó tartalom-moderálási gyakorlatairól. Ezt a jelentést 2023. október 25-től 6 havonta kell közzétenni.

A Snap átláthatósági jelentéseket tesz közzé évente kétszer, hogy betekintést nyújtson a Snap biztonsági erőfeszítéseibe, és a platformunkon jelentett tartalmak természetébe és mennyiségébe. A legutóbbi jelentésünk 2023 2. félévére (július 1. - december 31.) itt. található. A Digitális szolgáltatásokról szóló törvényhez tartozó mérőszámok ezen az oldalon találhatók.

Aktív igénybe vevők havi átlagos száma 
(DSA 24.2 és 42.3 cikkek)

2023. december 31-én átlagosan 90,9 millió aktív havi igénybe vevővel ("AMAR") rendelkezünk az EU-ban a Snapchat alkalmazásunkban. Ez azt jelenti, hogy az elmúlt 6 hónapban az EU-ban átlagosan 90,9 millió regisztrált felhasználó nyitotta meg a Snapchat alkalmazást legalább egyszer az adott hónapban.

Ez az érték tagállamonként a következőképpen oszlik meg:

Ezeket az értékeket úgy számoltuk ki, hogy megfeleljenek a jelenlegi DSA szabályoknak, és csak a DSA szempontjából szabad rájuk támaszkodni. Az idők során változtattunk azon, hogyan számoljuk ki ezt az adatot, válaszul többek között a változó belső politikára, a szabályozói iránymutatásokra és a technológiára, így az adatoknak nem célja az időszakok közötti összehasonlíthatóság. Ez eltérhet azoktól a számításoktól, amelyeket az aktív felhasználói értékekre teszünk közzé más célokból.


A tagállamok hatósági kérelmei
(DSA 15.1(a) cikk)

Eltávolítási kérelmek 

Ebben az időszakban 0 eltávolítási kérelmet kaptunk az EU tagállamaiból a DSA 9. cikke alapján. 

Tájékoztatási kérelmek 

Ebben az időszakban a következő információkéréseket kaptuk az EU tagállamaiból a DSA 10. cikke alapján:

A hatóságok tájékoztatásának átlagos átfutási ideje az információkérések átvételéről 0 perc – automatizált átvétel-visszaigazoló választ biztosítunk. Az információkérelmek teljesítésének átlagos átfutási ideje kb. 10 nap. Ez a mutató azt az időtartamot tükrözi, amely az információkérés Snap-hez való beérkezésével kezdődik és addig tart, amíg a Snap szerint a kérés mindenben nem teljesült. Bizonyos esetekben a folyamat hossza részben attól függ, hogy milyen sebességgel válaszolnak a bűnüldöző szervek, ha a Snap kér tőlük olyan felvilágosítást, ami az ő kérelmük feldolgozásához szükséges.

Tartalom moderálása


A Snapchat-en lévő összes tartalomnak meg kell felelnie a Közösségi iránymutatásainknak és a Szolgáltatási feltételeinknek, illetve a kiegészítő feltételeinknek, iránymutatásainknak és magyarázatainknak. A proaktív észlelési mechanizmusok és az illegális vagy szabálysértő tartalom vagy fiókok jelentése felülvizsgálatot indít be, amelynek során a rendelkezésre álló rendszereink feldolgozzák a kérést, begyűjtik a kapcsolódó metaadatokat és továbbítják a releváns tartalmat a moderációs csapatunk felé egy olyan struktúrált felhasználói felületen keresztül, mely úgy került megalkotásra, hogy elősegítse a hatékony és eredményes felülvizsgálati műveleteket. Amikor a moderációs csapataink emberi felülvizsgálattal vagy automatizált rendszerek segítségével megállapítják, hogy egy felhasználó megsértette a Feltételeinket, eltávolíthatjuk a sértő tartalmat vagy fiókot, megszüntethetjük a kapcsolódó fiókot, vagy korlátozhatjuk a láthatóságát, és/vagy értesíthetjük a hatóságokat, ahogy az részletezésre került a Snapchat moderációs, végrehajtási és fellebbezési magyarázónkban.  Azok a felhasználók, akiket zárolt a biztonsági csapatunk a Közösségi iránymutatások megsértése miatt, benyújthatnak egy fiókzárolás elleni fellebbezést, és a felhasználók bizonyos tartalmi végrehajtások elleni is fellebbezhetnek.

Tartalom- és fiókértesítések (DSA 15.1(b) cikk)

A Snap olyan mechanizmusokat hozott létre, amelyek lehetővé teszik, hogy a felhasználók és a nem felhasználók értesítsék a Snapet azokról a tartalmakról és fiókokról, amelyek megsértik Közösségi iránymutatásainkat és Szolgáltatási feltételeinket a platformon, beleértve azokat is, amelyek illegálisnak tekinthetők a DSA 16. cikke alapján.  Ezek a jelentési mechanizmusok az alkalmazásban (azaz közvetlenül a tartalomból) és a weboldalunkon érhetők el.

A vonatkozó időszak alatt a következő tartalom- és fiókértesítéseket kaptuk az EU-ban:

A H2'23-ban 664 896 értesítést kezeltünk kizárólag automatizált eszközökön keresztül. Mindezek a Közösségi iránymutatásainkból következő intézkedéssel jártak, ugyanis Közösségi iránymutatásaink felölelik az illegális tartalmakat is. 

A felhasználó által generált tartalmak és fiókok mellett moderáljuk a hirdetéseket, ha azok megsértik a platformunk irányelveit. Az alábbiakban megtalálható a hirdetések teljes száma, amelyeket az EU-ban jelentettek és eltávolítottak. 

Megbízható jelölők értesítései (15.1(b) cikk)

Legutóbbi átláthatósági jelentésünk (H2 2023) időszaka alatt nem voltak hivatalosan kinevezett Megbízható jelölők a DSA keretében. Ennek eredményeképpen ebben az időszakban az ilyen Megbízható jelölők által beküldött értesítések száma nulla (0) volt.

Proaktív tartalommoderálás (15.1(c) cikk)

A vonatkozó időszak alatt a Snap az EU-ban tartalommal és fiókokkal szemben a következők szerint intézkedett, miután saját kezdeményezésére tartalommoderálást folytatott:

A Snap minden saját kezdeményezésű moderációs erőfeszítése vagy embereket, vagy automatizálást használ. A nyilvános tartalmi felületeinken a tartalom általában automatizált moderáción és emberi ellenőrzésen is átesik. mielőtt terjeszthetővé válna a széles körű közönség számára. Az automatizált eszközök tekintetében ezek a következők:

  • Az illegális és sértő tartalom proaktív felismerése a gépi tanulás segítségével;

  • Hash-matching eszközök (például PhotoDNA és a Google CSAI Match);

  • Sértő nyelvhasználat észlelése a tartalom elutasítására a sértőként beazonosított kulcsszavak (emojikat is ideértve) rendszeresen frissített listája alapján.


Fellebbezések (15.1(d) cikk)

A vonatkozó időszak alatt a Snap a következő tartalom- és fiókfellebbezéseket dolgozta fel az EU-ban a belső panaszkezelési rendszerein keresztül:


* A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró jellege miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása. 

Automatizált eszközök a tartalom moderálására (15. cikk (1) bekezdés e) pont)

A nyilvános tartalmi felületeinken a tartalom általában automatizált moderáláson és emberi ellenőrzésen is átesik. mielőtt terjeszthetővé válna a széles körű közönség számára. Ami az automatizált eszközöket illeti, ezek a következőket tartalmazzák:

  • Az illegális és sértő tartalom proaktív felismerése a gépi tanulás segítségével;

  • Hash-egyeztető eszközök (például a PhotoDNA és a CSAI Match a Google-től);

  • Sértő nyelvhasználat észlelése a tartalom elutasítására, mely a beazonosított sértő kulcsszavak (beleértve az emojikat) rendszeresen frissített listáján alapul.


Az automatizált moderálási technológiák minden káros tartalomra vetített pontossága körülbelül 96,61%-os, míg hibaarányuk körülbelül 3,39%-os volt.


Tartalom-moderálási biztosítékok (15. cikk (1) bekezdés e) pont)

Tisztában vagyunk azzal, hogy a tartalommoderálással kapcsolatban léteznek kockázatok, beleértve a szólásszabadságra és a gyülekezési szabadságra vonatkozó kockázatokat, amelyeket az automatizált és emberi moderátorok elfogultsága és a kormányok, politikai csoportok vagy jól szervezett egyének okozta visszaélések okozhatnak. A Snapchat alapvetően nem a politikai vagy aktivista tartalom helye, különösen a nyilvános tereinkben. 


Mindazonáltal az ilyen kockázatokkal szembeni védekezéshez a Snap tesztelést és képzést vet be, valamint megbízható és következetes eljárásokat alkalmaz az illegális vagy szabálysértő tartalmak bejelentéseivel kapcsolatban, ideérte a bűnüldöző és kormányzati szervektől érkező bejelentéseket is. Folyamatosan értékeljük és fejlesztjük a tartalommoderálási algoritmusainkat. Bár a szólásszabadságot érintő károk nehezen észlelhetők, nem tudunk semmilyen jelentős hibáról, emellett lehetőséget biztosítunk a felhasználóknak, hogy jelentsék az esetlegesen előforduló tévedéseket. 


Irányelveink és rendszereink elősegítik az egységes és fair intézkedést, és ahogy feljebb említettük, megadják a lehetőséget a Snapchat felhasználói számára, hogy érdemben vitassák az intézkedések eredményeit az értesítési és fellebbezési folyamatok keretében, melyek célja a közösségünk érdekeinek érvényesítése, egyben az egyéni Snapchat-felhasználók jogainak védelme.

Folyamatosan arra törekszünk, hogy javítsuk a intézkedési iránymutatásainkat és folyamatainkat, és komoly lépéseket tettünk a potenciálisan káros és illegális tartalmak és tevékenységek elleni küzdelemben a Snapchat felületén. Ez megmutatkozik a bejelentések és intézkedések növekvő számában – ahogy az a legutóbbi Átláthatósági jelentésünkben is látszik –, illetve a szabálysértések a Snapchat egészén általánosan csökkenő előfordulási arányában.


Bíróságon kívüli megegyezések (24.1(a) cikk)

Legutóbbi Átláthatósági jelentésünk (2023 második féléve) időszaka alatt nem voltak a DSA alapján hivatalosan kinevezett bíróságon kívüli vitarendezési partnerek. Ennek eredményeképpen az ilyen testületek elé terjesztett viták száma nulla (0) volt ebben az időszakban, így nem tudjuk megadni a vitarendezési eredményeket, az átlagos vitarendezési időt, valamint az olyan viták arányát, amelyekben végrehajtottuk a vitarendezési testület döntését. 



Fiókfelfüggesztések (24.1. cikk b) pont)

2023 2. féléve során nem került sor a 23. cikk alapján kiszabott fiókfelfüggesztésre. A Snap megbízhatóságért és biztonságért felelős csapata olyan eljárásokat alkalmaz, amelyek korlátozzák a felhasználói fiókok által beküldött olyan értesítések vagy panaszok túl gyakori benyújtását, amelyek nyilvánvalóan alaptalanok. Ezek közé az eljárások közé tartozik a többszörös bejelentés korlátozása, valamint az e-mail-szűrők alkalmazása, amelyek megakadályozzák a gyakran alaptalan bejelentéseket küldő felhasználókat e tevékenységük folytatásában. A Snap megteszi a megfelelő intézkedéseket a fiókokkal szemben, ahogy ezt a Snapchat moderálási, végrehajtási és fellebbezési részletezőjében is kifejtettük, a Snap fiókintézkedési szintjével kapcsolatos információk pedig megtalálhatók az Átláthatósági jelentésünkben (2023 második féléve). Ezeket az intézkedéseket a továbbiakban is folyamatosan felül fogjuk vizsgálni, valamint tovább fogjuk fejleszteni.


Moderátori erőforrások, szakértelem és támogatás (42.2 cikk)

Tartalommoderátor csapatunk világszerte működik, így téve lehetővé a számunkra, hogy a Snapchat felhasználóinkat éjjel-nappal biztonságban tarthassuk. Az alábbiakban megtalálod az emberi moderálást végző munkatársak lebontását a moderátorok nyelvi specializációja szerint (megjegyzendő, hogy egyes moderátoraink több nyelvre is speciálizálódtak), a 2023. december 31-ei állapot szerint:

A fenti táblázatban az összes olyan moderátor szerepel, aki a 2023. december 31-i állapot szerint támogatja az EU-tagállamok nyelveit. Amennyiben további nyelvi támogatásra van szükségünk, ott fordítási szolgáltatásokat használunk.

A moderátorokat szabványos munkaleírással toborozzák, mely tartalmazza a nyelvi követelményt (a szükséglettől függően). A nyelvi követelmény kimondja, hogy a jelentkezőnek írásban és szóban is folyékonyan kell tudnia használni a nyelvet, és legalább egy év munkatapasztalattal kell rendelkeznie belépőszintű pozíciókban. A jelölteknek meg kell felelniük az oktatási és háttérkövetelményeknek, hogy befogadják a jelentkezésüket. A jelentkezőknek emellett be kell mutatniuk, hogy értik annak az országnak vagy régiónak az aktuális történéseit, melynek tartalommoderálását támogatni fogják.

A moderációs csapatunk alkalmazza a szabályzatainkat és a végrehajtási intézkedéseinket, hogy megvédjék a Snapchat közösségünket. A kiképzés több héten át történik, melynek során az új csapattagok megismerik a Snap irányelveit, eszközeit és eszkalációs eljárásait. A kiképzés után minden moderátornak teljesítenie kell egy minősítő vizsgát, mielőtt jogosulttá válik a tartalmak áttekintésére. A moderációs csapatunk rendszeresen részt vesz a munkafolyamataikhoz kapcsolódó felfrissítő képzésen, különösen, amikor a szabályzat határterületéhez tartozó és kontextusfüggő esetekkel találkozunk. Emellett továbbképző programokat, tanúsítási munkafolyamatokat és kvízeket is tartunk annak biztosítására, hogy az összes moderátor naprakész és a frissített irányelveknek megfelelő tudással rendelkezzen. Végül, amikor sürgős tartalmi trendek bukkannak fel aktuális eseményekhez kapcsolódóan, gondoskodunk az iránymutatás tisztázásának gyors kiosztásáról, hogy a csapatok a Snap irányelveinek megfelelően tudjanak reagálni.

A tartalommoderációs csapatunkat – a Snap digitális gyorsreagálóit – jelentős támogatással és erőforrással látjuk el, közöttük munkahelyi wellness támogatással és könnyű hozzáféréssel a mentális egészséget segítő szolgáltatásokhoz. 

A gyermekek szexuális kizsákmányolásával és bántalmazásával (CSEA) kapcsolatos médiaátvizsgálási jelentés


Háttér

A közösségünk bármely tagjának, különösen a kiskorúaknak a szexuális kizsákmányolása illegális, visszataszító és tilos a Közösségi iránymutatásainknak megfelelően. A gyermekek szexuális kizsákmányolásának és a visszaélések (CSEA) megelőzése, észlelése és felszámolása a platformunkon kiemelt prioritást jelent a Snap számára, és folyamatosan fejlesztjük a képességeinket az ilyen és más bűncselekmények elleni küzdelemre.


PhotoDNA robosztus hash-egyeztetést és a Google Child Sexual Abuse Imagery (CSAI) Match eszközét használjuk a gyermekek szexuális bántalmazásáról szóló, már ismert képek és videók azonosítására, és a törvényeknek megfelelően jelentjük azokat az Egyesült Államok Elveszett és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC). AZ NCMEC ezt követően szükség szerint összehangolja a belföldi vagy nemzetközi bűnüldözési erőfeszítéseket.


Jelentés

A fenti adatok a felhasználó galériája által a Snapchatre feltöltött médiafájlok PhotoDNA és/vagy CSAI Match használatával történő proaktív átvizsgálásának eredményein alapulnak.

A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.


A gyermekek szexuális kizsákmányolásával és bántalmazásával (CSEA) kapcsolatos médiaátvizsgálási jelentés


Háttér

A közösségünk bármely tagjának, különösen a kiskorúaknak a szexuális kizsákmányolása illegális, visszataszító és tilos a Közösségi iránymutatásainknak megfelelően. A gyermekek szexuális kizsákmányolásának és a visszaélések (CSEA) megelőzése, észlelése és felszámolása a platformunkon kiemelt prioritást jelent a Snap számára, és folyamatosan fejlesztjük a képességeinket az ilyen és más bűncselekmények elleni küzdelemre.


PhotoDNA robosztus hash-egyeztetést és a Google Child Sexual Abuse Imagery (CSAI) Match eszközét használjuk a gyermekek szexuális bántalmazásáról szóló, már ismert képek és videók azonosítására, és a törvényeknek megfelelően jelentjük azokat az Egyesült Államok Elveszett és Kizsákmányolt Gyermekek Nemzeti Központjának (NCMEC). AZ NCMEC ezt követően szükség szerint összehangolja a belföldi vagy nemzetközi bűnüldözési erőfeszítéseket.


Jelentés

A fenti adatok a felhasználó galériája által a Snapchatre feltöltött médiafájlok PhotoDNA és/vagy CSAI Match használatával történő proaktív átvizsgálásának eredményein alapulnak.

A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.


A gyermekek szexuális kizsákmányolása elleni fellépés kiemelt fontosságú. A Snap jelentős erőforrásokat fordít erre, és zéró toleranciát hirdet az ilyen magatartással szemben.  A gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések felülvizsgálatához speciális képzésre van szükség, és a tartalmak felkavaró természete miatt csak egy kis létszámú ügyintézői csapat kezeli ezeket a felülvizsgálatokat.  2023 őszén a Snap olyan irányelv-módosításokat léptetett életbe, amelyek hatással voltak a gyerekek szexuális kizsákmányolása elleni bizonyos intézkedések egységességére. Ezt a problémát az ügynökök továbbképzésével és szigorú minőségbiztosítással orvosoltuk.  Várakozásaink szerint a következő átláthatósági jelentésben látható lesz a gyermekek szexuális kizsákmányolásával kapcsolatos fellebbezések feldolgozási idejének és a kezdeti intézkedések pontosságának a javulása.  

Tartalommoderációs biztosítékok

A CSEA médiumok átvizsgálására vonatkozó biztosítékokat a fenti „Tartalommoderációs biztosítékok” című rész sorolja fel a DSA jelentésünkben.


Ez az érték tagállamonként a következőképpen oszlik meg:

Ez az érték tagállamonként a következőképpen oszlik meg: