Uniunea Europeană
1 iulie 2023 – 31 decembrie 2023

Eliberat:

25 aprilie 2024

Actualizat:

25 aprilie 2024

Bine ați venit pe pagina noastră de transparență privind Uniunea Europeană (UE), unde publicăm informații specifice UE cerute de Legea privind serviciile digitale (DSA), de Directiva privind serviciile media audiovizuale (AVMSD) și de Legea olandeză privind mass-media (DMA). Vă rugăm să rețineți că cea mai recentă versiune a acestor Rapoarte de transparență poate fi găsită în versiunea în limba engleză.

Reprezentantul juridic 

Snap Group Limited a numit Snap B.V. ca reprezentat legal în scopuri ce țin de DSA. Poți contacta reprezentantul la dsa-enquiries [at] snapchat.com pentru DSA, la vsp-enquiries [at] snapchat.com pentru AVMSD și DMA, prin intermediul site-ului nostru de asistență [aici], sau la:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Olanda

Dacă sunteți o agenție de aplicare a legii, vă rugăm să urmați pașii descriși aici.

Autoritățile de reglementare

În ceea ce privește DSA, suntem reglementați de Comisia Europeană și de Autoritatea olandeză pentru consumatori și piețe (ACM). În ceea ce privește AVMSD și DMA, suntem reglementați de Autoritatea olandeză pentru mass-media (CvdM)

Raportul de raport de transparență DSA

Snap este obligată, în conformitate cu articolele 15, 24 și 42 din DSA, să publice rapoarte care să conțină informațiile prescrise cu privire la moderarea conținutului pentru serviciile Snapchat care sunt considerate ”platforme online", și anume Spotlight, For You, Profile publice, Hărți, Lentile și Publicitate. Acest raport trebuie publicat la fiecare șase luni, începând cu 25 octombrie 2023.

Snap publică rapoarte de transparență de două ori pe an pentru a oferi o perspectivă asupra eforturilor noastre privind siguranța, precum și asupra naturii și a volumului de conținut raportate pe platforma noastră. Cel mai recent raport al nostru pentru semestrul 2 din 2023 (1 iulie - 31 decembrie) poate fi consultat aici. Valorile specifice Legii privind serviciile digitale pot fi găsite pe această pagină.

Media lunară a beneficiarilor activi 
(Articolele DSA 24.2 și 42.3)

La data de 11 decembrie 2023, avem 90,9 milioane de beneficiari activi lunar („AMAR”) ai aplicației noastre Snapchat în UE. Aceasta înseamnă că, în medie, în ultimele 6 luni, 90,9 milioane de utilizatori înregistrați în UE au deschis aplicația Snapchat cel puțin o dată pe parcursul unei anumite luni.

Această cifră este defalcată pe Stat Membru după cum urmează:

Aceste cifre au fost calculate pentru a respecta normele actuale privind DSA (Actul legislativ privind serviciile digitale) și trebuie invocate numai în scopuri ce țin de această lege. Am schimbat modul în care calculăm aceste cifre în timp, inclusiv ca răspuns la schimbarea politicii interne, a orientărilor autorităților de reglementare și a tehnologiei; cifrele nu sunt destinate realizării unei comparații între perioade. De asemenea, poate diferi și de calculele pe care le folosim pentru a obține alte cifre privind utilizatorii activi pe care le publicăm în alte scopuri.


Cereri din partea autorităților statelor membre
[DSA Articolul 15.1(a)]

Cereri de dezactivare a accesului 

În această perioadă, am primit 0 cereri de dezactivare a accesului de la statele membre UE, în conformitate cu DSA articolul 9. 

Cereri de informații 

În această perioadă, am primit următoarele cereri de informații din partea statelor membre UE, în conformitate cu DSA articolul 10:

Timpul mediu de procesare pentru informarea autorităților cu privire la primirea cererilor de informații este de 0 minute — oferim o confirmare de primire ca răspuns automat. Timpul mediu de procesare pentru aducerea la îndeplinire a Cererilor de informații este de ~10 zile. Această metrică reflectă perioada de timp de la momentul în care Snap primește o Cerere de informații până la momentul în care Snap este de părere că cererea este complet soluționată. În unele cazuri, durata acestui proces depinde parțial de viteza cu care autoritățile de aplicare a legii răspund la posibilele cereri de clarificare din partea Snap, necesare pentru procesarea cererii acestora.

Moderarea conținutului 


Tot conținutul de pe Snapchat trebuie să respecte Regulile comunității și Termenii de utilizare, precum și termenii, regulile și explicațiile aferente. Mecanismele de detectare proactivă și rapoartele privind conținutul sau conturile ilegale impun o revizuire, moment în care sistemele noastre de instrumente procesează cererea, colectează metadatele relevante și direcționează conținutul relevant către echipa noastră de moderare prin intermediul unei interfețe de utilizator structurate care este concepută pentru a facilita operațiunile de revizuire în vigoare și eficiente. În cazul în care echipele noastre de moderare stabilesc, fie prin analiză umană, fie prin mijloace automate, că un utilizator a încălcat Termenii noștri, putem elimina conținutul sau contul incriminat, încheia sau limita vizibilitatea contului în cauză și/sau notifica forțele de ordine, după cum se explică în explicațiile noastre privind moderarea, aplicarea și apelurile Snapchat.  Utilizatorii ale căror conturi sunt blocate de către echipa noastră de siguranță pentru încălcări ale Regulilor comunității pot depune o cerere de apel pentru contul blocat, iar utilizatorii pot face apel la anumite aplicări de conținut.

Înștiințări cu privire la conținut și conturi [DSA articolul 15.1(b)]

Snap a pus în aplicare mecanisme care să le permită utilizatorilor și non-utilizatorilor să înștiințeze Snap cu privire la conținutul și conturile care încalcă Regulile comunității și Termenii de utilizare de pe platformă, inclusiv cu privire la cele pe care le consideră ilegale, în conformitate cu DSA articolul 16.  Aceste mecanisme de raportare sunt disponibile chiar în aplicație (adică direct din conținut) și pe site-ul nostru web.

În perioada în cauză am primit următoarele înștiințări cu privire la conținut și la conturi în UE:

În S2 2023 am gestionat 664.896 de înștiințări exclusiv prin mijloace automatizate. Toate acestea au fost puse în aplicare pe baza Regulilor comunității noastre, deoarece Regulile comunității se referă la conținutul ilegal. 

Pe lângă conținutul și conturile generate de utilizatori, moderăm reclamele, dacă acestea încalcă politicile platformei noastre. Mai jos este prezentat totalul reclamelor raportate și eliminate în UE. 

Notificări privind Colaboratorii de încredere [articolul 15.1(b)]

Pentru perioada la care se referă cel mai nou Raport de transparență (S2 2023) al nostru, nu au existat Colaboratori de încredere numiți în mod oficial în baza DSA. Ca urmare, numărul de notificări trimise de astfel de Colaboratori de încredere în această perioadă a fost zero (0).

Moderarea proactivă a conținutului [articolul 15.1(c)]

În perioada în cauză, Snap a pus în aplicare următoarele conturi și conținuturi în UE, după ce s-a implicat în moderarea conținutului din proprie inițiativă:

Toate eforturile de moderare din proprie inițiativă ale Snap au folosit oameni sau automatizare. Pe suprafețele noastre de conținut public, conținutul trece, în general, atât prin auto-moderare, cât și prin examinare umană înainte de a fi eligibil pentru a fi distribuit unui public larg. În ceea ce privește instrumentele automate, acestea includ:

  • Detectarea proactivă a conținutului ilegal și infracțional utilizând învățarea automată;

  • Instrumente de asociere a hash-ului (cum ar fi PhotoDNA și CSAI Match de la Google);

  • Detectarea limbajului abuziv pentru a respinge conținutul pe baza unei liste identificate și actualizate periodic de cuvinte-cheie abuzive, inclusiv emoticoane


Contestări [articolul 15.1(d)]

În perioada în cauză, Snap a procesat următoarele contestări cu privire la conținut și conturi în UE, prin intermediul sistemelor sale interne de soluționare a reclamațiilor:


* Oprirea exploatării sexuale a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest sens și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de aplicare inițială. 

Mijloace automatizate de moderare a conținutului (articolul 15.1(d))

Pe suprafețele noastre de conținut public, conținutul trece, în general, atât prin auto-moderare, cât și prin examinare umană înainte de a fi eligibil pentru a fi distribuit unui public larg. În ceea ce privește instrumentele automate, acestea includ:

  • Detectarea proactivă a conținutului ilegal și infracțional utilizând învățarea automată;

  • Instrumente de potrivire Hash (cum ar fi PhotoDNA și CSAI Match al Google);

  • Detectarea limbajului abuziv pentru a respinge conținutul pe baza unei liste identificate și actualizate periodic de cuvinte-cheie abuzive, inclusiv emoticoane.


Acuratețea tehnologiilor de moderare automată pentru toate prejudiciile a fost de aproximativ 96,61%, iar rata de eroare a fost de aproximativ 3,39%.


Garanții privind moderarea conținutului (articolul 15.1(d))

Recunoaștem că există riscuri asociate cu moderarea conținutului, inclusiv riscuri la adresa libertății de exprimare și de întrunire care pot fi cauzate de prejudecățile moderatorilor automatizați și umani și de rapoartele abuzive, inclusiv de către guverne, grupuri politice sau persoane bine organizate. Snapchat nu este, în general, un loc pentru partajarea conținutului politic sau activist, în special în spațiile noastre publice. 


Cu toate acestea, pentru a se proteja împotriva acestor riscuri, Snap a pus în aplicare teste și cursuri de formare și are proceduri solide și consecvente pentru gestionarea rapoartelor privind conținutul ilegal sau care încalcă legea, inclusiv din partea autorităților de aplicare a legii și a autorităților guvernamentale. Evaluăm și evoluăm în mod continuu algoritmii noștri de moderare a conținutului. În timp ce eventualele prejudicii aduse libertății de exprimare sunt dificil de detectat, nu au fost raportate probleme semnificative, noi oferind utilizatorilor noștri posibilitatea de a raporta greșelile, dacă acestea apar. 


Politicile și sistemele noastre promovează o aplicare consecventă și echitabilă și, așa cum este descris mai sus, oferă Snapchatterilor posibilitatea de a contesta în mod semnificativ rezultatele aplicării prin intermediul proceselor de notificare și de apel care au ca scop protejarea intereselor comunității noastre, protejând în același timp drepturile individuale ale Snapchatterilor.

Ne străduim în permanență să ne îmbunătățim politicile și procesele de aplicare a legii și am făcut mari progrese în combaterea conținutului și activităților potențial dăunătoare și ilegale de pe Snapchat. Acest lucru se reflectă într-o tendință de creștere a cifrelor noastre de raportare și de aplicare a legii prezentate în cel mai recent Raport de transparență și în scăderea ratelor de prevalență a încălcărilor pe Snapchat în general.


Tranzacții extrajudiciare (articolul 24.1(a))

Pentru perioada de referință a ultimului nostru Raport de transparență (semestrul II 2023), nu au existat organisme de soluționare extrajudiciară a litigiilor numite în mod oficial în temeiul DSA. Prin urmare, numărul de litigii înaintate unor astfel de organisme a fost zero (0) în această perioadă și nu suntem în măsură să oferim rezultatele, timpii medii de soluționare și ponderea litigiilor în care am pus în aplicare deciziile organismului. 



Suspendarea conturilor (articolul 24.1(a))

În cursul semestrului II din 2023,  nu am avut nicio suspendare de cont impusă în conformitate cu articolul 23. Echipa de încredere și siguranță a Snap dispune de proceduri pentru a limita posibilitatea ca utilizatorii să trimită frecvent notificări sau plângeri care sunt în mod evident nefondate. Aceste proceduri includ restricționarea creării de rapoarte duplicate și utilizarea filtrelor de e-mail pentru a împiedica utilizatorii care au trimis frecvent rapoarte vădit nefondate să continue să facă acest lucru. Snap ia măsuri adecvate de aplicare a legii împotriva conturilor, după cum se specifică în documentul despre Moderare, Aplicare a legii și Contestații Snapchat, iar mai multe informații privind nivelul de aplicare a legii asupra conturilor Snap pot fi găsite în Raportul nostru de Transparență (S2 2023). Astfel de măsuri vor continua să fie revizuite și repetate.


Resurse, expertiză și sprijin din partea moderatorului (articolul 42.2)

Echipa noastră de moderare a conținutului operează în întreaga lume, ceea ce ne permite să contribuim la menținerea siguranței Snapchatterilor non stop. Mai jos, vei găsi defalcarea resurselor noastre umane de moderare în funcție de specialitățile lingvistice ale moderatorilor (rețineți că unii moderatori sunt specializați în mai multe limbi) începând cu 31 decembrie 2023:

Tabelul de mai sus include toți moderatorii care acceptă limbile statelor membre ale UE începând cu 31 decembrie 2023. În situațiile în care avem nevoie de suport lingvistic suplimentar, folosim servicii de traducere.

Moderatorii sunt recrutați folosind o descriere standard a ofertei de loc de muncă care include o cerință lingvistică (în funcție de ce este necesar). Conform cerințelor lingvistice, candidatul trebuie să demonstreze fluența scrisă și vorbită în limba respectivă și să aibă cel puțin un an de experiență de lucru pentru a putea fi considerat pentru posturile la nivel de începător. De asemenea, pentru a fi luați în considerare, candidații trebuie să îndeplinească de asemenea cerințele în materie de studii și de experiență. De asemenea, candidații trebuie să demonstreze că sunt la curent cu evenimentele actuale din țara sau regiunea în care vor susține moderarea conținutului.

Echipa noastră de moderare aplică politicile și măsurile de aplicare a legii pentru a ne ajuta să protejăm comunitatea Snapchat. Instruirea se desfășoară pe o perioadă de mai multe săptămâni, în care noii membri ai echipei sunt instruiți cu privire la politicile, instrumentele și procedurile de soluționare a situațiilor de urgență ale Snap. După formare, fiecare moderator trebuie să treacă un examen de certificare înainte de a i se permite să revizuiască conținut. Echipa noastră de moderare participă în mod regulat la cursuri de perfecționare relevante pentru fluxurile lor de lucru, în special atunci când ne confruntăm cu cazuri care se află la limita politicii și care depind de context. De asemenea, organizăm programe de perfecționare, sesiuni de certificare și chestionare pentru a ne asigura că toți moderatorii sunt la zi și respectă toate politicile actualizate. În cele din urmă, atunci când apar tendințe urgente în materie de conținut pe baza evenimentelor curente, difuzăm rapid clarificări privind politicile, astfel încât echipele să poată răspunde în conformitate cu politicile Snap.

Oferim echipei noastre de moderare a conținutului (prim-ajutorul digital Snap) suport și resurse semnificative, inclusiv sprijin pentru bunăstare la locul de muncă și acces facilitat la servicii de sănătate mintală. 

Raportul de analiză mediatică privind exploatarea și abuzurile sexuale asupra copiilor (CSEA)


Fundal

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.


Utilizăm PhotoDNA robust hash-matching și Google's Child Sexual Abuse Imagery (CSAI) Match pentru a identifica imaginile și, respectiv, videoclipurile ilegale cunoscute de abuz sexual asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.


Raport

Datele de mai jos se bazează pe rezultatul scanării proactive cu ajutorul PhotoDNA și/sau CSAI Match a mediilor încărcate din galeria camerei unui utilizator Snapchat.

Oprirea exploatării sexuale a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest sens și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de aplicare inițială.  

Măsuri de protecție pentru moderarea conținutului

Măsurile de protecție aplicate pentru scanarea mass-media CSEA sunt prezentate în secțiunea „Măsuri de protecție pentru moderarea conținutului” de mai sus din cadrul raportului nostru DSA.


Raportul de analiză mediatică privind exploatarea și abuzurile sexuale asupra copiilor (CSEA)


Fundal

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.


Utilizăm PhotoDNA robust hash-matching și Google's Child Sexual Abuse Imagery (CSAI) Match pentru a identifica imaginile și, respectiv, videoclipurile ilegale cunoscute de abuz sexual asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.


Raport

Datele de mai jos se bazează pe rezultatul scanării proactive cu ajutorul PhotoDNA și/sau CSAI Match a mediilor încărcate din galeria camerei unui utilizator Snapchat.

Oprirea exploatării sexuale a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest sens și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de aplicare inițială.  

Măsuri de protecție pentru moderarea conținutului

Măsurile de protecție aplicate pentru scanarea mass-media CSEA sunt prezentate în secțiunea „Măsuri de protecție pentru moderarea conținutului” de mai sus din cadrul raportului nostru DSA.


Oprirea exploatării sexuale a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest sens și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de aplicare inițială.  

Măsuri de protecție pentru moderarea conținutului

Măsurile de protecție aplicate pentru scanarea mass-media CSEA sunt prezentate în secțiunea „Măsuri de protecție pentru moderarea conținutului” de mai sus din cadrul raportului nostru DSA.