Uniunea Europeană
Ultima actualizare: 7 februarie 2024

Bine ați venit pe pagina noastră de transparență a Uniunii Europene (UE), unde publicăm informații specifice UE cerute de Legea UE privind serviciile digitale (DSA), de Directivă privind serviciile media audiovizuale (AVMSD) și în ceea ce privește Legea olandeză despre mass-media (DMA).

Media lunară a beneficiarilor activi 

La data de 1 august 2023, avem 102 milioane de beneficiari activi lunar („AMAR”) ai aplicației noastre Snapchat în UE. Aceasta înseamnă că, în medie, în ultimele 6 luni, 102 milioane de utilizatori înregistrați în UE au deschis aplicația Snapchat cel puțin o dată pe parcursul unei anumite luni.

Această cifră este defalcată pe Stat Membru după cum urmează:

Aceste cifre au fost calculate pentru a respecta normele actuale privind DSA (Actul legislativ privind serviciile digitale) și trebuie invocate numai în scopuri ce țin de această lege. Am putea schimba, cu timpul, modul în care calculăm această cifră, inclusiv ca răspuns la schimbarea legislației și a tehnologiei. De asemenea, poate diferi și de calculele pe care le folosim pentru a obține alte cifre privind utilizatorii activi pe care le publicăm în alte scopuri.

Reprezentantul juridic 

Snap Group Limited a numit Snap B.V. în calitate de reprezentant legal. Poți contacta reprezentantul la dsa-enquiries [at] snapchat.com pentru DSA, la vsp-enquiries [at] snapchat.com pentru AVMSD și DMA, prin intermediul site-ului nostru de asistență [aici], sau la:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Olanda

Dacă sunteți o agenție de aplicare a legii, vă rugăm să urmați pașii descriși aici.

Autoritățile de reglementare

În ceea ce privește DSA, suntem reglementați de Comisia Europeană și de Autoritatea olandeză pentru consumatori și piețe (ACM). 

În ceea ce privește AVMSD și DMA, suntem reglementați de Autoritatea olandeză pentru mass-media (CvdM).

Raportul de raport de transparență DSA

Snap este obligată, în conformitate cu articolele 15, 24 și 42 din DSA, să publice rapoarte care să conțină informațiile prescrise cu privire la moderarea conținutului pentru serviciile Snapchat care sunt considerate ”platforme online", și anume Spotlight, For You, Profile publice, Hărți, Lentile și Publicitate. Acest raport trebuie publicat la fiecare șase luni, începând cu 25 octombrie 2023.

Snap publică rapoarte de transparență de două ori pe an pentru a oferi o perspectivă asupra eforturilor noastre privind siguranța, precum și asupra naturii și a volumului de conținut raportate pe platforma noastră. Ultimul nostru raport, pentru prima jumătate a lui 2023 (1 ianuarie - 30 iunie) poate fi consultat aici. Raportul conține următoarele informații:

  • Solicitările guvernului, care includ solicitări de informații și de ștergere de conținut; 

  • Încălcări ale conținutului, care includ acțiuni luate în raport cu conținutul ilegal și timpul mediu de răspunsim; 

  • Contestațiile, care sunt primite și rezolvate prin intermediul procesului nostru intern.

Aceste secțiuni sunt relevante pentru informațiile solicitate la articolul 15.1 literele (a), (b) și (d) din DSA. Rețineți că acestea nu conțin încă un set complet de date, deoarece ultimul raport se referă la semestrul 1 2023, care precede intrarea în vigoare a DSA. 

Oferim mai jos câteva informații suplimentare cu privire la aspectele care nu sunt acoperite de raportul nostru de transparență pentru semestrul 1 2023:

Moderarea conținutului (articolul 15.1 literele (c) și (e), articolul 42.2)

Tot conținutul de pe Snapchat trebuie să respecte Regulile comunității și Termenii de utilizare, precum și termenii, orientările și explicațiile aferente. Mecanismele de detectare proactivă și rapoartele privind conținutul sau conturile ilegale impun o revizuire, moment în care sistemele noastre de instrumente procesează cererea, colectează metadatele relevante și direcționează conținutul relevant către echipa noastră de moderare prin intermediul unei interfețe de utilizator structurate care este concepută pentru a facilita operațiunile de revizuire în vigoare și eficiente. În cazul în care echipele noastre de moderare stabilesc, fie prin analiză umană, fie prin mijloace automate, că un utilizator a încălcat Termenii noștri, putem elimina conținutul sau contul incriminat, încheia sau limita vizibilitatea contului în cauză și/sau notifica forțele de ordine, după cum se explică în explicațiile noastre privind moderarea, aplicarea și apelurile Snapchat.  Utilizatorii ale căror conturi sunt blocate de către echipa noastră de siguranță pentru încălcări ale Regulilor comunității pot depune o cerere de apel pentru contul blocat, iar utilizatorii pot face apel la anumite aplicări de conținut.

Instrumente automatizate de moderare a conținutului

Pe suprafețele noastre de conținut public, conținutul trece, în general, atât prin auto-moderare, cât și prin examinare umană înainte de a fi eligibil pentru a fi distribuit unui public larg. În ceea ce privește instrumentele automate, acestea includ:

  • Detectarea proactivă a conținutului ilegal și infracțional utilizând învățarea automată;

  • Instrumente de potrivire Hash (cum ar fi PhotoDNA și CSAI Match al Google);

  • Detectarea limbajului abuziv pentru a respinge conținutul pe baza unei liste identificate și actualizate periodic de cuvinte-cheie abuzive, inclusiv emoticoane.

Pentru perioada ultimului nostru raport de transparență (sementrul 1 2023), nu a existat nicio cerință de a colecta indicatori formali/ratele de eroare pentru aceste sisteme automatizate. Cu toate acestea, monitorizăm periodic aceste sisteme pentru a detecta eventualele probleme, iar deciziile noastre de moderare umană sunt evaluate în mod regulat pentru acuratețe.


Moderarea umană

Echipa noastră de moderare a conținutului operează în întreaga lume, ceea ce ne permite să contribuim la menținerea siguranței Snapchatterilor non stop. Mai jos, veți găsi defalcarea resurselor noastre umane de moderare în funcție de specialitățile lingvistice ale moderatorilor (rețineți că unii moderatori sunt specializați în mai multe limbi) începând cu luna august 2023:

Cifrele de mai sus fluctuează în mod frecvent, conform tendințelor în ceea ce privește volumul de intrări sau de trimiteri în funcție de limbă/țară. În situațiile în care avem nevoie de suport lingvistic suplimentar, folosim servicii de traducere.

Moderatorii sunt recrutați folosind o descriere standard a ofertei de loc de muncă care include o cerință lingvistică (în funcție de ce este necesar). Conform cerințelor lingvistice, candidatul trebuie să demonstreze fluența scrisă și vorbită în limba respectivă și să aibă cel puțin un an de experiență de lucru pentru a putea fi considerat pentru posturile la nivel de începător. De asemenea, pentru a fi luați în considerare, candidații trebuie să îndeplinească cerințele în materie de studii și de experiență. De asemenea, candidații trebuie să demonstreze că sunt la curent cu evenimentele actuale din țara sau regiunea în care vor susține moderarea conținutului. 

Echipa noastră de moderare aplică politicile și măsurile de aplicare a legii pentru a ne ajuta să protejăm comunitatea Snapchat. Instruirea se desfășoară pe o perioadă de mai multe săptămâni, în care noii membri ai echipei sunt instruiți cu privire la politicile, instrumentele și procedurile de soluționare a situațiilor de urgență ale Snap. După formare, fiecare moderator trebuie să treacă un examen de certificare înainte de a i se permite să revizuiască conținut. Echipa noastră de moderare participă în mod regulat la cursuri de perfecționare relevante pentru fluxurile lor de lucru, în special atunci când ne confruntăm cu cazuri care se află la limita politicii și care depind de context. De asemenea, organizăm programe de perfecționare, sesiuni de certificare și chestionare pentru a ne asigura că toți moderatorii sunt la zi și respectă toate politicile actualizate. În cele din urmă, atunci când apar tendințe urgente în materie de conținut pe baza evenimentelor curente, difuzăm rapid clarificări privind politicile, astfel încât echipele să poată răspunde în conformitate cu politicile Snap.

Oferim echipei noastre de moderare a conținutului (prim-ajutorul digital Snap) suport și resurse semnificative, inclusiv sprijin pentru bunăstare la locul de muncă și acces facilitat la servicii de sănătate mintală. 


Măsuri de protecție pentru moderarea conținutului

Recunoaștem că există riscuri asociate cu moderarea conținutului, inclusiv riscuri la adresa libertății de exprimare și de întrunire care pot fi cauzate de prejudecățile moderatorilor automatizați și umani și de rapoartele abuzive, inclusiv de către guverne, grupuri politice sau persoane bine organizate. Snapchat nu este, în general, un loc pentru partajarea conținutului politic sau activist, în special în spațiile noastre publice. 

Cu toate acestea, pentru a se proteja împotriva acestor riscuri, Snap a pus în aplicare teste și cursuri de formare și are proceduri solide și consecvente pentru gestionarea rapoartelor privind conținutul ilegal sau care încalcă legea, inclusiv din partea autorităților de aplicare a legii și a autorităților guvernamentale. Evaluăm și evoluăm în mod continuu algoritmii noștri de moderare a conținutului. În timp ce eventualele prejudicii aduse libertății de exprimare sunt dificil de detectat, nu au fost raportate probleme semnificative, noi oferind utilizatorilor noștri posibilitatea de a raporta greșelile, dacă acestea apar. 

Politicile și sistemele noastre promovează o aplicare consecventă și echitabilă și, așa cum este descris mai sus, oferă Snapchatterilor posibilitatea de a contesta în mod semnificativ rezultatele aplicării prin intermediul proceselor de notificare și de apel care au ca scop protejarea intereselor comunității noastre, protejând în același timp drepturile individuale ale Snapchatterilor.

Ne străduim în permanență să ne îmbunătățim politicile și procesele de aplicare a legii și am făcut mari progrese în combaterea conținutului și activităților potențial dăunătoare și ilegale de pe Snapchat. Acest lucru se reflectă într-o tendință de creștere a cifrelor noastre de raportare și de aplicare a legii prezentate în cel mai recent Raport de transparență și în scăderea ratelor de prevalență a încălcărilor pe Snapchat în general. 


Notificări privind Colaboratorii de încredere [articolul 15.1(b)]

Pentru perioada de referință a ultimului nostru Raport de Transparență (S1 2023), nu a existat niciun Colaborator de încredere desemnat în mod oficial în cadrul DSA. Ca urmare, numărul de notificări trimise de astfel de Colaboratori de încredere în această perioadă a fost zero (0).


Disputele extrajudiciare (Articolul 24.1(a))

Pentru perioada de referință a ultimului nostru Raport de Transparență (S1 2023), nu au existat organisme de soluționare extrajudiciară a litigiilor numite în mod oficial în temeiul DSA. Ca urmare, numărul de litigii care au fost trimise către astfel de organisme în această perioadă a fost zero (0).


Suspendarea conturilor în conformitate cu articolul 23 (articolul 24.1(b))

Pentru perioada ultimului nostru Raport de transparență (S1 2023), nu a existat nicio cerință de suspendare a conturilor în conformitate cu articolul 23 din DSA pentru furnizarea de conținut vădit ilegal, notificări nefondate sau plângeri nefondate. Ca urmare, numărul de astfel de suspendări a fost zero (0). Cu toate acestea, Snap ia măsuri adecvate de aplicare a legii împotriva conturilor, după cum se specifică în documentul despre Moderare, Aplicare a legii și Contestații Snapchat), iar mai multe informații privind nivelul de aplicare a legii asupra conturilor Snap pot fi găsite în Raportul nostru de Transparență (S1 2023).