Privacy, Safety, and Policy Hub
Uniunea Europeană
1 ianuarie, 2024 - 30 iunie, 2024

Eliberat:

25 octombrie, 2024

Actualizat:

17 decembrie, 2024

Bine ați venit pe pagina noastră privind transparența pentru Uniunea Europeană (UE), unde publicăm informații specifice UE solicitate prin Legea serviciilor digitale (DSA), Directiva privind serviciile media audiovizuale (AVMSD), Legea olandeză privind media (DMA) și Regulamentul privind conținutul terorist online (TCO). Vă rugăm să rețineți că cea mai recentă versiune a acestor Rapoarte de transparență poate fi găsită în versiunea în limba engleză.

Reprezentantul juridic 

Snap Group Limited a numit Snap B.V. ca reprezentat legal în scopuri ce țin de DSA. Puteți contacta reprezentantul la dsa-enquiries [at] snapchat.com pentru DSA, la vsp-enquiries [at] snapchat.com pentru AVMSD și DMA, la tco-enquiries [at] snapchat.com pentru TCO, prin intermediul site-ului nostru de asistență [aici], sau la:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Olanda

Dacă sunteți o agenție de aplicare a legii, vă rugăm să urmați pașii descriși aici.

Vă rugăm ca, atunci când ne contactați, să comunicați în olandeză sau engleză.

Autoritățile de reglementare

În ceea ce privește DSA, suntem reglementați de Comisia Europeană și de Autoritatea olandeză pentru consumatori și piețe (ACM). În ceea ce privește AVMSD și DMA, suntem reglementați de Autoritatea olandeză pentru mass-media (CvdM). Pentru TCO, suntem reglementați de Autoritatea olandeză pentru prevenirea conținutului terorist online și a materialelor privind abuzul sexual asupra copiilor (ATKM).

Raportul de raport de transparență DSA

Ultima actualizare: 25 octombrie 2024

Publicăm acest raport privind eforturile noastre de moderare a conținutului pe Snapchat în conformitate cu cerințele de raportare privind transparența prevăzute la articolele 15, 24 și 42 din Legea privind serviciile digitale a Uniunii Europene (UE) (Regulamentul (UE) 2022/2065) ("DSA"). Cu excepția cazului în care se menționează altfel, informațiile conținute în acest raport se referă la perioada de raportare cuprinsă între 1 ianuarie 2024 și 30 iunie 2024 (H1 2024) și cuprinde moderarea conținutului pe funcțiile Snapchat care sunt reglementate de DSA.

Ne străduim în permanență să ne îmbunătățim raportarea. Pentru această perioadă de raportare (H1 2024), am adus modificări structurii raportului nostru cu tabele noi și mai diferențiate pentru a oferi o perspectivă mai bună asupra eforturilor noastre de moderare a conținutului.

1. Medie lunară a beneficiarilor activi 
(Articolele DSA 24.2 și 42.3)


La data de 1 octombrie 2024, aveam 92,9 milioane de beneficiari activi lunari ("AMAR") ai aplicației Snapchat în UE. Aceasta înseamnă că, în medie, pe parcursul perioadei de 6 luni care se încheie la 30 septembrie 2024, 92,9 milioane de utilizatori înregistrați din UE au deschis aplicația Snapchat cel puțin o dată într-o anumită lună.

Această cifră este defalcată pe Stat Membru după cum urmează:

Aceste cifre au fost calculate pentru a respecta normele DSA (Actul legislativ privind serviciile digitale) și trebuie folosite numai în scopuri ce țin de această lege. Am schimbat modul în care calculăm aceste cifre în timp, inclusiv ca răspuns la schimbarea politicii interne, a orientărilor autorităților de reglementare și a tehnologiei; cifrele nu sunt destinate realizării unei comparații între perioade. De asemenea, poate diferi și de calculele pe care le folosim pentru a obține alte cifre despre utilizatorii activi, pe care le publicăm în alte scopuri.

2. Solicitările autorităților statelor membre
[DSA Articolul 15.1(a)]
a) Ordine de a lua măsuri împotriva conținutului ilegal


În cursul acestei perioade de raportare (semestru 1, 2024), am primit zero (0) ordine de a lua măsuri împotriva conținutului ilegal identificat în mod specific din partea autorităților statelor membre ale UE, inclusiv cele emise în conformitate cu articolul 9 din DSA.

Deoarece acest număr este zero (0), nu putem oferi detalii în funcție de tipul de conținut ilegal în cauză, de statul membru care a emis ordinul sau de timpul mediu necesar pentru a confirma primirea sau a executa ordinele.

b) Ordine de a oferi informații


În cursul acestei perioade de raportare (semestru 1, 2024), am primit, din partea autorităților statelor membre ale UE, următoarele ordine de divulgare a datelor utilizatorilor, inclusiv cele emise în conformitate cu articolul 10 din DSA:


Timpul mediu de informare a autorităților relevante cu privire la primirea acestor ordine de furnizare a informațiilor a fost de zero minute; oferim un răspuns automat de confirmare a primirii.

Timpul mediu pentru punerea în aplicare a acestor ordine de furnizare a informațiilor a fost de aproximativ șapte zile. Acest termen reflectă perioada de timp dintre momentul în care Snap a primit o comandă și cel în care a considerat că problema este pe deplin rezolvată; în anumite cazuri, poate depinde parțial de promptitudinea cu care autoritatea relevantă din statul membru a răspuns la solicitări de clarificare din partea Snap, necesare pentru a procesa comanda.

De reținut că nu oferim o detaliere a comenzilor de mai sus pentru a furniza informații clasificate în funcție de tipul de conținut ilegal în cauză, deoarece aceste informații nu ne sunt disponibile.

3. Moderarea conținutului


Tot conținutul de pe Snapchat trebuie să se supună Regulilor comunității și Condițiilor de utilizare a serviciului. De asemenea, anumit conținut trebuie să respecte reguli și politici suplimentare. De exemplu, conținutul trimis pentru recomandare algoritmică către o audiență mai largă pe canalele noastre publice de difuzare trebuie să îndeplinească standardele suplimentare, mai ridicate, prevăzute în Regulile privind conținutul pentru eligibilitatea pentru recomandări, în timp ce reclamele trebuie să respecte Politicile noastre de publicitate.

Punem în aplicare aceste politici folosind deopotrivă tehnologia și controlul uman. De asemenea, punem la dispoziție mecanisme pentru ca Snapchatterii să raporteze încălcări, inclusiv conținut și activități ilegale, direct în aplicație sau prin intermediul site-ului nostru web. Mecanismele de detectare proactivă și rapoartele generează o verificare, care utilizează apoi o combinație de instrumente automate și moderatori umani pentru a lua măsurile corespunzătoare în conformitate cu politicile noastre.

Mai jos, oferim informații suplimentare despre moderarea conținutului pe canalele noastre publice în primul semestru din 2024.

a) notificări transmise în conformitate cu articolul 16 din DSA (Digital Services Act)
(Articolul 15.1(b) DSA)

În conformitate cu articolul 16 din DSA, Snap a pus în aplicare mecanisme care permit utilizatorilor (și nu numai) să avertizeze Snap cu privire la prezența pe Snapchat a anumitor informații despre care consideră că includ conținut ilegal. Pot face acest lucru raportând un anumit conținut sau unele conturi, fie direct în aplicația Snapchat, fie pe site-ul nostru.

În cursul perioadei de raportare (primul semestru din 2024), am primit următoarele notificări depuse în conformitate cu articolul 16 din DSA, în UE:


Mai jos, prezentăm o defalcare care reflectă modul în care au fost procesate aceste notificări - și anume, printr-un proces care include o revizuire umană sau doar prin mijloace automate: 

În ceea ce privește transmiterea de notificări în aplicație sau prin intermediul site-ul nostru, raportorii pot selecta un motiv anume de raportare dintr-un meniu de opțiuni ce reflectă categoriile de încălcări enumerate în Ghidul nostru Comunitar (de exemplu, discurs instigator la ură, consum sau vânzare de droguri). Ghidul nostru Comunitar interzice conținutul și activitățile ilegale în UE, astfel încât motivele noastre de raportare reflectă în mare parte categoriile specifice de conținut ilegal în UE. Cu toate acestea, în măsura în care un raportor din UE consideră că conținutul sau contul raportat este ilegal din motive care nu sunt referite în mod specific în meniul nostru de raportare, acesta este în măsură să îl raporteze ca fiind „alt conținut ilegal” și i se oferă posibilitatea de a explica de ce crede că ceea ce raportează este ilegal.

Dacă, în urma evaluării, stabilim că conținutul sau contul încalcă Ghidul nostru Comunitar (inclusiv din motive de ilegalitate), putem (i) șterge conținutul ofensator, (ii) avertiza titularul contului în cauză și aplica o sancțiune împotriva contului și/sau (iii) bloca contul în cauză, după cum se explică în detaliu în Explicațiile noastre privind Moderarea, Aplicarea și Apelurile Snapchat

În H1 2024, am luat următoarele măsuri de punere în aplicare la primirea notificărilor transmise în conformitate cu articolul 16 DSA în UE:

În semestrul 1 2024, toate rapoartele pentru „alt conținut ilegal” pe care le-am prelucrat au fost implementate în conformitate cu Regulile comunității noastre, pentru că ele erau cele care interziceau conținutul sau activitatea respectivă. Prin urmare, am clasificat aceste cazuri în categoria relevantă de încălcare a Regulilor comunității noastre, din tabelul de mai sus.

În plus față de acțiunile de punere în aplicare de mai sus, putem lua măsuri și cu privire la conținutul care ne este semnalat, în conformitate cu alte politici și reguli Snap aplicabile:

  • În privința conținutul de pe canalele noastre de difuzare publică, dacă decidem că respectivul conținut raportat nu îndeplinește standardele mai înalte ale Regulilor comunității noastre pentru eligibilitatea recomandării, putem exclude conținutul din recomandarea algoritmică sau, dacă îndeplinește criteriile, dar este sensibil sau sugestiv, putem limita distribuirea lui, excluzând publicul sensibil.

În semestrul 1 din 2024, am luat următoarele măsuri cu privire la conținutul de pe canalele de difuzare publică Snapchat, care a fost raportat în UE, în conformitate cu Regulile privind conținutul pentru eligibilitatea pentru recomandări:

  • Dacă stabilim că o reclamă raportată încalcă Politicile noastre de Publicitate, o putem elimina după revizuire.


În H1 2024, am luat următoarele măsuri cu privire la reclamele care ne-au fost raportate în UE:


b) Moderarea conținutului angajat la inițiativa proprie Snap
(Articolul 15.1, c)


În plus față de examinarea notificărilor transmise în conformitate cu articolul 16 din DSA, Snap moderează din proprie inițiativă conținutul de pe canalele publice Snapchat (de exemplu, Spotlight, Discover). Mai jos, oferim informații despre moderarea efectuată din proprie inițiativă de Snap, inclusiv despre folosirea instrumentelor automate, măsurile luate pentru a oferi instruire și asistență persoanelor responsabile cu moderarea conținutului, precum și numărul și tipurile de restricții impuse ca urmare a acestor eforturi proactive de moderare.


  • Folosirea instrumentelor automate în moderarea din proprie inițiativă a Snap


Folosim instrumente automate pentru a detecta proactiv și, în unele cazuri, pentru a sancționa încălcări ale condițiilor și politicilor noastre pe canalele de conținut public. Acestea includ instrumentele de compatibilitate hash (de exemplu, PhotoDNA și Google CSAI Match), modele de detectare a limbajului abuziv (care detectează și resping conținutul pe baza unei liste de cuvinte cheie și emoji cu caracter abuziv identificate și actualizate periodic) și tehnologie de inteligență artificială / învățare automată. Instrumentele noastre automate sunt concepute pentru a detecta încălcări ale Ghidului nostru Comunitar (care, printre altele, interzic conținutul ilegal) și, după caz, Regulile noastre privind conținutul pentru eligibilitatea pentru recomandări și Politicile de Publicitate.


În primul semestru din 2024, toate detecțiile noastre proactive au fost efectuate cu instrumente automate. Atunci când instrumentele automate detectează o posibilă încălcare a politicilor noastre, fie iau măsuri în mod automat, în conformitate cu politicile noastre, fie creează o sarcină pentru examinarea umană. Numărul și tipurile de restricții impuse ca urmare a acestui proces sunt descrise mai jos.


  • Numărul și tipurile de restricții impuse din proprie inițiativă de Snap


În primul semestru din 2024, Snap a luat următoarele măsuri de executare după ce a detectat în mod proactiv, prin utilizarea de instrumente automate, încălcări ale Regulilor comunității (inclusiv încălcări care reprezintă conținut și activități ilegale în conformitate cu legislația UE și a statelor membre):

În plus, în H1 2024, în ceea ce privește conținutul de pe platformele noastre de difuzare publică, am luat următoarele măsuri după ce am detectat în mod proactiv pe Snapchat, prin utilizarea de instrumente automate, încălcări ale Regulilor privind conținutul pentru eligibilitatea pentru recomandare:

* După cum se menționează în Regulile privind conținutul pentru eligibilitatea pentru recomandări, conturile care încalcă în mod repetat sau flagrant Regulile privind conținutul pentru eligibilitatea pentru recomandări pot fi descalificate temporar sau permanent de la recomandări pe platformele noastre publice de difuzare. Aplicăm această acțiune în contextul eforturilor noastre proactive de moderare.

Mai mult, în H1 2024, am luat următoarele măsuri după ce am detectat în mod proactiv pe Snapchat, prin utilizarea unor instrumente automate, încălcări ale Politicilor noastre de Publicitate:

  • Măsuri luate pentru a oferi instruire și asistență persoanelor responsabile de moderarea conținutului.



Echipele noastre de moderare a conținutului aplică politici specifice pentru a proteja comunitatea noastră de pe Snapchat. Instruiți pe parcursul a mai multe săptămâni, noii membri ai echipei învață totul despre politicile, instrumentele și procedurile de soluționare a situațiilor de urgență Snap. Echipele moderatoare sunt instruite constant, participând la cursuri de perfecționare relevante pentru fluxurile lor de lucru, în special pentru cazuri care depășesc limitele politicii și care depind de context. De asemenea, organizăm programe de perfecționare, sesiuni de certificare și chestionare pentru a ne asigura că toți moderatorii sunt la zi și respectă toate politicile actualizate. În cele din urmă, atunci când apar tendințe urgente în materie de conținut pe baza evenimentelor curente, difuzăm rapid clarificări privind politicile, astfel încât echipele să poată răspunde în conformitate cu politicile Snap.


Echipelor noastre de moderare a conținutului li se oferă resurse importante și sprijin, inclusiv pentru bunăstare la locul de muncă și acces ușor la servicii de sănătate mintală.

c) Reclamații primite prin intermediul sistemelor interne Snap (de exemplu, apeluri)
(Articolul 15.1(d))


Utilizatorii ale căror conturi sunt blocate de echipele noastre de siguranță pentru încălcări ale ghidului comunității (inclusiv pentru conținut și activități ilegale) pot depune o contestație pentru conturi blocate. De asemenea, utilizatorii pot contesta anumite decizii de moderare a conținutului.

În cursul perioadei de raportare (S1 2024), Snap a procesat următoarele apeluri (inclusiv apeluri împotriva blocării conturilor și a deciziilor de moderare la nivel de conținut) depuse prin intermediul sistemelor sale interne de gestionare a reclamațiilor în UE:

d) utilizarea de mijloace automate în scopul moderării conținutului 
(Articolele 15.1(e) și 42.2(c))

  • Descriere calitativă și scopuri


După cum s-a explicat mai sus în secțiunea 3(b), utilizăm instrumente automate pentru a detecta în mod proactiv, și, în unele cazuri, pentru a aplica încălcări ale termenilor și politicilor pe platformele noastre publice de conținut. Acestea includ instrumentele de compatibilitate hash (inclusiv PhotoDNA și Google CSAI Match), modele de detectare a limbajului abuziv (care detectează și resping conținutul pe baza unei liste de cuvinte cheie și emoji cu caracter abuziv identificate și actualizate periodic) și tehnologie de inteligență artificială / învățare automată. Instrumentele noastre automate sunt concepute pentru a detecta încălcări ale Ghidului nostru Comunitar (care, printre altele, interzic conținutul ilegal) și, după caz, Regulile noastre privind conținutul pentru eligibilitatea pentru recomandări și Politicile de Publicitate.

Atunci când instrumentele noastre automate detectează o potențială încălcare a politicilor noastre, fie iau măsuri în mod automat, în conformitate cu politicile noastre, fie creează o sarcină pentru examinarea umană.

  • Indicatori de acuratețe și posibilă rată de eroare, defalcați pe stat membru


Monitorizăm acuratețea instrumentelor noastre automate de moderare prin selectarea unor eșantioane aleatorii de sarcini procesate de instrumentele noastre automate pe platformele noastre publice și prin trimiterea acestora pentru reexaminare de către echipele noastre umane de moderare. Rata de acuratețe este procentajul de sarcini din aceste eșantioane aleatorii care au fost acceptate de moderatorii noștri umani în cadrul reexaminării. Rata de eroare este diferența dintre 100% și rata de precizie calculată conform descrierii de mai sus.

Pe baza eșantionării, în H1 2024, indicatorii de acuratețe și rata posibilă de eroare a mijloacelor automate utilizate pentru toate categoriile de încălcări au fost de aproximativ 93%, iar rata de eroare a fost de aproximativ 7%. 

În general, nu monitorizăm limba conținutului pe care îl moderăm pe Snapchat și, prin urmare, nu putem oferi o defalcare a acurateței și a ratelor de eroare pentru instrumentele noastre automate de moderare pentru fiecare limbă oficială a Statelor Membre. Ca o alternativă pentru aceste informații, prezentăm mai jos o defalcare a ratelor noastre de acuratețe și eroare pentru conținutul moderat automat provenind din fiecare Stat Membru.

  • Garanții


Suntem conștienți de impactul potențial al instrumentelor de moderare automată asupra drepturilor fundamentale și implementăm măsuri de protecție pentru a minimiza acest impact.

Instrumentele noastre automate de moderare a conținutului sunt testate înainte de a fi implementate pe Snapchat. Modelele sunt testate offline din punct de vedere al performanței și implementate prin teste A/B pentru a se asigura funcționarea lor corespunzătoare înainte de a fi introduse complet în producție. Efectuăm analize de asigurare a calității (QA) înainte de lansare, analize de lansare și verificări QA de precizie continue în timpul lansărilor parțiale (în etape).

După lansarea instrumentelor noastre automate, evaluăm permanent performanța și acuratețea acestora și efectuăm ajustările necesare. Acest proces implică reanalizarea eșantioanelor de sarcini automatizate de către moderatorii noștri umani pentru a identifica modelele care necesită ajustări în vederea îmbunătățirii preciziei. De asemenea, monitorizăm prevalența anumitor prejudicii pe Snapchat prin eșantionarea zilnică aleatorie a Poveștilor Publice și valorificăm aceste informații pentru a identifica domeniile care necesită îmbunătățiri suplimentare.

Politicile și sistemele noastre promovează o aplicare consecventă și echitabilă, inclusiv prin intermediul instrumentelor noastre automatizate, și oferă Snapchatterilor o oportunitate de a contesta în mod semnificativ rezultatele aplicării prin procese de notificare și apel care vizează protejarea intereselor comunității noastre, protejând în același timp drepturile individuale ale Snapchatterilor.

Ne străduim să îmbunătățim continuu instrumentele noastre automate de moderare a conținutului pentru a le spori acuratețea și a sprijini aplicarea consecventă și echitabilă a politicilor noastre.

e) Litigiile înaintate organismelor extrajudiciare de soluționare a litigiilor prevăzute la articolul 21
(Articolul 24.1 (a))

Pentru perioada de raportare (H1 2024), numărul de litigii înaintate organismelor extrajudiciare de soluționare a litigiilor certificate oficial în conformitate cu articolul 21 DSA a fost zero (0) și nu putem furniza o defalcare care să reflecte rezultatele, timpii medii de finalizare sau ponderea litigiilor în care Snap a pus în aplicare deciziile unui organism extrajudiciar de soluționare a litigiilor.

A se reține că, în H! 2024, am primit două (2) notificări privind litigiile înaintate unui organism care solicită certificarea ca organism extrajudiciar de soluționare a litigiilor în temeiul articolului 21 DSA. Nu am inclus aceste litigii în numărul de mai sus, deoarece organismul care a transmis aceste notificări privind litigiile nu a putut verifica, la cererea noastră, statutul lor de certificare.

f) Suspendări impuse în temeiul articolului 23 
(Articolul 24.1(b))
  • Suspendări în conformitate cu articolul 23 alineatul (1): suspendarea conturilor care furnizează frecvent conținut vădit ilegal 

După cum este explicat în Explicațiile noastre privind Moderarea, Aplicarea și Apelurile Snapchat, conturile care stabilim că sunt utilizate în principal pentru a încălca Regulile Comunității noastre (inclusiv prin furnizarea de conținut vădit ilegal) și conturile care produc prejudicii grave sunt dezactivate imediat. Pentru alte încălcări ale Regulilor comunității, Snap aplică, în general, un proces de implementare în trei părți:

  • Pasul unu: se elimină conținutul care încalcă aceste reguli.

  • Pasul doi: Snapchatterul primește o notificare prin care i se indică faptul că a încălcat Regulile comunității noastre, că am eliminat conținutul respectiv și că încălcările repetate vor duce la acțiuni de sancționare suplimentare, inclusiv la dezactivarea contului.

  • Pasul trei: echipa noastră înregistrează o sancțiune împotriva contului Snapchatterului.

Informațiile privind numărul de sancțiuni (și anume, avertismentele) și blocările impuse în H1 2024 conturilor din UE în legătură cu conținutul sau activitățile de pe platformele publice ale Snapchat pot fi găsite mai sus, în secțiunile 3(a) și 3(b).

  • Suspendările în temeiul articolului 23 alineatul (2): suspendarea procesării notificărilor și plângerilor persoanelor fizice, entităților și reclamanților care prezintă frecvent notificări sau plângeri care sunt în mod evident nefondate

Aplicând definiția noastră internă a notificărilor și reclamațiilor „vădit nefondate” și pragurile noastre interne pentru ceea ce considerăm a fi prezentarea frecventă a unor astfel de notificări și plângeri, numărul de suspendări ale procesării notificărilor și plângerilor impuse în H1 2024 în temeiul articolului 23 alineatul (2) DSA este următorul:

4. Informații despre echipele noastre de moderare a conținutului
a) Resurse umane dedicate moderării conținutului, inclusiv pentru respectarea articolelor 16, 20 și 22 din DSA, detaliate în funcție de limbile oficiale ale statelor membre
(Articol 42.2(a))


Echipa noastră de moderare a conținutului operează în întreaga lume, ceea ce ne permite să contribuim la menținerea continuă (24/7) a siguranței Snapchatterilor. Mai jos, vei găsi informații detaliate despre resursele noastre umane de moderare în funcție de specialitățile lingvistice ale moderatorilor (rețineți că unii moderatori sunt specializați în mai multe limbi), începând cu 30 iunie 2024:

Tabelul de mai sus include toate resursele umane alocate moderării conținutului, care foloseau limbile oficiale ale statelor membre UE la 30 iunie 2024. În situațiile în care avem nevoie de suport lingvistic suplimentar, folosim servicii de traducere.

b) Calificările și expertiza lingvistică a moderatorilor de conținut; formarea și sprijinul oferite
(Articolul 42 alineatul (2) litera (b))


Moderatorii sunt recrutați utilizând o fișă de post standard care include o competență lingvistică (în funcție de necesități). Conform cerințelor lingvistice, candidatul trebuie să demonstreze fluența scrisă și vorbită în limba respectivă și să aibă cel puțin un an de experiență de lucru pentru a putea fi considerat pentru posturile la nivel de începător. De asemenea, pentru a fi luați în considerare, candidații trebuie să îndeplinească de asemenea cerințele în materie de studii și de experiență. De asemenea, candidații trebuie să demonstreze că sunt la curent cu evenimentele actuale din țara sau regiunea în care vor susține moderarea conținutului. 

A se vedea mai sus informațiile privind formarea și sprijinul pe care Snap le oferă moderatorilor de conținut, care sunt solicitate separat în temeiul articolului 15(1)(c) din DSA și, prin urmare, incluse în secțiunea 3(b), în subsecțiunea finală intitulată: „Măsuri luate pentru a oferi formare și asistență persoanelor responsabile cu moderarea conținutului

Raportul de analiză mediatică privind exploatarea și abuzurile sexuale asupra copiilor (CSEA)


Fundal

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.


Utilizăm PhotoDNA robust hash-matching și Google's Child Sexual Abuse Imagery (CSAI) Match pentru a identifica imaginile și, respectiv, videoclipurile ilegale cunoscute de abuz sexual asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.


Raport

Datele de mai jos se bazează pe rezultatul scanării proactive cu ajutorul PhotoDNA și/sau CSAI Match a mediilor încărcate din galeria camerei unui utilizator Snapchat.

Oprirea exploatării sexuale a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest sens și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de aplicare inițială.  

Măsuri de protecție pentru moderarea conținutului

Măsurile de protecție aplicate pentru scanarea mass-media CSEA sunt prezentate în secțiunea „Măsuri de protecție pentru moderarea conținutului” de mai sus din cadrul raportului nostru DSA.


Raportul de transparență al Uniunii Europene privind conținutul terorist online

Publicat: 17 iunie 2024

Actualizat: 17 iunie 2024

Prezentul raport de transparență este publicat în conformitate cu articolul 7, alineatele 2 și 3 din Regulamentul 2021/784 al Parlamentului European și al Consiliului UE privind diseminarea de conținut terorist online („regulamentul”). Acoperă perioada de raportare 1 ianuarie - 31 decembrie 2023.


Informații cu caracter general
  • Articolul 7 alineatul 3 litera a: informații privind măsurile luate de furnizorul de servicii de găzduire în legătură cu identificarea și eliminarea sau dezactivarea accesului la conținut terorist

  • Articolul 7 alineatul 3 litera b: informații cu privire la măsurile luate de furnizorul de servicii de găzduire pentru a contracara republicarea online a materialelor care au fost eliminate anterior sau al căror acces a fost interzis fiind considerate conținut terorist, în special în cazul în care au fost utilizate instrumente automate


Teroriștii, organizațiile teroriste și extremiștii violenți nu au dreptul să utilizeze Snapchat. Conținutul care susține, promovează, glorifică sau promovează terorismul sau alte acte criminale violente este interzis în conformitate cu Regulile comunității noastre. Utilizatorii pot raporta conținutul care încalcă Regulile comunității noastre prin meniul nostru de raportare din aplicație și prin site-ul nostru de asistență. De asemenea, folosim detectarea proactivă pentru a încerca să identificăm conținutul ilegal de pe canalele publice, precum Spotlight și Discover.


Indiferent de modul în care am putea lua cunoștință de conținutul care încalcă legea, echipele noastre de la Încredere și siguranță, printr-un mix de automatizare și moderare umană, analizează prompt conținutul identificat și iau decizii de implementare. Implementarea poate presupune eliminarea conținutului, avertizarea sau blocarea contului care încalcă legea și, dacă este justificat, raportarea contului către organele de aplicare a legii. Pentru a preveni republicarea conținutului terorist sau extremist violent pe Snapchat, pe lângă colaborarea cu autoritățile de aplicare a legii, luăm măsuri pentru a bloca dispozitivul asociat contului care a încălcat legea și pentru a împiedica utilizatorul să își creeze un alt cont Snapchat.


Detalii suplimentare cu privire la măsurile noastre de identificare și eliminare a conținutului terorist pot fi găsite în documentul privind conținutul care instigă la ură, terorism și extremism violent și în cel privind moderarea, aplicarea și apelurile.



Rapoarte și punerea în aplicare
  • Articolul 7 alineatul 3 litera c: numărul de elemente cu conținut terorist eliminate sau al căror acces a fost interzis în urma unor ordine de eliminare sau a unor măsuri specifice, precum și numărul de ordine de eliminare în cazul în care conținutul nu a fost eliminat sau accesul la acesta nu a fost interzis în temeiul articolului 3 alineatul 7 primul paragraf și al articolului 3 alineatul 8 primul paragraf, împreună cu motivele acestora


În cursul perioadei de raportare, Snap nu a primit niciun ordin de îndepărtare și nici nu a trebuit să pună în aplicare măsuri specifice în conformitate cu articolul 5 din regulament. În consecință, nu a fost necesar să luăm măsuri de executare în temeiul regulamentului.


Următorul tabel descrie măsurile de punere în aplicare luate pe baza rapoartelor utilizatorilor și a detectării proactive a conținutului și conturilor, atât în UE, cât și în alte părți ale lumii, care au încălcat Regulile comunității noastre, referitoare la conținutul privind terorismul și extremismul violent

Căi de atac privind aplicarea legislației
  • Articolul 7(3)(d): numărul și rezultatul plângerilor tratate de prestatorul de servicii de hosting în conformitate cu articolul 10

  • Articolul 7(3)(g): numărul de cazuri în care prestatorul de servicii de hosting a restabilit conținutul sau accesul la acesta în urma unei plângeri din partea prestatorului de conținut


Deoarece nu am întreprins nicio acțiune de aplicare a legii în temeiul regulamentului, în perioada de raportare menționată mai sus, nu am soluționat nicio plângere în conformitate cu articolul 10 din regulament și nu am avut nicio reintroducere asociată.


Următorul tabel conține informații referitoare la apeluri și reintroduceri, atât în UE, cât și în alte părți ale lumii, care implică conținut terorist și extremist violent aplicat în conformitate cu Regulile comunității noastre.

Proceduri judiciare și recursuri
  • Articolul 7 (3)(e): numărul și rezultatul procedurilor de examinare administrativă sau judiciară inițiate de prestatorul de servicii de hosting

  • Articolul 7 (3)(f): numărul de cazuri în care prestatorul de servicii de găzduire a fost obligat să restabilească conținutul sau accesul la acesta ca urmare a procedurilor administrative sau judiciare de examinare


Deoarece în perioada de raportare nu am întreprins nicio acțiune de punere în aplicare a regulamentului, după cum s-a menționat mai sus, nu am avut nicio procedură de examinare administrativă sau judiciară asociată și nu am fost nevoiți să restabilim conținutul ca urmare a unor astfel de proceduri.

Evaluarea riscurilor DSA

Acest raport a fost elaborat pentru a respecta obligațiile Snap în temeiul articolelor 34 și 35 din Regulamentul (UE) 2022/2065 și oferă rezultatele evaluării noastre privind riscurile de sistem generate de proiectarea, funcționarea și utilizarea platformelor online ale Snapchat, precum și metodologia utilizată pentru a evalua aceste riscuri și măsurile de atenuare instituite pentru a soluționa aceste riscuri.


Raport de Evaluare și Atenuare a Riscurilor DSA | Snapchat | august 2023 (PDF)


Audit DSA și Implementarea Auditului

Aceste rapoarte au fost întocmite pentru a respecta obligațiile Snap în temeiul articolului 37 din Regulamentul (UE) 2022/2065 și oferă următoarele: (i) rezultatele auditului independent al respectării de către Snap a obligațiilor prevăzute în capitolul III din Regulamentul (UE) 2022/2065 și (ii) măsurile luate pentru a implementa recomandările operaționale ale respectivului audit independent.

Raport de audit Independent DSA | Snapchat | august 2024 (PDF)

Raport de implementare a Auditului DSA | Snapchat | septembrie 2024 (PDF)



Codul de practică al VSP din UE

Snap este un furnizor de „servicii de platformă pentru partajarea videoclipurilor” („VSP”) în conformitate cu articolul 1 alineatul (1) litera (aa) din AVMSD. Acest Cod de conduită („Codul”) a fost elaborat pentru a descrie modul în care Snap își îndeplinește obligațiile ca furnizor de VSP în temeiul Legii mass-media din Țările de Jos („DMA”) și al Directivei (UE) 2010/13 (modificată prin Directiva (UE) 2018/1808 (denumită în continuare „Directiva privind serviciile mass-media audiovizuale” sau „AVMSD”). Codul este aplicabil în întreaga Uniune Europeană, precum și în Spațiul Economic European.

Codul de conduită EU VSP | Snapchat | Decembrie 2024 (PDF)