Raport de transparență
1 ianuarie 2023 – 30 iunie 2023
Eliberat:
25 octombrie 2023
Actualizat:
13 decembrie 2023

Pentru a oferi o perspectivă asupra eforturilor depuse de Snap în ceea ce privește siguranța, natura și volumul conținutului raportate pe platforma noastră, publicăm de două ori pe an. rapoarte de transparență. Ne angajăm să continuăm să facem aceste rapoarte mai cuprinzătoare și mai informative pentru multele părți interesate care sunt foarte preocupate de moderarea conținutului nostru, de procedurile de implementare a legii, precum și de bunăstarea comunității noastre. 
Prezentul raport de transparență acoperă prima jumătate a anului 2023 (1 ianuarie - 30 iunie). La fel ca în cazul rapoartelor noastre anterioare, distribuim date referitoare la numărul global de raportări referitoare la conținutul din aplicație și la nivel de cont pe care le-am primit și pe care le-am sancționat în funcție de categorii specifice de încălcări; modul în care am răspuns la solicitările din partea autorităților de aplicare a legii și a guvernelor; și sancțiunile aplicate de noi, defalcate pe țări.

Ca parte a angajamentului nostru constant de a ne îmbunătăți continuu rapoartele de transparență, introducem câteva elemente noi în această versiune. Am adăugat puncte de date suplimentare cu privire la practicile noastre de publicitate și de moderare, precum și cu privire la conținutul și apelurile pentru conturi. În conformitate cu Legea UE privind serviciile digitale, am adăugat, de asemenea, noi informații contextuale cu privire la operațiunile noastre în statele membre ale UE, cum ar fi numărul de moderatori de conținut și numărul de utilizatori activi lunari (MAU) din regiune. Multe dintre aceste informații se regăsesc în raport și pe pagina dedicată Uniunii Europene a Centrului nostru de Transparență.
În cele din urmă, ne-am actualizat Glosarul cu linkuri către explicațiile privind Regulile comunității, care oferă un context suplimentar în legătură cu politica și eforturile operaționale ale platformei noastre. 
Pentru mai multe informații despre politicile noastre de combatere a pericolelor online și despre planurile de a continua să ne dezvoltăm practicile de raportare, vă rugăm să citiți cel mai recent articol al nostru de pe blogul Siguranță și Impact care face referire la acest raport de transparență. 
Pentru mai multe resurse despre siguranță și confidențialitate pe Snapchat, consultați fila despre raportarea privind transparența din partea de jos a paginii.
Vă rugăm să rețineți că cea mai recentă versiune a acestui raport de transparență poate fi găsită în versiunea en-US.

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 ianuarie - 30 iunie 2023, Snap a sancționat la nivel global 6.216.118 de elemente de conținut care au încălcat politicile noastre.
În timpul perioadei de raportare, am înregistrat o rată de vizualizare a conținutului ofensator (VVR) de 0,02%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de conținut Snap și de Povești pe Snapchat, 2 dintre acestea au avut conținut care a încălcat politicile noastre.

Analiza conținutului și a încălcărilor contului

Ratele noastre de raportare și de sancționare au rămas destul de similare cu cele din ultimele șase luni, cu câteva excepții în categorii-cheie. În acest ciclu, am înregistrat o scădere de aproximativ 3% a numărului total de raportări și de sancțiuni privind conținutul și conturile.
Categoriile cu cele mai importante fluctuații au fost Hărțuire și Intimidare, Spam, Arme și Informații false. Hărțuirea și Intimidarea au înregistrat o creștere de ~56% a numărului total de raportări și o creștere ulterioară de ~39% a sancțiunilor privind conținutul și conturile unice. Aceste creșteri în materie de sancțiuni au fost însoțite de o scădere de ~46% a timpului de răspuns, subliniind eficiența operațională a echipei noastre în sancționarea acestui tip de conținut care încalcă legea. În mod similar, am înregistrat o creștere de ~65% a numărului total de raportări pentru Spam, cu o creștere de ~110% a numărului de sancțiuni privind conținutul și de ~80% a numărului de conturi unice sancționate, în timp ce echipele noastre au redus, de asemenea, timpul de răspuns cu ~80%. Categoria Arme a înregistrat o scădere de ~13% a numărului total de raportări, o scădere de ~51% a numărului de sancțiuni privind conținutul și o reducere de ~53% a numărului de conturi unice sancționate. În cele din urmă, categoria Informații false a înregistrat o creștere de ~14% a numărului total de raportări, dar o scădere de ~78% a sancțiunilor privind conținutul și o scădere de ~74% a numărului de conturi unice sancționate. Acest lucru poate fi atribuit procesului continuu de asigurare a calității (QA) și resurselor pe care le alocăm raportărilor de informații false, pentru a ne asigura că echipele noastre de moderare detectează cu exactitate și iau măsuri împotriva informațiilor false de pe platformă.
Per ansamblu, deși am înregistrat cifre în general similare cu cele din ultima perioadă, considerăm că este important să continuăm să îmbunătățim instrumentele pe care le folosește comunitatea noastră pentru a raporta activ și precis potențialele încălcări pe măsură ce acestea apar pe platformă.

Combaterea exploatării sexuale a copiilor și abuzului sexual

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEAI) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.
Utilizăm instrumente active de detectare tehnologică, cum ar fi PhotoDNA robust hash-matching și instrumentul Google de identificare a imaginilor cu abuzuri sexuale asupra copiilor (CSAI) pentru a identifica imaginile și, respectiv, videoclipurile cunoscute ca fiind ilegale cu abuzuri sexuale asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.
În prima jumătate a anului 2023, am detectat și am sesizat proactiv cu privire la 98% din toate infracțiunile de exploatare sexuală și abuz asupra copiilor raportate aici - o creștere de 4% față de perioada anterioară.
** Rețineți că fiecare trimitere la NCMEC poate conține mai multe elemente de conținut. Totalul bucăților individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total aplicat.

Conținut privitor la autovătămare și suicid

Ne pasă foarte mult de sănătatea mintală și de bunăstarea Snapchatterilor, fapt care a influențat - și continuă să influențeze - deciziile noastre de a construi Snapchat în mod diferit. Fiind o platformă concepută pentru comunicări între prieteni adevărați, considerăm că Snapchat poate juca un rol unic în a ajuta prietenii să-și dea o mână de ajutor atunci când trec prin perioade dificile.
Atunci când echipa noastră de Încredere și Siguranță detectează un Snapchatter aflat în dificultate, aceasta are opțiunea de a transmite resurse de prevenție și suport împotriva automutilării și de a anunța personalul de intervenție în situații de urgență, dacă este cazul. Resursele pe care le distribuim sunt disponibile pe lista noastră globală de resurse privind siguranța, iar acestea sunt disponibile public pentru toți Snapchatterii.

Apeluri

Începând cu acest raport, începem să raportăm numărul de apeluri din partea utilizatorilor ale căror conturi au fost blocate pentru încălcarea politicilor noastre. Reactivăm doar conturile despre care moderatorii noștri stabilesc că au fost blocate în mod incorect. În această perioadă, raportăm cu privire la apelurile privind conținutul legat de droguri.  În următorul nostru raport, așteptăm cu nerăbdare să publicăm mai multe date referitoare la apelurile care decurg din alte încălcări ale politicilor noastre.
** Rețineți că fiecare trimitere la NCMEC poate conține mai multe elemente de conținut. Totalul bucăților individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total aplicat.

Moderarea reclamelor

Snap se angajează să se asigure constant că toate reclamele sunt în deplină conformitate cu politicile platformei noastre. Credem într-o abordare responsabilă și respectuoasă a publicității, care să creeze o experiență sigură și plăcută pentru toți utilizatorii noștri. Mai jos am inclus informații privind modul nostru de moderare a publicității. Rețineți că anunțurile de pe Snapchat pot fi eliminate dintr-o varietate de motive, așa cum se arată în Politicile de publicitate ale Snap, incluzând conținutul înșelător, conținutul pentru adulți, conținutul violent sau deranjant, discursul instigator la ură și încălcarea drepturilor de proprietate intelectuală. În plus, acum puteți găsi Galeria de reclame Snapchat în bara de navigare a acestui raport de transparență. 

Prezentare generală pe țări

Această secțiune oferă o imagine de ansamblu a punerii în aplicare a Regulilor comunității noastre într-un eșantion de regiuni geografice. Regulile noastre se aplică întregului conținut publicat pe Snapchat (și tuturor Snapchatterilor) din întreaga lume, indiferent de locație.
Informațiile pentru fiecare țară în parte sunt disponibile pentru a fi descărcate prin intermediul fișierului CSV atașat: