Raport de transparență
1 iulie 2023 – 31 decembrie 2023

Eliberat:

25 aprilie 2024

Actualizat:

25 aprilie 2024

Pentru a oferi o perspectivă suplimentară asupra eforturilor de siguranță ale Snap și asupra naturii și volumului de conținut raportat pe platforma noastră, publicăm acest raport de transparență de două ori pe an. Ne-am angajat să continuăm să facem aceste rapoarte mai cuprinzătoare și mai informative pentru siguranța și bunăstarea comunității noastre și a numeroaselor părți interesate care țin foarte mult la practicile noastre de moderare a conținutului și de aplicare a legii. 

Prezentul raport face referire la a doua jumătate a anului 2023 (1 iulie - 31 decembrie). Ca și în cazul rapoartelor noastre anterioare, împărtășim date despre numărul global de rapoarte privind conținutul din aplicație și rapoartele la nivel de cont pe care le-am primit și pe care le-am aplicat în funcție de categorii specifice de încălcări ale politicilor; modul în care am răspuns la solicitările din partea autorităților de aplicare a legii și a guvernelor; și sancțiunile aplicate de noi, defalcate pe țări.

Ca parte a angajamentului nostru constant de a ne îmbunătăți continuu rapoartele de transparență, introducem câteva elemente noi în această versiune. 

În primul rând, am extins tabelul nostru principal pentru a include rapoarte și măsuri de aplicare a legii împotriva conținutului și a conturilor legate atât de terorism și de extremismul violent, cât și de exploatarea și abuzul sexual asupra copiilor (CSEA). În rapoartele anterioare, am evidențiat ștergerile de conturi efectuate ca răspuns la aceste încălcări în secțiuni separate. Vom continuă să prezentăm eforturile noastre proactive și reactive împotriva CSEA, precum și rapoartele noastre către NCMEC, într-o secțiune separată. 

În al doilea rând, am furnizat informații extinse privind apelurile, subliniind numărul total de apeluri și repuneri în drepturi în funcție de aplicarea orientărilor regulilor comunității. 

În cele din urmă, am extins secțiunea dedicată Uniunii Europene, oferind o mai bună perspectivă asupra activităților din UE ale Snap. Mai exact, publicăm cel mai recent raport de transparență al DSA și date suplimentare privind scanarea mediatică a CSEA.

Pentru mai multe informații despre politicile noastre de combatere a pericolelor online și despre planurile de a continua să ne dezvoltăm practicile de raportare, vă rugăm să citiți cel mai recent articol al nostru de pe blogul Siguranță și Impact care face referire la acest raport de transparență. Pentru a găsi resurse suplimentare privind siguranța și confidențialitatea pe Snapchat, consultați fila Despre raportarea transparenței din partea de jos a paginii.

Vă rugăm să rețineți că cea mai recentă versiune a acestui raport de transparență poate fi găsită în versiunea en-US.

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 iulie - 31 decembrie 2023, Snap a aplicat măsuri împotriva a 5.376.714 de bucăți de conținut la nivel global care ne-au fost raportate și care au încălcat Regulile comunității noastre.

În timpul perioadei de raportare, am înregistrat o rată de vizionare cu încălcări (VVR) de 0,01%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de Snap-uri și Povești pe Snapchat, una a avut un conținut care a încălcat politicile noastre. Timpul mediu de răspuns pentru aplicarea conținutului raportat a fost de ~10 minute.

Analiza conținutului și a încălcărilor contului

Ratele noastre generale de raportare și de punere în aplicare au rămas destul de similare cu cele din ultimele șase luni. În acest ciclu, am înregistrat o creștere de aproximativ 10% a conținutului total și a rapoartelor de cont.

Conflictul dintre Israel și Hamas a început în această perioadă și prin urmare, am asistat la o creștere a conținutului violent. Numărul total de rapoarte legate de discursul instigator la ură a crescut cu ~61%, în timp ce numărul total de cazuri de aplicare a discursului instigator la ură a crescut cu ~97%, iar numărul de cazuri de aplicare a legii privind conturile unice a crescut cu ~ 124%. Rapoartele și aplicările privind terorismul și extremismul violent au crescut, de asemenea, deși reprezintă <0,1% din numărul total de aplicări de conținut pe platforma noastră. Echipele noastre de încredere și siguranță continuă să rămână vigilente pe măsură ce apar conflicte globale, pentru a contribui la menținerea siguranței Snapchat. De asemenea, am extins raportul nostru de transparență pentru a include mai multe informații la nivel global și național cu privire la număru total de rapoarte, conținutul aplicat și conturile unice aplicate pentru încălcări ale politicii noastre privind terorismul și extremismul violent. 

Combaterea exploatării sexuale a copiilor și abuzului sexual

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.

Utilizăm instrumente active de detectare tehnologică, cum ar fi PhotoDNA robust hash-matching și instrumentul Google de identificare a imaginilor cu abuzuri sexuale asupra copiilor (CSAI) pentru a identifica imaginile și, respectiv, videoclipurile cunoscute ca fiind ilegale cu abuzuri sexuale asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.

În a doua jumătate a anului 2023, am detectat în mod proactiv și am luat măsuri în 59% din totalul încălcărilor legate de exploatarea și abuzul sexual asupra copiilor raportate în totalitate. Această cifră reflectă o scădere totală de 39% față de perioada anterioară datorită îmbunătățirii opțiunilor de raportare ale Snapchatterilor, ceea ce ne sporește vizibilitatea potențialelor CSEA trimise pe Snapchat. 

*Rețineți că fiecare trimitere la NCMEC poate conține mai multe bucăți de conținut. Totalul pieselor individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total impus. De asemenea, am exclus din această cifră contribuțiile retrase de la NCMEC.

Conținut privitor la autovătămare și suicid

Ne pasă foarte mult de sănătatea mintală și de bunăstarea Snapchatters, ceea ce continuă să ne influențeze deciziile de a construi Snapchat în mod diferit. Fiind o platformă concepută pentru comunicarea între și printre prieteni adevărați, credem că Snapchat poate juca un rol unic în abilitarea prietenilor de a se ajuta reciproc în momente dificile.

Atunci când echipa noastră de încredere și siguranță ia cunoștință de un Snapchatter aflat în dificultate, acesta poate transmite resurse de prevenire și sprijin pentru auto-vătămare și poate notifica personalul de intervenție de urgență, dacă este cazul. Resursele pe care le distribuim sunt disponibile pe lista noastră globală de resurse privind siguranța și sunt disponibile public pentru toți Snapchatterii.

Apeluri

În raportul nostru anterior, am introdus măsurători privind apelurile, în care am evidențiat numărul de cazuri în care utilizatorii ne-au cerut să reanalizăm decizia inițială de moderare a contului lor. În acest raport, am extins apelurile noastre pentru a cuprinde întreaga gamă de categorii de politici pentru încălcări la nivel de cont.

* Oprirea răspândirii conținutului sau a activităților legate de exploatarea sexuală a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest scop și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență al Snap să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de punere în aplicare.

Moderarea reclamelor

Snap se angajează să se asigure că toate reclamele sunt pe deplin conforme cu politicile noastre de publicitate. Credem într-o abordare responsabilă și respectuoasă a publicității, care să creeze o experiență sigură și plăcută pentru toți utilizatorii noștri. Mai jos am inclus informații despre moderarea noastră pentru reclamele plătite pe Snapchat Rețineți că anunțurile de pe Snapchat pot fi eliminate dintr-o varietate de motive, așa cum se arată în Politicile de publicitate ale Snap, incluzând conținutul înșelător, conținutul pentru adulți, conținutul violent sau deranjant, discursul instigator la ură și încălcarea drepturilor de proprietate intelectuală. În plus, acum puteți găsi Galeria de reclame Snapchat în bara de navigare a acestui raport de transparență.

Prezentare generală pe regiuni și țări

Această secțiune oferă o imagine de ansamblu a punerii în aplicare a Regulilor comunității noastre într-un eșantion de regiuni geografice. Regulile noastre se aplică întregului conținut publicat pe Snapchat (și tuturor Snapchatterilor) din întreaga lume, indiferent de locație.

Informațiile pentru fiecare țară în parte, inclusiv pentru toate statele membre ale UE, pot fi descărcate prin intermediul fișierului CSV din atașat.