Snap Values
Raport de transparență
1 ianuarie, 2024 - 30 iunie, 2024

Eliberat:

5 decembrie, 2024

Actualizat:

5 decembrie, 2024

Publicăm acest raport de transparență de două ori pe an pentru a oferi o perspectivă asupra eforturilor privind siguranța ale Snap. Ne angajăm să depunem aceste eforturi și ne străduim continuu să facem aceste rapoarte mai cuprinzătoare și mai informative pentru mulți cei interesați care țin foarte mult la moderarea conținutului nostru, practicile de aplicare a legii și siguranța și bunăstarea comunității Snapchat 

Acest Raport de Transparență vizează prima jumătate a anului 2024 (1 ianuarie - 30 iunie). Ca și în cazul rapoartelor noastre anterioare, partajăm date despre volumul global al rapoartelor de conținut și conturi la nivel de aplicație pe care echipele noastre de Încredere și Siguranță le-au primit și le-au aplicat în diferite categorii de încălcări ale Regulilor Comunității; cum am răspuns la solicitările autorităților de aplicare a legii și ale guvernelor; și cum am răspuns la sesizările de încălcare a drepturilor de autor și a mărcilor comerciale. De asemenea, oferim informații specifice fiecărei țări în fișierele legate de partea de jos a acestei pagini.

Ca parte a angajamentului nostru continuu de a ne îmbunătăți rapoartele de transparență, introducem de asemenea noi date care să evidențieze eforturile noastre proactive de a detecta și a sancționa împotriva unei game mai largi de încălcări ale Regulilor Comunității noastre. Am inclus aceste date atât la nivel global, cât și la nivel de țară în cadrul acestui raport și vom continua să facem acest lucru. De asemenea, am corectat o eroare de etichetare în rapoartele noastre anterioare: unde ne-am referit anterior la „Conținut Total Sancționat”, ne referim acum la „Total Sancțiuni” pentru a reflecta faptul că datele furnizate în coloanele relevante includ atât sancțiunile la nivel de conținut, cât și la nivelul conturilor.

Pentru mai multe informații despre politicile noastre de combatere a potențialelor prejudicii online și despre planurile de continuare a evoluției practicilor noastre de raportare, vă rugăm să citiți blogul nostru recent de Siguranță și Impact despre acest Raport de Transparență. Pentru a găsi resurse suplimentare privind siguranța și confidențialitatea pe Snapchat, consultați fila Despre Raportarea Transparenței din partea de jos a paginii.

Vă rugăm să rețineți că cea mai recentă versiune a acestui Raport de Transparență poate fi găsită în fișierul EN-US.

Prezentare generală a acțiunilor întreprinse de echipele noastre de încredere și siguranță pentru a pune în aplicare orientările noastre comunitare

Echipele noastre însărcinate cu încrederea și siguranța pun în aplicare orientările noastre pentru comunitate atât în mod proactiv (prin utilizarea de instrumente automate), cât și reactiv (ca răspuns la rapoarte), după cum se detaliază în secțiunile următoare ale acestui raport. În cadrul acestui ciclu de raportare (H1 2024), echipele noastre de încredere și siguranță au luat următoarele măsuri de punere în aplicare: 

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 iulie - 31 decembrie 2023, Snap a aplicat măsuri împotriva a 5.376.714 de bucăți de conținut la nivel global care ne-au fost raportate și care au încălcat Regulile comunității noastre.

În timpul perioadei de raportare, am înregistrat o rată de vizionare cu încălcări (VVR) de 0,01%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de Snap-uri și Povești pe Snapchat, una a avut un conținut care a încălcat politicile noastre. Timpul mediu de răspuns pentru aplicarea conținutului raportat a fost de ~10 minute.

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 iulie - 31 decembrie 2023, Snap a aplicat măsuri împotriva a 5.376.714 de bucăți de conținut la nivel global care ne-au fost raportate și care au încălcat Regulile comunității noastre.

În timpul perioadei de raportare, am înregistrat o rată de vizionare cu încălcări (VVR) de 0,01%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de Snap-uri și Povești pe Snapchat, una a avut un conținut care a încălcat politicile noastre. Timpul mediu de răspuns pentru aplicarea conținutului raportat a fost de ~10 minute.

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 iulie - 31 decembrie 2023, Snap a aplicat măsuri împotriva a 5.376.714 de bucăți de conținut la nivel global care ne-au fost raportate și care au încălcat Regulile comunității noastre.

În timpul perioadei de raportare, am înregistrat o rată de vizionare cu încălcări (VVR) de 0,01%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de Snap-uri și Povești pe Snapchat, una a avut un conținut care a încălcat politicile noastre. Timpul mediu de răspuns pentru aplicarea conținutului raportat a fost de ~10 minute.

Analiza conținutului și a încălcărilor contului

Ratele noastre generale de raportare și de punere în aplicare au rămas destul de similare cu cele din ultimele șase luni. În acest ciclu, am înregistrat o creștere de aproximativ 10% a conținutului total și a rapoartelor de cont.

Conflictul dintre Israel și Hamas a început în această perioadă și prin urmare, am asistat la o creștere a conținutului violent. Numărul total de rapoarte legate de discursul instigator la ură a crescut cu ~61%, în timp ce numărul total de cazuri de aplicare a discursului instigator la ură a crescut cu ~97%, iar numărul de cazuri de aplicare a legii privind conturile unice a crescut cu ~ 124%. Rapoartele și aplicările privind terorismul și extremismul violent au crescut, de asemenea, deși reprezintă <0,1% din numărul total de aplicări de conținut pe platforma noastră. Echipele noastre de încredere și siguranță continuă să rămână vigilente pe măsură ce apar conflicte globale, pentru a contribui la menținerea siguranței Snapchat. De asemenea, am extins raportul nostru de transparență pentru a include mai multe informații la nivel global și național cu privire la număru total de rapoarte, conținutul aplicat și conturile unice aplicate pentru încălcări ale politicii noastre privind terorismul și extremismul violent. 

Prezentare generală a conținutului și a încălcărilor contului

În perioada 1 iulie - 31 decembrie 2023, Snap a aplicat măsuri împotriva a 5.376.714 de bucăți de conținut la nivel global care ne-au fost raportate și care au încălcat Regulile comunității noastre.

În timpul perioadei de raportare, am înregistrat o rată de vizionare cu încălcări (VVR) de 0,01%, ceea ce înseamnă că, la fiecare 10.000 de vizualizări de Snap-uri și Povești pe Snapchat, una a avut un conținut care a încălcat politicile noastre. Timpul mediu de răspuns pentru aplicarea conținutului raportat a fost de ~10 minute.

Combaterea exploatării sexuale a copiilor și abuzului sexual

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.

Utilizăm instrumente active de detectare tehnologică, cum ar fi PhotoDNA robust hash-matching și instrumentul Google de identificare a imaginilor cu abuzuri sexuale asupra copiilor (CSAI) pentru a identifica imaginile și, respectiv, videoclipurile cunoscute ca fiind ilegale cu abuzuri sexuale asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.

În a doua jumătate a anului 2023, am detectat în mod proactiv și am luat măsuri în 59% din totalul încălcărilor legate de exploatarea și abuzul sexual asupra copiilor raportate în totalitate. Această cifră reflectă o scădere totală de 39% față de perioada anterioară datorită îmbunătățirii opțiunilor de raportare ale Snapchatterilor, ceea ce ne sporește vizibilitatea potențialelor CSEA trimise pe Snapchat. 

*Rețineți că fiecare trimitere la NCMEC poate conține mai multe bucăți de conținut. Totalul pieselor individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total impus. De asemenea, am exclus din această cifră contribuțiile retrase de la NCMEC.

Conținut privitor la autovătămare și suicid

Ne pasă foarte mult de sănătatea mintală și de bunăstarea Snapchatters, ceea ce continuă să ne influențeze deciziile de a construi Snapchat în mod diferit. Fiind o platformă concepută pentru comunicarea între și printre prieteni adevărați, credem că Snapchat poate juca un rol unic în abilitarea prietenilor de a se ajuta reciproc în momente dificile.

Atunci când echipa noastră de încredere și siguranță ia cunoștință de un Snapchatter aflat în dificultate, acesta poate transmite resurse de prevenire și sprijin pentru auto-vătămare și poate notifica personalul de intervenție de urgență, dacă este cazul. Resursele pe care le distribuim sunt disponibile pe lista noastră globală de resurse privind siguranța și sunt disponibile public pentru toți Snapchatterii.

Apeluri

În raportul nostru anterior, am introdus măsurători privind apelurile, în care am evidențiat numărul de cazuri în care utilizatorii ne-au cerut să reanalizăm decizia inițială de moderare a contului lor. În acest raport, am extins apelurile noastre pentru a cuprinde întreaga gamă de categorii de politici pentru încălcări la nivel de cont.

* Oprirea răspândirii conținutului sau a activităților legate de exploatarea sexuală a copiilor este o prioritate absolută. Snap alocă resurse semnificative în acest scop și are toleranță zero pentru astfel de comportamente.  Este necesară o pregătire specială pentru a examina apelurile CSE și există o echipă limitată de agenți care se ocupă de aceste examinări din cauza naturii grafice a conținutului.  În toamna anului 2023, Snap a implementat modificări de politică care au afectat coerența anumitor măsuri de aplicare ale CSE și am abordat aceste neconcordanțe prin recalificarea agenților și prin asigurarea riguroasă a calității.  Ne așteptăm ca următorul raport de transparență al Snap să dezvăluie progresele înregistrate în ceea ce privește îmbunătățirea timpilor de răspuns pentru apelurile CSE și îmbunătățirea preciziei măsurilor de punere în aplicare.

Prezentare generală pe regiuni și țări

Această secțiune oferă o imagine de ansamblu a acțiunilor întreprinse de echipele noastre de Încredere și Siguranță pentru a pune în aplicare Regulile Comunității noastre, atât în mod proactiv, cât și ca răspuns la rapoartele de încălcare din aplicație, într-o eșantionare a regiunilor geografice. Regulile Comunității noastre se aplică întregului conținut publicat pe Snapchat—și tuturor utilizatorilor Snapchat—din întreaga lume, indiferent de locație.

Informațiile pentru fiecare țară în parte, inclusiv pentru toate statele membre ale UE, pot fi descărcate prin intermediul fișierului CSV din atașat.

Prezentare generală a acțiunilor întreprinse de echipele noastre de Încredere și Siguranță pentru a pune în aplicare Regulile Comunității noastre 

Combaterea exploatării sexuale a copiilor și abuzului sexual

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.

Utilizăm instrumente active de detectare tehnologică, cum ar fi PhotoDNA robust hash-matching și instrumentul Google de identificare a imaginilor cu abuzuri sexuale asupra copiilor (CSAI) pentru a identifica imaginile și, respectiv, videoclipurile cunoscute ca fiind ilegale cu abuzuri sexuale asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.

În a doua jumătate a anului 2023, am detectat în mod proactiv și am luat măsuri în 59% din totalul încălcărilor legate de exploatarea și abuzul sexual asupra copiilor raportate în totalitate. Această cifră reflectă o scădere totală de 39% față de perioada anterioară datorită îmbunătățirii opțiunilor de raportare ale Snapchatterilor, ceea ce ne sporește vizibilitatea potențialelor CSEA trimise pe Snapchat. 

Combaterea exploatării sexuale a copiilor și abuzului sexual

Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eradicarea exploatării sexuale și a imaginilor cu abuzuri asupra copiilor (CSEA) pe platforma noastră este o prioritate de top pentru Snap și ne dezvoltăm continuu capacitățile pentru combaterea acestora și a altor tipuri de infracțiuni.

Utilizăm instrumente active de detectare tehnologică, cum ar fi PhotoDNA robust hash-matching și instrumentul Google de identificare a imaginilor cu abuzuri sexuale asupra copiilor (CSAI) pentru a identifica imaginile și, respectiv, videoclipurile cunoscute ca fiind ilegale cu abuzuri sexuale asupra copiilor și pentru a le raporta Centrului Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC se coordonează apoi, la rândul său, cu autoritățile de aplicare a legii naționale sau internaționale, după caz.

În a doua jumătate a anului 2023, am detectat în mod proactiv și am luat măsuri în 59% din totalul încălcărilor legate de exploatarea și abuzul sexual asupra copiilor raportate în totalitate. Această cifră reflectă o scădere totală de 39% față de perioada anterioară datorită îmbunătățirii opțiunilor de raportare ale Snapchatterilor, ceea ce ne sporește vizibilitatea potențialelor CSEA trimise pe Snapchat. 

Moderarea reclamelor

Snap se angajează să se asigure că toate reclamele sunt pe deplin conforme cu politicile noastre de publicitate. Credem într-o abordare responsabilă și respectuoasă a publicității, care să creeze o experiență sigură și plăcută pentru toți utilizatorii noștri. Mai jos am inclus informații despre moderarea noastră pentru reclamele plătite pe Snapchat Rețineți că anunțurile de pe Snapchat pot fi eliminate dintr-o varietate de motive, așa cum se arată în Politicile de publicitate ale Snap, incluzând conținutul înșelător, conținutul pentru adulți, conținutul violent sau deranjant, discursul instigator la ură și încălcarea drepturilor de proprietate intelectuală. În plus, acum puteți găsi Galeria de reclame Snapchat în bara de navigare a acestui raport de transparență.