20 iunie 2025
1 iulie 2025
Publicăm acest raport de transparență de două ori pe an pentru a oferi informații despre eforturile Snap în domeniul siguranței. Ca parte a angajamentului nostru față de siguranță și transparență, ne străduim în mod continuu să facem aceste rapoarte mai cuprinzătoare și mai informative pentru numeroasele părți interesate care țin profund la modul în care moderăm conținutul, la practicile de aplicare a legii și la siguranța și bunăstarea comunității Snapchat.
Acest Raport de Transparență acoperă a doua jumătate a anului 2024 (1 iulie – 31 decembrie). Distribuim date globale privind sesizările utilizatorilor și detectarea proactivă realizată de Snap; măsurile luate de echipele noastre de Siguranță în diferite categorii de încălcări ale Regulilor Comunității; modul în care am răspuns solicitărilor autorităților de aplicare a legii și guvernelor; precum și modul în care am gestionat notificările privind încălcări ale drepturilor de autor și ale mărcilor comerciale. De asemenea, oferim informații specifice fiecărei țări într-o serie de pagini conexe.
Pentru a găsi resurse suplimentare privind siguranța și confidențialitatea pe Snapchat, consultați fila Despre Raportarea Transparenței din partea de jos a paginii.
Vă rugăm să rețineți că versiunea cea mai actualizată a acestui Raport de Transparență este cea în limba engleză.
Prezentare generală a acțiunilor întreprinse de echipele noastre de încredere și siguranță pentru a pune în aplicare orientările noastre comunitare
Echipele noastre de Siguranță aplică Regulile Comunității atât proactiv (prin utilizarea unor instrumente automate de detectare), cât și reactiv (ca răspuns la sesizări), așa cum este detaliat în secțiunile următoare ale acestui raport. În acest ciclu de raportare (sem. II 2024), echipele noastre de Siguranță au aplicat următorul număr de măsuri:
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
10.032.110
5.698.212
Mai jos este prezentată o defalcare pe tipuri de încălcări ale Regulilor Comunității, inclusiv timpul mediu de procesare dintre momentul în care am detectat încălcarea (fie proactiv, fie în urma unei sesizări) și momentul în care am luat măsura finală asupra conținutului sau contului relevant:
Motivul politicii
Total puneri în aplicare
Totalitatea conturilor unice sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
3.860.331
2.099.512
2
Exploatarea Sexuală a Copiilor
961.359
577.682
23
Hărțuire și intimidare
2.716.966
2.019.439
7
Amenințări și Violență
199.920
156.578
8
Automutilare și sinucidere
15.910
14.445
10
Informații False
6.539
6.176
1
Furt de identitate
8.798
8.575
2
Spam
357.999
248.090
1
Droguri
1.113.629
718.952
6
Arme
211.860
136.953
1
Alte bunuri reglementate
247.535
177.643
8
Discurs instigator la ură
324.478
272.025
27
Terorism și Extremism violent
6.786
4.010
5
În perioada de raportare, am înregistrat o Rată de Vizualizări cu Încălcări (Violative View Rate – VVR) de 0,01%, ceea ce înseamnă că, din fiecare 10.000 de vizualizări de Snaps și Povești pe Snapchat, una a conținut materiale care au fost considerate ca încălcând Regulile noastre ale Comunității.
Încălcări ale liniilor directoare ale comunității raportate către echipele noastre de încredere și siguranță
În perioada 1 iulie – 31 decembrie 2024, ca răspuns la sesizările din aplicație privind încălcări ale Regulilor Comunității, echipele de Siguranță ale Snap au luat un total de 6.346.508 măsuri de aplicare la nivel global, inclusiv împotriva a 4.075.838 de conturi unice. Timpul mediu de reacție al echipelor noastre de Siguranță pentru a lua măsuri în urma acestor sesizări a fost de aproximativ 6 minute. O defalcare pe categorii de raportare este furnizată mai jos.
Totalitatea rapoartelor privind conținutul și contul
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
19.379.848
6.346.508
4.075.838
Motivul politicii
Rapoarte privind conținutul și contul
Total puneri în aplicare
% din totalul rapoartelor puse în aplicare de Snap
Totalitatea Conturilor Unice Sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
5.251.375
2.042.044
32.20%
1.387.749
_Core
Exploatarea Sexuală a Copiilor
1.224.502
469.389
7.40%
393.384
133
Hărțuire și intimidare
6.377.555
2.702.024
42.60%
2.009.573
7
Amenințări și Violență
1.000.713
156.295
2.50%
129.077
8
Automutilare și sinucidere
307.660
15.149
0.20%
13.885
10
Informații False
536.886
6.454
0.10%
6.095
1
Furt de identitate
678.717
8.790
0.10%
8.569
2
Spam
1.770.216
180.849
2.80%
140.267
1
Droguri
418.431
244.451
3.90%
159.452
23
Arme
240.767
6.473
0.10%
5.252
1
Alte bunuri reglementate
606.882
199.255
3.10%
143.560
8
Discurs instigator la ură
768.705
314.134
4.90%
263.923
27
Terorism și Extremism violent
197.439
1.201
<0.1%
1 093
_Core
Comparativ cu perioada de raportare anterioară, am redus timpii mediani de procesare în toate categoriile de politici cu o medie de 90%. Această reducere s-a datorat în mare măsură unui efort concertat de extindere a capacității noastre de revizuire, precum și îmbunătățirii modului în care prioritizăm sesizările, în funcție de gravitatea prejudiciului. Am implementat, de asemenea, mai multe modificări specifice în eforturile noastre de siguranță în perioada de raportare, care au avut un impact asupra datelor prezentate aici. Acestea includ extinderea eforturilor noastre de a lua măsuri împotriva conturilor cu nume de utilizator și nume afișate care încalcă Regulile Comunității, introducerea unor opțiuni sporite de raportare și măsuri de protecție pentru Comunitățile de pe Snapchat, precum și introducerea opțiunilor de raportare pentru tipuri suplimentare de conținut media, cum ar fi notele vocale, direct către noi.
Aceste schimbări, precum și alte eforturi legate de siguranță și factori externi, au avut un impact deosebit asupra anumitor domenii de politică, comparativ cu perioada de raportare anterioară. Aceste categorii de politici includ: conținutul legat de suspiciuni de exploatare și Abuz Sexual Asupra Copiilor (CSEA), Informațiile False Dăunătoare și Spam. Mai exact:
CSEA: În a doua jumătate a anului 2024, am observat o scădere de 12% a sesizărilor legate de exploatarea și abuzul sexual asupra copiilor (CSEA) și am redus timpul median de răspuns la aceste sesizări cu 99%. Aceste tendințe sunt determinate în mare măsură de progresele continue în eforturile noastre de detectare proactivă, care ne-au permis să eliminăm conținutul CSEA înainte ca acesta să ne fie raportat, precum și de îmbunătățirile aduse proceselor noastre de revizuire și de intervenție mai eficientă asupra sesizărilor legate de CSEA. Chiar și cu aceste îmbunătățiri, timpul de procesare pentru cazurile CSEA rămâne mai ridicat decât în alte domenii de politică, deoarece conținutul este supus unui proces specializat care include o dublă revizuire realizată de o echipă selectă de agenți special instruiți.
Informații False Dăunătoare: Am observat o creștere de 26% a numărului de sesizări legate de informații false dăunătoare, determinată în principal de evenimente politice, inclusiv alegerile din SUA din noiembrie 2024.
Spam: În această perioadă de raportare, am înregistrat o scădere de aproximativ 50% a măsurilor de aplicare totale și o scădere de aproximativ 46% a numărului total de conturi unice împotriva cărora s-au luat măsuri în urma sesizărilor privind suspiciuni de Spam, reflectând îmbunătățirile aduse instrumentelor noastre de detectare și aplicare proactivă. Aceasta reprezintă o continuare a eforturilor noastre de a combate spamul prin semnale asociate conturilor și de a elimina autorii care generează spam încă din fazele incipiente ale activității lor pe platformă. Acest efort era deja în desfășurare în perioada de raportare precedentă, când măsurile de aplicare totale și numărul total de conturi unice împotriva cărora s-au luat măsuri pentru Spam au scăzut cu aproximativ 65%, respectiv 60%.
Eforturile Noastre de a Detecta și a Sancționa Proactiv Încălcările Regulilor Comunității Noastre
Folosim instrumente automate pentru a detecta în mod proactiv și, în anumite cazuri, pentru a lua măsuri împotriva încălcărilor Regulilor noastre ale Comunității. Aceste instrumente includ tehnologii de potrivire a amprentelor digitale (hash-matching), precum PhotoDNA și CSAI Match de la Google (pentru imagini cu abuz sexual asupra minorilor), API-ul de Siguranță al Conținutului de la Google, precum și alte tehnologii personalizate concepute pentru a detecta conținut abuziv în text și materiale media, utilizând uneori inteligență artificială și învățare automată.
În a doua jumătate a anului 2024, am luat următoarele măsuri de aplicare a regulilor în urma detectării proactive a încălcărilor Regulilor noastre ale Comunității, folosind instrumente automate de detectare:
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
3.685.602
1.845.125
Motivul politicii
Total puneri în aplicare
Totalitatea conturilor unice sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
1.818.287
828.590
<1
Exploatarea Sexuală a Copiilor
491.970
188.877
1
Hărțuire și intimidare
14.942
11.234
8
Amenințări și Violență
43.625
29.599
9
Automutilare și sinucidere
Snap Legal
624
9
Informații False
85
81
10
Furt de identitate
8
6
19
Spam
177.150
110.551
<1
Droguri
869.178
590.658
5
Arme
205.387
133.079
<1
Alte bunuri reglementate
48.280
37.028
9
Discurs instigator la ură
10.344
8.683
10
Terorism și Extremism violent
5.585
2.951
21
Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eliminarea exploatării și abuzului sexual asupra copiilor (CSEA) pe platforma noastră reprezintă o prioritate majoră pentru Snap, iar noi ne dezvoltăm în mod continuu capacitățile pentru a combate aceste și alte infracțiuni.
Folosim tehnologii active de detectare pentru a identifica conținutul legat de exploatarea și abuzul sexual asupra copiilor (CSEA). Aceste instrumente includ unelte de potrivire a amprentelor digitale (inclusiv PhotoDNA și CSAI Match de la Google, pentru identificarea imaginilor și videoclipurilor ilegale cunoscute legate de CSEA, respectiv) și Google Content Safety API (pentru identificarea imaginilor ilegale noi, „niciodată înainte amprentate”). În plus, în unele cazuri, folosim semnale comportamentale pentru a lua măsuri împotriva altor activități suspectate de exploatare și abuz sexual asupra copiilor (CSEA). Raportăm conținutul legat de CSEA către Centrul Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC coordonează apoi, după caz, cu autoritățile de aplicare a legii din țară sau din străinătate.
În a doua jumătate a anului 2024, am luat următoarele măsuri după identificarea conținutului legat de exploatarea și abuzul sexual asupra copiilor (CSEA) pe Snapchat (fie proactiv, fie ca urmare a unei sesizări):
Totalitatea conținutului impus
Totalul conturilor dezactivate
Total trimiteri către NCMEC*
1.228.929
242.306
417.842
*Rețineți că fiecare trimitere la NCMEC poate conține mai multe bucăți de conținut. Totalul pieselor individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total impus.
Eforturile noastre de a oferi resurse și sprijin utilizatorilor Snapchat aflați în dificultate
Snapchat le oferă prietenilor posibilitatea de a se sprijini reciproc în momente dificile, punând la dispoziție resurse și sprijin pentru utilizatorii aflați în dificultate.
Instrumentul nostru de căutare „Here For You” oferă resurse furnizate de specialiști atunci când utilizatorii caută anumite subiecte legate de sănătatea mintală, anxietate, depresie, stres, gânduri suicidare, doliu și hărțuire. Am creat, de asemenea, o pagină dedicată vătămărilor sexuale cu scop financiar și altor riscuri și abuzuri de natură sexuală, cu scopul de a sprijini persoanele aflate în dificultate. Lista noastră globală de resurse de siguranță este disponibilă public pentru toți snapchatterii în Centrul nostru de confidențialitate, siguranță și politici.
Atunci când echipele noastre de Siguranță află că un utilizator Snapchat se află în dificultate, acestea sunt pregătite să ofere resurse pentru prevenirea autovătămării și sprijin, precum și să alerteze serviciile de urgență, atunci când este necesar. Resursele pe care le punem la dispoziție se regăsesc în lista noastră globală de resurse pentru siguranță, disponibilă tuturor utilizatorilor Snapchat.
Număr total de distribuiri ale resurselor împotriva sinuciderii
64.094
Apeluri
Mai jos oferim informații despre contestațiile primite din partea utilizatorilor care au solicitat o reevaluare a deciziei noastre de a le bloca contul în a doua jumătate a anului 2024:
Motivul politicii
Totalul apelurilor
Reintroduceri totale
Totalul deciziilor confirmate
Timpul mediu de răspuns (zile) pentru procesarea apelurilor
TOTAL
493.782
35.243
458.539
5
Conținut cu caracter sexual
162.363
6.257
156.106
_Core
Exploatarea Sexuală a Copiilor
102.585
15.318
87.267
6
Hărțuire și intimidare
53.200
442
52.758
7
Amenințări și Violență
4.238
83
4.155
5
Automutilare și sinucidere
31
1
30
5
Informații False
3
0
3
<1
Furt de identitate
Augmented Reality
33
_Core
7
Spam
19.533
5.090
14.443
9
Droguri
133.478
7.598
125.880
_Core
Arme
4.678
136
4.542
6
Alte bunuri reglementate
9.153
168
8.985
6
Discurs instigator la ură
3.541
Snapchat
3.427
7
Terorism și Extremism violent
132
3
129
9
Prezentare generală pe regiuni și țări
Această secțiune oferă o prezentare generală a acțiunilor întreprinse de echipele noastre de Siguranță pentru a aplica Regulile Comunității, atât proactiv, cât și ca răspuns la sesizările din aplicație privind încălcări, într-un eșantion de regiuni geografice. Regulile noastre ale Comunității se aplică tuturor tipurilor de conținut de pe Snapchat — și tuturor utilizatorilor Snapchat — la nivel global, indiferent de locație.
Informațiile pentru fiecare țară în parte, inclusiv pentru toate statele membre ale UE, pot fi descărcate prin intermediul fișierului CSV din atașat.
Regiune
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
America de Nord
3.828.389
2.117.048
Europa
2.807.070
1.735.054
Restul Lumii
3.396.651
1.846.110
Total
10.032.110
5.698.212
Regiune
Rapoarte privind conținutul și contul
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
America de Nord
5.916.815
2.229.465
1.391.304
Europa
5.781.317
2.085.109
1.378.883
Restul Lumii
7.681.716
2.031.934
1.319.934
Total
19.379.848
6.346.508
4.090.121
Total puneri în aplicare
Totalitatea Conturilor Unice Sancționate
1.598.924
837.012
721.961
417.218
1.364.717
613.969
3.685.602
1.868.199
Moderarea reclamelor
Snap se angajează să se asigure că toate reclamele sunt pe deplin conforme cu politicile noastre de publicitate. Credem într-o abordare responsabilă a publicității, care să ofere o experiență sigură pentru toți utilizatorii Snapchat. Toate reclamele sunt supuse verificării și aprobării noastre. În plus, ne rezervăm dreptul de a șterge anunțurile, inclusiv răspunsurile la feedback-ul utilizatorilor, pe care le luăm în serios.
Mai jos am inclus informații despre moderarea noastră în cazul reclamelor plătite care ne sunt raportate în urma publicării lor pe Snapchat. Rețineți că anunțurile de pe Snapchat pot fi eliminate dintr-o varietate de motive, așa cum se arată în Politicile de publicitate ale Snap, incluzând conținutul înșelător, conținutul pentru adulți, conținutul violent sau deranjant, discursul instigator la ură și încălcarea drepturilor de proprietate intelectuală. De asemenea, acum puteți găsi Galeria de Reclame Snapchat în centrul de transparență al Snap, accesibilă direct din bara de navigare.
Numărul total de reclame raportate
Numărul total de reclame eliminate
43.098
17.833


