1 decembrie 2025
1 decembrie 2025
Publicăm acest raport de transparență de două ori pe an pentru a oferi informații despre eforturile Snap în domeniul siguranței. Ca parte a angajamentului nostru față de siguranță și transparență, ne străduim în mod continuu să facem aceste rapoarte mai cuprinzătoare și mai informative pentru numeroasele părți interesate cărora le pasă profund de modul în care moderăm conținutul, de abordarea noastră față de aplicarea legii și de siguranța și bunăstarea comunității Snapchat.
Prezentul Raport privind transparența acoperă prima jumătate a anului 2025 (1 ianuarie - 30 iunie). Distribuim date globale privind sesizările utilizatorilor și detectarea proactivă realizată de Snap; măsurile luate de echipele noastre de Siguranță în diferite categorii de încălcări ale Regulilor Comunității; modul în care am răspuns solicitărilor autorităților de aplicare a legii și guvernelor; precum și modul în care am gestionat notificările privind încălcări ale drepturilor de autor și ale mărcilor comerciale. De asemenea, oferim informații specifice fiecărei țări într-o serie de pagini conexe.
Pentru a găsi resurse suplimentare privind siguranța și confidențialitatea pe Snapchat, consultați fila Despre Raportarea Transparenței din partea de jos a paginii.
Vă rugăm să rețineți că versiunea cea mai actualizată a acestui Raport de Transparență este cea în limba engleză.
Prezentare generală a acțiunilor întreprinse de echipele noastre de încredere și siguranță pentru a pune în aplicare orientările noastre comunitare
Echipele noastre de Siguranță aplică Regulile Comunității atât proactiv (prin utilizarea unor instrumente automate de detectare), cât și reactiv (ca răspuns la sesizări), așa cum este detaliat în secțiunile următoare ale acestui raport. În acest ciclu de raportare (H1 2025), echipele noastre de Siguranță au aplicat următoarele măsuri de aplicare a legii:
Numărul total de aplicări
Numărul total de conturi unice sancționate
9.674.414
5.794.201
Mai jos este prezentată o defalcare pe tipuri de abateri de la Regulile Comunității, inclusiv „timpul mediu de soluționare” dintre momentul în care am detectat încălcarea (fie proactiv, fie în urma unei sesizări) și momentul în care am luat măsura finală asupra conținutului sau contului relevant:
Motivul politicii
Numărul total de aplicări
Numărul total de conturi unice sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
5.461.419
3.233.077
1
Exploatarea sexuală și abuzurile asupra copiilor
1.095.424
733.106
5
Hărțuire și intimidare
713.448
594.302
3
Amenințări și violență
187.653
146.564
3
Autovătămare și sinucidere
47.643
41.216
5
Informații false
2.088
2.004
1
Furt de identitate
7.138
6.881
<1
Spam
267.299
189.344
1
Droguri
1.095.765
726.251
7
Arme
251.243
173.381
1
Alte bunuri reglementate
183.236
126.952
4
Discurs instigator la ură
343.051
284.817
6
Terorism și extremism violent
10.970
6 783
2
Datele privind totalul sancțiunilor includ sancțiunile luate de Snap în urma analizării rapoartelor din aplicație trimise prin Snapchat. Acest lucru reprezintă marea majoritate a măsurilor de aplicare a legii luate de echipele de siguranță ale Snap. Acest număr exclude majoritatea măsurilor de aplicare a legii luate ca urmare a investigațiilor bazate pe rapoartele trimise către Snap prin intermediul site-ului nostru de asistență sau al altor mecanisme (de exemplu, prin e-mail) sau ca urmare a unor investigații proactive efectuate de către echipele noastre de siguranță. Aceste aplicări excluse au reprezentat mai puțin de 0.5% din volumul aplicat în prima jumătate a anului 2025.
În perioada de raportare, am înregistrat o Rată de Vizualizări cu Încălcări (Violative View Rate – VVR) de 0,01%, ceea ce înseamnă că, din fiecare 10.000 de vizualizări de Snaps și Povești pe Snapchat, una a conținut materiale care au fost considerate ca încălcând Regulile noastre ale Comunității. Printre măsurile de aplicare a legii pentru ceea ce considerăm a fi „Vătămări grave”, am văzut rată de risc (VVR) de 0,0003%. O defalcare a VVR în funcție de motivul politicii este furnizată în tabelul de mai jos.
Motivul politicii
VVR
Conținut cu caracter sexual
0.00482%
Exploatarea sexuală și abuzurile asupra copiilor
0.00096%
Hărțuire și intimidare
0.00099%
Amenințări și violență
0.00176%
Autovătămare și sinucidere
0.00009%
Informații false
0.00002%
Furt de identitate
0.00009%
Spam
0.00060%
Droguri
0.00047%
Arme
0.00083%
Alte bunuri reglementate
0.00104%
Discurs instigator la ură
0.00025%
Terorism și extremism violent
0.00002%
Încălcări ale liniilor directoare ale comunității raportate către echipele noastre de încredere și siguranță
În perioada 1 ianuarie - 30 iunie 2025, ca răspuns la 19.766.324 de rapoarte în aplicație privind abaterile de la Regulile comunității, echipele Snap au luat un total de 6.278.446 măsuri de aplicare la nivel global, inclusiv împotriva a 4.104.624 de conturi unice. Acest volum de raportare în aplicație exclud rapoartele de asistență de pe site-uri și e-mailuri, care reprezintă mai puțin de 1% din volumul total de raportare. Timpul mediu de reacție al echipelor noastre de Siguranță pentru a lua măsuri în urma acestor sesizări a fost de aproximativ 2 minute. O defalcare în funcție de motivul politicii este furnizată mai jos. (Notă: În rapoartele anterioare, ne-am referit uneori la această categorie ca la „categorie de raportare”. De acum înainte, folosim termenul „motiv politicii” despre care considerăm că reflectă mai exact natura datelor - deoarece echipele noastre de siguranță se străduiesc să aplice politica în conformitate cu motivul politicii corespunzător, indiferent de categoria de raportare identificată de persoana care a trimis raportarea.)
Totalul rapoartelor privind conținutul și contul
Numărul total de aplicări
Numărul total de conturi unice sancționate
Total
19.766.324
6.278.446
4.104.624
Motivul politicii
Totalul rapoartelor privind conținutul și contul
Numărul total de aplicări
Procentul din totalul rapoartelor puse în aplicare de Snap
Numărul total de conturi unice sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
7.315.730
3.778.370
60.2%
2.463.464
1
Exploatarea sexuală și abuzurile asupra copiilor
1.627.097
695.679
11.1%
577.736
10
Hărțuirea și intimidarea
4.103.797
700.731
11.2%
584.762
3
Amenințări și violență
997.346
147.162
2.3%
120.397
2
Autovătămare și sinucidere
350.775
41.150
0.7%
36.657
3
Informații false
606.979
2 027
0.0%
1.960
1
Furt de identitate
745.874
7.086
0,1 %
6.837
<1
Spam
1.709.559
122.499
2.0%
94.837
1
Droguri
481.830
262.962
4.2%
176.799
5
Arme
271.586
39.366
0,6%
32.316
1
Alte bunuri reglementate
530.449
143.098
2.3%
98.023
3
Discurs instigator la ură
817.262
337.263
5.4%
280.682
6
Terorism și extremism violent
208.040
1.053
0.0%
Lens Studio
2
În prima jumătate a anului 2025, am continuat să reducem timpii medii de procesare în toate categoriile de politici, reducându-le cu o medie de peste 75% comparativ cu perioada de raportare anterioară, la 2 minute. Această reducere s-a datorat în mare parte unui efort concertat continuu de a îmbunătăți prioritizarea rapoartelor care urmează să fie analizate în funcție de gravitatea prejudiciului și de analiza automată.
De asemenea, am făcut mai multe modificări specifice eforturilor noastre de siguranță în perioada de raportare, care au avut un impact asupra datelor raportate aici, inclusiv consolidarea politicilor noastre privind activitățile ilicite care implică arme. Am observat o creștere a numărului de rapoartele și a măsurilor de aplicare a legii în categoria Exploatării sexuale a copiilor, care a fost determinată în principal de o creștere a conținutului sexualizat sau sensibil care implică minori și care încalcă politicile noastre, dar care nu este ilegal în SUA sau care nu este supus raportării către Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC). Creșterea volumului legat de Conținutul sexual (și scăderea volumului legat de Hărțuire) a fost determinată de reclasificarea noastră a conținutului asociat cu hărțuirea sexuală de la Hărțuire la Conținut sexual.
Eforturile Noastre de a Detecta și a Sancționa Proactiv Încălcările Regulilor Comunității Noastre
Folosim instrumente automate pentru a detecta în mod proactiv și, în anumite cazuri, pentru a lua măsuri împotriva încălcărilor Regulilor Comunității noastre. Aceste instrumente includ tehnologii de potrivire hash (inclusiv PhotoDNA și Imagini despre abuz sexual asupra copiilor (CSAI) de la Google), API-ul privind siguranța conținutului de la Google și alte tehnologii proprietare concepute pentru a detecta texte și conținut media ilegale și care încalcă drepturile, uneori utilizând inteligența artificială și învățarea automată. Numerele noastre de detectare proactivă fluctuează în mod constant ca urmare a modificărilor de comportament ale utilizatorului, a îmbunătățirilor aduse capacităților noastre de detectare și a modificărilor aduse politicilor noastre.
În a prima jumătate a anului 2025, am luat următoarele măsuri de aplicare a regulilor în urma detectării proactive a abaterilor de la Regulile comunității noastre, folosind instrumente automate de detectare:
Numărul total de aplicări
Numărul total de conturi unice sancționate
Total
3.395.968
1.709.224
Motivul politicii
Numărul total de aplicări
Numărul total de conturi unice sancționate
Timpul mediu de răspuns (minute) de la detectare la acțiunea finală
Conținut cu caracter sexual
1.683.045
887.059
0
Exploatarea sexuală și abuzurile asupra copiilor
399.756
162.017
2
Hărțuire și intimidare
12.716
10.412
8
Amenințări și violență
40.489
27.662
6
Autovătămare și sinucidere
6.493
4.638
7
Informații false
61
44
20
Furt de identitate
52
44
34
Spam
144.800
96.500
0
Droguri
832.803
578.738
7
Arme
211.877
144.455
0
Alte bunuri reglementate
40.139
31.408
8
Discurs instigator la ură
5.788
4.518
6
Terorism și extremism violent
9.917
5.899
5
Combaterea exploatării și abuzului sexual al copiilor
Exploatarea sexuală a oricărui membru al comunității noastre, în special a minorilor, este ilegală, dezgustătoare și interzisă de Regulile comunității noastre. Prevenirea, detectarea și eliminarea exploatării și abuzului sexual asupra copiilor (CSEA) pe platforma noastră reprezintă o prioritate majoră pentru Snap, iar noi ne dezvoltăm în mod continuu capacitățile pentru a combate aceste și alte infracțiuni.
Folosim tehnologii active de detectare pentru a identifica conținutul legat de exploatarea și abuzul sexual asupra copiilor (CSEA). Aceste instrumente includ instrumente de potrivire a amprentelor digitale (inclusiv PhotoDNA și CSAI Match de la Google, pentru a identifica imagini și videoclipuri ilegale cunoscute cu CSEA) și API-ul Content Safety de la Google (pentru identificarea imaginilor ilegale noi, „niciodată înainte amprentate”). În plus, în unele cazuri, folosim semnale comportamentale pentru a lua măsuri împotriva altor activități suspectate de exploatare și abuz sexual asupra copiilor (CSEA). Raportăm conținutul legat de CSEA către Centrul Național pentru Copii Dispăruți și Exploatați din SUA (NCMEC), așa cum prevede legea. NCMEC coordonează apoi, după caz, cu autoritățile de aplicare a legii din țară sau din străinătate.
În prima jumătate a anului 2025, am luat următoarele măsuri după identificarea conținutului legat de exploatarea și abuzul sexual asupra copiilor (CSEA) pe Snapchat (fie proactiv, fie ca urmare a unei sesizări):
Totalitatea conținutului impus
Totalul conturilor dezactivate
Total trimiteri către NCMEC*
994.337
187.387
321.587
*Rețineți că fiecare înregistrare la NCMEC poate conține mai multe bucăți de conținut. Totalul pieselor individuale de mass-media trimise la NCMEC este egal cu conținutul nostru total impus.
Eforturile noastre de a oferi resurse și sprijin utilizatorilor Snapchat aflați în dificultate
Snapchat le oferă prietenilor posibilitatea de a se sprijini reciproc în momente dificile, punând la dispoziție resurse și sprijin pentru utilizatorii aflați în dificultate.
Instrumentul nostru de căutare Here For You oferă resurse furnizate de specialiști atunci când utilizatorii caută anumite subiecte legate de sănătatea mintală, anxietate, depresie, stres, gânduri suicidare, doliu și hărțuire. De asemenea, am dezvoltat o pagină dedicată combaterii extorcărilor sexuale motivate financiar și a altor riscuri și vătămări sexuale, în efortul de a sprijini persoanele aflate în dificultate.
Atunci când echipele noastre de siguranță iau cunoștință de un Snapchatter aflat în dificultate, acestea sunt echipate pentru a furniza resurse de prevenire și sprijin împotriva autovătămării și pentru a notifica serviciile de urgență, după cum este necesar. Resursele pe care le distribuim sunt disponibile pe lista noastră globală de resurse privind siguranța, care este disponibilă public pentru toți Snapchatterii din Hub-ul nostru de Confidențialitate, Siguranță și Politică.
Număr total de distribuiri ale resurselor împotriva sinuciderii
36.162
Apeluri
Mai jos oferim informații despre contestațiile primite din partea utilizatorilor care au solicitat o reevaluare a deciziei noastre de a le bloca conturile pentru că au încălcat Regulile comunității în a prima jumătate a anului 2025:
Motivul politicii
Totalul apelurilor
Reintroduceri totale
Totalul deciziilor confirmate
Timpul mediu de răspuns (zile) pentru procesarea apelurilor
Total
437.855
22.142
415.494
1
Conținut cu caracter sexual
134.358
6.175
128.035
1
Exploatarea sexuală și abuzurile asupra copiilor*
89.493
4.179
85.314
<1
Hărțuire și intimidare
42.779
281
42.496
1
Amenințări și violență
3.987
77
3.909
1
Autovătămare și sinucidere
145
2
143
1
Informații false
4
0
4
1
Furt de identitate
1.063
33
1.030
<1
Spam
13.730
3.140
10.590
1
Droguri
128.222
7.749
120.409
1
Arme
10.941
314
10.626
1
Alte bunuri reglementate
9.719
124
9.593
1
Discurs instigator la ură
3.310
67
3.242
1
Terorism și extremism violent
104
1
103
1
Prezentare generală pe regiuni și țări
Această secțiune oferă o prezentare generală a acțiunilor întreprinse de echipele noastre de Siguranță pentru a aplica Regulile Comunității, atât proactiv, cât și ca răspuns la sesizările din aplicație privind încălcări, într-un eșantion de regiuni geografice. Regulile noastre ale Comunității se aplică tuturor tipurilor de conținut de pe Snapchat — și tuturor utilizatorilor Snapchat — la nivel global, indiferent de locație.
Informațiile pentru fiecare țară în parte, inclusiv pentru toate statele membre ale UE, pot fi descărcate prin intermediul fișierului CSV din atașat.
Regiune
Numărul total de aplicări
Numărul total de conturi unice sancționate
America de Nord
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Restul Lumii
3.390.625
1.937.090
Total
9.674.414
5.794.201
Regiune
Rapoarte privind conținutul și contul
Numărul total de aplicări
Numărul total de conturi unice sancționate
America de Nord
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Restul Lumii
8.041.950
2.007.799
1.316.070
Total
19.766.324
6.278.446
4.116.740
Regiune
Numărul total de aplicări
Numărul total de conturi unice sancționate
America de Nord
1.342.496
785.067
Europa
670.646
422.012
Restul Lumii
1.382.826
696.364
Total
3.395.968
1.709.224
Moderarea reclamelor
Snap se angajează să se asigure că toate reclamele sunt pe deplin conforme cu politicile noastre de publicitate. Credem într-o abordare responsabilă a publicității, care să ofere o experiență sigură pentru toți utilizatorii Snapchat. Toate reclamele sunt supuse verificării și aprobării noastre. În plus, ne rezervăm dreptul de a șterge anunțurile, inclusiv răspunsurile la feedback-ul utilizatorilor, pe care le luăm în serios.
Mai jos am inclus informații despre moderarea noastră în cazul reclamelor plătite care ne sunt raportate în urma publicării lor pe Snapchat. Rețineți că anunțurile de pe Snapchat pot fi eliminate dintr-o varietate de motive, așa cum se arată în Politicile de publicitate ale Snap, incluzând conținutul înșelător, conținutul pentru adulți, conținutul violent sau deranjant, discursul instigator la ură și încălcarea drepturilor de proprietate intelectuală.
În plus, puteți găsi Galeria de reclame Snapchat pe values.snap.com, sub fila „Transparență”.
Numărul total de reclame raportate
Numărul total de reclame eliminate
67.789
16.410

























