1 dicembre 2025
1 dicembre 2025
Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Nell'ambito del nostro impegno per la sicurezza e la trasparenza ci impegniamo costantemente per rendere questi report più completi e informativi per i numerosi stakeholder che hanno a cuore la moderazione dei nostri contenuti, il nostro approccio alle forze dell'ordine e la sicurezza e il benessere della community di Snapchat.
Questa relazione per la trasparenza si riferisce alla prima metà del 2025 (1 gennaio - 30 giugno). Condividiamo dati globali sulle segnalazioni degli utenti e sul rilevamento proattivo da parte di Snap; sulle misure adottate dai nostri team per la sicurezza in categorie specifiche di violazioni delle Linee Guida per la Community; su come abbiamo risposto alle richieste delle forze dell'ordine e dei governi; e su come abbiamo risposto alle notifiche di violazione del diritto d'autore e del marchio registrato. Forniamo anche approfondimenti specifici per Paese in una serie di pagine collegate.
Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.
Tieni presente che la versione più aggiornata del presente report sulla trasparenza è la versione inglese.
Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community
I nostri team addetti alla sicurezza applicano le Linee Guida per la Community sia in modo proattivo (mediante l'uso di strumenti di rilevamento automatizzato) che in modo reattivo (in risposta alle segnalazioni), come descritto dettagliatamente nelle seguenti sezioni di questo rapporto. In questo ciclo di segnalazioni (1° semestre 2025), i nostri team per la sicurezza hanno effettuato il seguente numero di interventi:
Interventi totali
Numero totale di singoli account moderati
9.674.414
5.794.201
Di seguito è riportata una ripartizione per tipo di violazione delle Linee Guida per la Community interessate, incluso il "tempo medio di elaborazione" tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:
Motivo della politica
Interventi totali
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
5.461.419
3.233.077
1
Sfruttamento e abuso sessuale di minori
1.095.424
733.106
5
Molestie e bullismo
713.448
594.302
3
Minacce e violenza
187.653
146.564
3
Autolesionismo e suicidio
47.643
41.216
5
Informazioni false
2.088
2.004
1
Impersonificazione
7.138
6.881
<1
Spam
267.299
189.344
1
Droghe
1.095.765
726.251
7
Armi
251.243
173.381
1
Altre merci regolamentate
183.236
126.952
4
Incitamento all'odio
343.051
284.817
6
Terrorismo ed estremismo violento
10.970
6.783
2
I dati totali sulle misure applicative includono le misure applicate da Snap dopo aver esaminato le segnalazioni in-app inviate tramite Snapchat. Questo rappresenta la stragrande maggioranza delle misure adottate dai team per la sicurezza di Snap. Questo numero esclude la maggior parte delle misure adottate a seguito di indagini basate su segnalazioni inviate a Snap tramite il nostro Sito di Assistenza o altri meccanismi (ad es. tramite email) o come risultato di alcune indagini intraprese dai nostri team per la sicurezza. tali misure di controllo escluse hanno rappresentato meno del 0,5% del volume delle misure di controllo nella prima metà del 2025.
Nel periodo di riferimento, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, il che significa che sui 10.000 visualizzazioni di Snap e Storia su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre Linee guida per la Community. Tra le misure applicative per quelle che consideriamo "Danni più gravi", abbiamo riscontrato un VVR del 0,0003%. Nella tabella sottostante è riportata una ripartizione del VVR in base al motivo della politica.
Motivo della politica
VVR
Contenuti di natura sessuale
0,00482%
Sfruttamento e abuso sessuale di minori
0,00096%
Molestie e bullismo
0,00099%
Minacce e violenza
0,00176%
Autolesionismo e suicidio
0,00009%
Informazioni false
0,00002%
Impersonificazione
0,00009%
Spam
0,00060%
Droghe
0,00047%
Armi
0,00083%
Altre merci regolamentate
0,00104%
Incitamento all'odio
0,00025%
Terrorismo ed estremismo violento
0,00002%
Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety
Dal 1° gennaio al 30 giugno 2025, in risposta a 19.766.324 segnalazioni di violazioni delle nostre Linee Guida per la Community all'interno dell'app, i team per la sicurezza di Snap hanno intrapreso un totale di 6.278.446 azioni di applicazione a livello globale, tra cui interventi contro 4.104.624 account unici. Questo volume di segnalazioni all'interno dell'app esclude le segnalazioni tramite sito di assistenza ed email, che rappresentano meno dell'1% del volume totale delle segnalazioni. Il tempo medio di elaborazione impiegato dai nostri team di sicurezza per adottare misure di moderazione in risposta a tali segnalazioni è stato di circa 2 minuti. Di seguito è riportata una ripartizione per motivo della politica. (Nota: nelle relazioni precedenti, a volte ci riferivamo a questo aspetto come "categoria di segnalazione"). Andando avanti, utilizzeremo il termine “motivo della politica” che riteniamo rifletta più accuratamente la natura dei dati, perché i nostri team per la sicurezza si impegnano ad applicare la politica in base al motivo appropriato, indipendentemente dalla categoria di segnalazione identificata dalla persona che invia la segnalazione).
Numero totale di segnalazioni sui contenuti e sugli account
Interventi totali
Numero totale di singoli account moderati
Totale
19.766.324
6.278.446
4.104.624
Motivo della politica
Numero totale di segnalazioni sui contenuti e sugli account
Interventi totali
Percentuale delle segnalazioni totali gestite da Snap
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
7.315.730
3.778.370
60,2%
2.463.464
1
Sfruttamento e abuso sessuale di minori
1.627.097
695.679
11,1%
577.736
10
Molestie e bullismo
4.103.797
700.731
11,2%
584.762
3
Minacce e violenza
997.346
147.162
2,3%
120.397
2
Autolesionismo e suicidio
350.775
41.150
0,7%
36.657
3
Informazioni false
606.979
2.027
0,0%
1.960
1
Impersonificazione
745.874
7.086
0,1%
6.837
<1
Spam
1.709.559
122.499
2,0%
94.837
1
Droghe
481.830
262.962
4,2%
176.799
5
Armi
271.586
39.366
0,6%
32.316
1
Altre merci regolamentate
530.449
143.098
2,3%
98.023
3
Incitamento all'odio
817.262
337.263
5,4%
280.682
6
Terrorismo ed estremismo violento
208.040
1.053
0,0%
912
2
Nella prima metà del 2025, abbiamo continuato a ridurre i tempi medi di elaborazione per tutte le categorie di politiche, riducendoli in media di oltre il 75% rispetto al periodo di riferimento precedente, a 2 minuti. Questa riduzione è stata in gran parte dovuta a un continuo sforzo concertato per migliorare la nostra priorità di revisione delle segnalazioni in base alla gravità del danno e alla revisione automatizzata.
Nel periodo di riferimento apportato inoltre diverse modifiche mirate ai nostri sforzi in materia di sicurezza, che hanno avuto un impatto sui dati qui riportati, tra cui il rafforzamento delle nostre politiche sulle attività illecite che coinvolgono le armi. Abbiamo osservato un aumento delle segnalazioni e dei provvedimenti nella categoria Sfruttamento sessuale dei minori, dovuto principalmente all'aumento di contenuti a sfondo sessuale o sensibili che coinvolgono minori e che violano le nostre politiche, ma non sono illegali negli Stati Uniti o soggetti a segnalazione al National Center for Missing and Exploited Children (NCMEC). L'aumento del volume relativo ai contenuti di natura sessuale (e la diminuzione del volume relativo alle molestie) è stato determinato dalla nostra riclassificazione dei contenuti associati alle molestie sessuali da molestie a contenuti di natura sessuale.
I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community
Utilizziamo strumenti automatizzati per rilevare in modo proattivo e, in alcuni casi, contrastare le violazioni delle nostre Linee Guida per la Community. Questi strumenti includono la tecnologia di hash-matching (tra cui PhotoDNA e Child Sexual Abuse Imagery (CSAI) di Google), la Content Safety API di Google e altre tecnologie proprietarie progettate per rilevare testi e contenuti multimediali illegali e in violazione delle norme, talvolta sfruttando l'intelligenza artificiale e l'apprendimento automatico. I nostri numeri di rilevamento proattivo fluttuano regolarmente a causa dei cambiamenti nel comportamento degli utenti, dei miglioramenti alle nostre capacità di rilevamento e delle modifiche alle nostre politiche.
Nella prima metà del 2025, abbiamo adottato le seguenti misure di controllo dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community utilizzando strumenti di rilevamento automatizzato:
Interventi totali
Numero totale di singoli account moderati
Totale
3.395.968
1.709.224
Motivo della politica
Interventi totali
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
1.683.045
887.059
0
Sfruttamento e abuso sessuale di minori
399.756
162.017
2
Molestie e bullismo
12.716
10.412
8
Minacce e violenza
40.489
27.662
6
Autolesionismo e suicidio
6.493
4.638
7
Informazioni false
61
44
20
Impersonificazione
52
44
34
Spam
144.800
96.500
0
Droghe
832.803
578.738
7
Armi
211.877
144.455
0
Altre merci regolamentate
40.139
31.408
8
Incitamento all'odio
5.788
4.518
6
Terrorismo ed estremismo violento
9.917
5.899
5
Lotta contro lo sfruttamento e l'abuso sessuale di minori
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Prevenire rilevare ed eliminare i reati di (CSEA) sulla nostra piattaforma è una priorità assoluta di Snap; e continuiamo a sviluppare le nostre capacità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento della tecnologia attiva per aiutare a identificare i contenuti relativi alla CSEA. Questi strumenti includono strumenti di hash-matching (tra cui PhotoDNA e CSAI Match di Google, per identificare immagini e video illegali noti di CSEA) e l'API di Google per la sicurezza dei contenuti (per identificare nuovi immagini illegali "mai sottoposti a hash"). Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività sospette CSEA. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Se necessario, l'NCMEC si coordina poi con le forze dell'ordine nazionali o internazionali.
Nella prima metà del 2025, abbiamo adottato le seguenti misure dopo aver identificato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):
Numero totale di contenuti moderati
Totale degli account disabilitati
Numero totale delle segnalazioni al NCMEC*
994.337
187.387
321.587
*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati.
I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà
Snapchat consente agli amici di aiutarsi a vicenda in momenti difficili fornendo risorse e supporto per gli Snapchatter in difficoltà.
Il nostro strumento di ricerca Here For You fornisce risorse guidate da esperti quando gli utenti cercano determinati argomenti relativi a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla lotta contro l'estorsione sessuale a scopo economico e altri rischi e danni legati alla sfera sessuale, nel tentativo di supportare chi si trova in difficoltà.
Quando i nostri team per la sicurezza vengono a conoscenza di uno Snapchatter in difficoltà, hanno la capacita di fornire per fornire supporto e risorse per la prevenzione dell'autolesionismo e, se necessario, avvisare i servizi di emergenza. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza accessibili pubblicamente a tutti gli Snapchatter nel nostro Hub su Privacy, Sicurezza e Politiche.
Numero totale di risorse relative al suicidio condivise
36.162
Ricorsi
Di seguito forniamo informazioni sui ricorsi ricevuti dagli utenti che richiedevano una revisione della nostra decisione di bloccare il loro account per violazioni delle Linee Guida per la Community nella prima metà del 2025:
Motivo della politica
Totale dei ricorsi
Totale dei reinserimenti
Totale delle decisioni confermate
Tempo medio di elaborazione (giorni) per l'elaborazione dei ricorsi
Totale
437.855
22.142
415.494
1
Contenuti di natura sessuale
134.358
6.175
128.035
1
Sfruttamento e abuso sessuale sui minori*
89.493
4.179
85.314
<1
Molestie e bullismo
42.779
281
42.496
1
Minacce e violenza
3.987
77
3.909
1
Autolesionismo e suicidio
145
2
143
1
Informazioni false
4
0
4
1
Impersonificazione
1.063
33
1.030
<1
Spam
13.730
3.140
10.590
1
Droghe
128.222
7.749
120.409
1
Armi
10.941
314
10.626
1
Altre merci regolamentate
9.719
124
9.593
1
Incitamento all'odio
3.310
67
3.242
1
Terrorismo ed estremismo violento
104
1
103
1
Panoramica regionale e nazionale
Questa sezione fornisce una panoramica delle azioni intraprese dai nostri team per la sicurezza per applicare le nostre Linee Guida per la Community, sia in modo proattivo che in risposta alle segnalazioni di violazioni all'interno dell'app, in un campione di aree geografiche. Le nostre Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla loro posizione geografica.
Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.
Area geografica
Interventi totali
Numero totale di singoli account moderati
America del Nord
3.468.315
2.046.888
Europa
2.815.474
1.810.223
Resto del mondo
3.390.625
1.937.090
Totale
9.674.414
5.794.201
Area geografica
Segnalazioni sui contenuti e sugli account
Interventi totali
Numero totale di singoli account moderati
America del Nord
5.762.412
2.125.819
1.359.763
Europa
5.961.962
2.144.828
1.440.907
Resto del mondo
8.041.950
2.007.799
1.316.070
Totale
19.766.324
6.278.446
4.116.740
Area geografica
Interventi totali
Numero totale di singoli account moderati
America del Nord
1.342.496
785.067
Europa
670.646
422.012
Resto del mondo
1.382.826
696.364
Totale
3.395.968
1.709.224
Moderazione degli annunci
Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile alla pubblicità, creando un'esperienza sicura per tutti i Snapchatter. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.
Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, puoi trovare la Galleria degli annunci di Snapchat su values.snap.com nella scheda "Trasparenza".
Totale degli annunci segnalati
Totale degli annunci rimossi
67.789
16.410

























