20 giugno 2025
1 luglio 2025
Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Nell'ambito del nostro impegno per la sicurezza e la trasparenza ci impegniamo costantemente per rendere questi report più completi e informativi per i numerosi stakeholder che hanno a cuore la moderazione dei nostri contenuti, le pratiche di applicazione della legge, la sicurezza e il benessere della community di Snapchat.
La presente report sulla trasparenza riguarda la seconda metà del 2024 (1° luglio - 31 dicembre). Condividiamo dati globali sulle segnalazioni degli utenti e sul rilevamento proattivo da parte di Snap; sulle misure adottate dai nostri team per la sicurezza in categorie specifiche di violazioni delle Linee Guida per la Community; su come abbiamo risposto alle richieste delle forze dell'ordine e dei governi; e su come abbiamo risposto alle notifiche di violazione del diritto d'autore e del marchio registrato. Forniamo anche approfondimenti specifici per Paese in una serie di pagine collegate.
Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.
Tieni presente che la versione più aggiornata del presente report sulla trasparenza è la versione inglese.
Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community
I nostri team addetti alla sicurezza applicano le Linee Guida per la Community sia in modo proattivo (mediante l'uso di strumenti di rilevamento automatizzato) che in modo reattivo (in risposta alle segnalazioni), come descritto dettagliatamente nelle seguenti sezioni di questo rapporto. In questo ciclo di segnalazioni (2° semestre 2024), i nostri team per la sicurezza hanno effettuato il seguente numero di interventi:
Interventi totali
Numero totale di singoli account moderati
10.032.110
5.698.212
Di seguito è riportata una ripartizione per tipo di violazione delle Linee Guida per la Community, incluso il tempo medio di elaborazione tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:
Motivo della politica
Interventi totali
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
3.860.331
2.099.512
2
Sfruttamento sessuale di minori
961.359
577.682
23
Molestie e bullismo
2.716.966
2.019.439
7
Minacce e violenza
199.920
156.578
8
Autolesionismo e suicidio
15.910
14.445
10
Informazioni false
6.539
6.176
1
Impersonificazione
8.798
8.575
2
Spam
357.999
248.090
1
Farmaci
1.113.629
718.952
6
Armi
211.860
136.953
1
Altre merci regolamentate
247.535
177.643
8
Incitamento all'odio
324.478
272.025
27
Terrorismo ed estremismo violento
6.786
4.010
5
Nel periodo di riferimento, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, il che significa che sui 10.000 visualizzazioni di Snap e Storia su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre Linee guida della Community.
Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety
Dal 1° luglio al 31 dicembre 2024, in risposta alle segnalazioni di violazioni delle nostre Linee Guida per la Community all'interno dell'app, i team per la sicurezza di Snap hanno intrapreso un totale di 6.346.508 azioni di applicazione a livello globale, tra cui interventi contro 4.075.838 account unici. Il tempo medio di elaborazione impiegato dai nostri team di sicurezza per adottare misure di moderazione in risposta a tali segnalazioni è stato di circa 6 minuti. Di seguito è riportata una ripartizione per categoria di segnalazione.
Numero totale di segnalazioni sui contenuti e sugli account
Interventi totali
Numero totale di singoli account moderati
19.379.848
6.346.508
4.075.838
Motivo della politica
Segnalazioni sui contenuti e sugli account
Interventi totali
% delle segnalazioni totali gestite da Snap
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
5.251.375
2.042.044
32,20%
1.387.749
4
Sfruttamento sessuale di minori
1.224.502
469.389
7,40%
393.384
133
Molestie e bullismo
6.377.555
2.702.024
42,60%
2.009.573
7
Minacce e violenza
1.000.713
156.295
2,50%
129.077
8
Autolesionismo e suicidio
307.660
15.149
0,20%
13.885
10
Informazioni false
536.886
6.454
0,10%
6.095
1
Impersonificazione
678.717
8.790
0,10%
8.569
2
Spam
1.770.216
180.849
2,80%
140.267
1
Farmaci
418.431
244.451
3,90%
159.452
23
Armi
240.767
6.473
0,10%
5.252
1
Altre merci regolamentate
606.882
199.255
3,10%
143.560
8
Incitamento all'odio
768.705
314.134
4,90%
263.923
27
Terrorismo ed estremismo violento
197.439
1.201
<0,1%
1.093
4
Rispetto al periodo di riferimento precedente, abbiamo ridotto in media del 90% i tempi di elaborazione medi per tutte le categorie di politiche. Questa riduzione è stata in gran parte dovuta a uno sforzo concertato per ampliare la nostra capacità di revisione e per migliorare la nostra priorità nelle segnalazioni in base alla gravità del danno. Nel periodo di segnalazione abbiamo inoltre apportato diverse modifiche mirate alle nostre iniziative in materia di sicurezza, che hanno avuto un impatto sui dati qui riportati, tra cui l'ampliamento dei nostri sforzi per far rispettare gli account per i nomi utente e i nomi visualizzati che violano le nostre Linee Guida per la Community, l'introduzione di un maggior numero di segnalazioni e protezioni per le Community su Snapchat e l'introduzione di opzioni di segnalazione per ulteriori tipi di contenuti multimediali come le note vocali, direttamente all'interno dell'app.
Questi cambiamenti, insieme ad altri sforzi in materia di sicurezza e a forze esterne, hanno avuto un impatto particolare su alcuni ambiti politici rispetto al periodo di riferimento precedente. Queste categorie di norme includono: contenuti correlati a sospetti di sfruttamento e abuso sessuale di minori (CSEA), informazioni false, dannose e spam. Nello specifico:
CSEA: nella seconda metà del 2024, abbiamo osservato una diminuzione del 12% delle segnalazioni relative alla CSEA e abbiamo ridotto del 99% il tempo medio di risposta alle segnalazioni di CSEA. Queste tendenze sono in gran parte determinate dai continui progressi nelle nostre attività di rilevamento proattivo, che ci hanno consentito di rimuovere i contenuti CSEA prima che potessero esserci segnalati, e dai miglioramenti che abbiamo apportato ai nostri processi per esaminare e intervenire sulle segnalazioni di CSEA in modo più efficiente. Nonostante questi miglioramenti, i tempi di elaborazione della nostra CSEA sono più lunghi rispetto ad altri ambiti politici, perché i contenuti sono soggetti a un processo specializzato che include una doppia revisione con un team selezionato di agenti appositamente formati.
Informazioni false, dannose: abbiamo osservato un aumento del 26% del volume di segnalazioni relative a informazioni false, dannose, principalmente da eventi politici, tra cui le elezioni statunitensi del novembre 2024.
Spam: in questo periodo di riferimento, abbiamo registrato una diminuzione di circa il 50% del totale delle misure di rilevamento e una diminuzione di circa il 46% del totale degli account univoci sottoposti a misure di controllo in risposta a segnalazioni di sospetto spam, a dimostrazione dei miglioramenti nei nostri strumenti di rilevamento e applicazione proattiva. Si tratta di un proseguimento dei nostri sforzi per individuare lo spam attraverso i segnali degli account e rimuovere prima possibile gli autori di spam dalla loro attività sulla piattaforma. Questo sforzo era già in atto durante l'ultimo periodo di riferimento, durante il quale il totale delle misure di controllo e il totale degli account univoci sottoposti a misure di controllo per lo spam sono diminuiti rispettivamente del 65% e del 60%.
I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community
Utilizziamo strumenti automatizzati per rilevare in modo proattivo e, in alcuni casi, contrastare le violazioni delle nostre Linee Guida per la Community. Questi strumenti includono la tecnologia di hash-matching (tra cui PhotoDNA e Child Sexual Abuse Imagery (CSAI) Match di Google), l'API di Google per la sicurezza dei contenuti e altre tecnologie personalizzate progettate per rilevare testi e contenuti multimediali abusivi, a volte sfruttando l'intelligenza artificiale e l'apprendimento automatico.
Nella seconda metà del 2024, abbiamo adottato le seguenti misure di controllo dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community utilizzando strumenti di rilevamento automatizzato:
Interventi totali
Numero totale di singoli account moderati
3.685.602
1.845.125
Motivo della politica
Interventi totali
Numero totale di singoli account moderati
Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale
Contenuti di natura sessuale
1.818.287
828.590
<1
Sfruttamento sessuale di minori
491.970
188.877
1
Molestie e bullismo
14.942
11.234
8
Minacce e violenza
43.625
29.599
9
Autolesionismo e suicidio
761
624
9
Informazioni false
85
81
10
Impersonificazione
8
6
19
Spam
177.150
110.551
<1
Farmaci
869.178
590.658
5
Armi
205.387
133.079
<1
Altre merci regolamentate
48.280
37.028
9
Incitamento all'odio
10.344
8.683
10
Terrorismo ed estremismo violento
5.585
2.951
21
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Prevenire rilevare ed eliminare i reati di (CSEA) sulla nostra piattaforma è una priorità assoluta di Snap; e continuiamo a sviluppare le nostre capacità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento della tecnologia attiva per aiutare a identificare i contenuti relativi alla CSEA. Questi strumenti includono strumenti di hash-matching (tra cui PhotoDNA e CSAI Match di Google, per identificare immagini e video illegali noti della CSEA) e l'API di Google per la sicurezza dei contenuti (per identificare immagini illegali nuove e "mai sottoposti a hash" prima). Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività sospette CSEA. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Se necessario, l'NCMEC si coordina poi con le forze dell'ordine nazionali o internazionali.
Nella seconda metà del 2024, abbiamo adottato le seguenti misure dopo aver identificato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):
Numero totale di contenuti moderati
Totale degli account disabilitati
Numero totale delle segnalazioni al NCMEC*
1.228.929
242.306
417.842
*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati.
I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà
Snapchat consente agli amici di aiutarsi a vicenda in momenti difficili fornendo risorse e supporto per gli Snapchatter in difficoltà.
Il nostro strumento di ricerca Here For You fornisce risorse di esperti quando gli utenti cercano determinati argomenti relativi a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla sextortion e ad altri rischi e danni sessuali, per aiutare chi è in difficoltà. La nostra lista globale di risorse per la sicurezza è accessibile pubblicamente a tutti gli Snapchatter, nel nostro Privacy, Safety and Policy Hub.
Quando i nostri team per la sicurezza vengono a conoscenza di un Snapchatter in difficoltà, sono attrezzati per fornire risorse di prevenzione e supporto dell'autolesionismo e per informare i servizi di emergenza, se necessario. Le risorse che condividiamo sono disponibili nel nostro elenco globale di risorse per la sicurezza, e sono accessibili a tutti gli Snapchatter.
Numero totale di risorse relative al suicidio condivise
64.094
Ricorsi
Di seguito forniamo informazioni sui ricorsi che abbiamo ricevuto dagli utenti che richiedevano una revisione della nostra decisione di bloccare il loro account nella seconda metà del 2024:
Motivo della politica
Totale dei ricorsi
Totale dei reinserimenti
Totale delle decisioni confermate
Tempo medio di elaborazione (giorni) per l'elaborazione dei ricorsi
TOTALE
493.782
35.243
458.539
5
Contenuti di natura sessuale
162.363
6.257
156.106
4
Sfruttamento sessuale di minori
102.585
15.318
87.267
6
Molestie e bullismo
53.200
442
52.758
7
Minacce e violenza
4.238
83
4.155
5
Autolesionismo e suicidio
31
1
30
5
Informazioni false
3
0
3
<1
Impersonificazione
847
33
814
7
Spam
19.533
5.090
14.443
9
Farmaci
133.478
7.598
125.880
4
Armi
4.678
136
4.542
6
Altre merci regolamentate
9.153
168
8.985
6
Incitamento all'odio
3.541
114
3.427
7
Terrorismo ed estremismo violento
132
3
129
9
Panoramica regionale e nazionale
Questa sezione fornisce una panoramica delle azioni intraprese dai nostri team per la sicurezza per applicare le nostre Linee Guida per la Community, sia in modo proattivo che in risposta alle segnalazioni di violazioni all'interno dell'app, in un campione di aree geografiche. Le nostre Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla loro posizione geografica.
Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.
Area geografica
Interventi totali
Numero totale di singoli account moderati
America del Nord
3.828.389
2.117.048
Europa
2.807.070
1.735.054
Resto del mondo
3.396.651
1.846.110
Totale
10.032.110
5.698.212
Area geografica
Segnalazioni sui contenuti e sugli account
Interventi totali
Numero totale di singoli account moderati
America del Nord
5.916.815
2.229.465
1.391.304
Europa
5.781.317
2.085.109
1.378.883
Resto del mondo
7.681.716
2.031.934
1.319.934
Totale
19.379.848
6.346.508
4.090.121
Interventi totali
Numero totale di singoli account moderati
1.598.924
837.012
721.961
417.218
1.364.717
613.969
3.685.602
1.868.199
Moderazione degli annunci
Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile alla pubblicità, creando un'esperienza sicura per tutti i Snapchatter. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.
Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora puoi trovare la Galleria di annunci di Snapchat nell'hub per la trasparenza di Snap, accessibile direttamente tramite la barra di navigazione.
Totale degli annunci segnalati
Totale degli annunci rimossi
43.098
17.833


