Snap Values
Relazione per la trasparenza
1 luglio 2024 - 31 dicembre 2024

Pubblicato:

20 giugno 2025

Aggiornato:

1 luglio 2025

Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Nell'ambito del nostro impegno per la sicurezza e la trasparenza ci impegniamo costantemente per rendere questi report più completi e informativi per i numerosi stakeholder che hanno a cuore la moderazione dei nostri contenuti, le pratiche di applicazione della legge, la sicurezza e il benessere della community di Snapchat. 

La presente report sulla trasparenza riguarda la seconda metà del 2024 (1° luglio - 31 dicembre). Condividiamo dati globali sulle segnalazioni degli utenti e sul rilevamento proattivo da parte di Snap; sulle misure adottate dai nostri team per la sicurezza in categorie specifiche di violazioni delle Linee Guida per la Community; su come abbiamo risposto alle richieste delle forze dell'ordine e dei governi; e su come abbiamo risposto alle notifiche di violazione del diritto d'autore e del marchio registrato. Forniamo anche approfondimenti specifici per Paese in una serie di pagine collegate.

Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.

Tieni presente che la versione più aggiornata del presente report sulla trasparenza è la versione inglese.

Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community

I nostri team addetti alla sicurezza applicano le Linee Guida per la Community sia in modo proattivo (mediante l'uso di strumenti di rilevamento automatizzato) che in modo reattivo (in risposta alle segnalazioni), come descritto dettagliatamente nelle seguenti sezioni di questo rapporto. In questo ciclo di segnalazioni (2° semestre 2024), i nostri team per la sicurezza hanno effettuato il seguente numero di interventi:

Interventi totali

Numero totale di singoli account moderati

10.032.110

5.698.212

Di seguito è riportata una ripartizione per tipo di violazione delle Linee Guida per la Community, incluso il tempo medio di elaborazione tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:

Motivo della politica

Interventi totali

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

3.860.331

2.099.512

2

Sfruttamento sessuale di minori

961.359

577.682

23

Molestie e bullismo

2.716.966

2.019.439

7

Minacce e violenza

199.920

156.578

8

Autolesionismo e suicidio

15.910

14.445

10

Informazioni false

6.539

6.176

1

Impersonificazione

8.798

8.575

2

Spam

357.999

248.090

1

Farmaci

1.113.629

718.952

6

Armi

211.860

136.953

1

Altre merci regolamentate

247.535

177.643

8

Incitamento all'odio

324.478

272.025

27

Terrorismo ed estremismo violento

6.786

4.010

5

Nel periodo di riferimento, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, il che significa che sui 10.000 visualizzazioni di Snap e Storia su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre Linee guida della Community.

Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety

Dal 1° luglio al 31 dicembre 2024, in risposta alle segnalazioni di violazioni delle nostre Linee Guida per la Community all'interno dell'app, i team per la sicurezza di Snap hanno intrapreso un totale di 6.346.508 azioni di applicazione a livello globale, tra cui interventi contro 4.075.838 account unici. Il tempo medio di elaborazione impiegato dai nostri team di sicurezza per adottare misure di moderazione in risposta a tali segnalazioni è stato di circa 6 minuti. Di seguito è riportata una ripartizione per categoria di segnalazione.

Numero totale di segnalazioni sui contenuti e sugli account

Interventi totali

Numero totale di singoli account moderati

19.379.848

6.346.508

4.075.838

Motivo della politica

Segnalazioni sui contenuti e sugli account

Interventi totali

% delle segnalazioni totali gestite da Snap

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

5.251.375

2.042.044

32,20%

1.387.749

4

Sfruttamento sessuale di minori

1.224.502

469.389

7,40%

393.384

133

Molestie e bullismo

6.377.555

2.702.024

42,60%

2.009.573

7

Minacce e violenza

1.000.713

156.295

2,50%

129.077

8

Autolesionismo e suicidio

307.660

15.149

0,20%

13.885

10

Informazioni false

536.886

6.454

0,10%

6.095

1

Impersonificazione

678.717

8.790

0,10%

8.569

2

Spam

1.770.216

180.849

2,80%

140.267

1

Farmaci

418.431

244.451

3,90%

159.452

23

Armi

240.767

6.473

0,10%

5.252

1

Altre merci regolamentate

606.882

199.255

3,10%

143.560

8

Incitamento all'odio

768.705

314.134

4,90%

263.923

27

Terrorismo ed estremismo violento

197.439

1.201

<0,1%

1.093

4

Rispetto al periodo di riferimento precedente, abbiamo ridotto in media del 90% i tempi di elaborazione medi per tutte le categorie di politiche. Questa riduzione è stata in gran parte dovuta a uno sforzo concertato per ampliare la nostra capacità di revisione e per migliorare la nostra priorità nelle segnalazioni in base alla gravità del danno. Nel periodo di segnalazione abbiamo inoltre apportato diverse modifiche mirate alle nostre iniziative in materia di sicurezza, che hanno avuto un impatto sui dati qui riportati, tra cui l'ampliamento dei nostri sforzi per far rispettare gli account per i nomi utente e i nomi visualizzati che violano le nostre Linee Guida per la Community, l'introduzione di un maggior numero di segnalazioni e protezioni per le Community su Snapchat e l'introduzione di opzioni di segnalazione per ulteriori tipi di contenuti multimediali come le note vocali, direttamente all'interno dell'app. 

Questi cambiamenti, insieme ad altri sforzi in materia di sicurezza e a forze esterne, hanno avuto un impatto particolare su alcuni ambiti politici rispetto al periodo di riferimento precedente. Queste categorie di norme includono: contenuti correlati a sospetti di sfruttamento e abuso sessuale di minori (CSEA), informazioni false, dannose e spam. Nello specifico:

  • CSEA: nella seconda metà del 2024, abbiamo osservato una diminuzione del 12% delle segnalazioni relative alla CSEA e abbiamo ridotto del 99% il tempo medio di risposta alle segnalazioni di CSEA. Queste tendenze sono in gran parte determinate dai continui progressi nelle nostre attività di rilevamento proattivo, che ci hanno consentito di rimuovere i contenuti CSEA prima che potessero esserci segnalati, e dai miglioramenti che abbiamo apportato ai nostri processi per esaminare e intervenire sulle segnalazioni di CSEA in modo più efficiente. Nonostante questi miglioramenti, i tempi di elaborazione della nostra CSEA sono più lunghi rispetto ad altri ambiti politici, perché i contenuti sono soggetti a un processo specializzato che include una doppia revisione con un team selezionato di agenti appositamente formati.

  • Informazioni false, dannose: abbiamo osservato un aumento del 26% del volume di segnalazioni relative a informazioni false, dannose, principalmente da eventi politici, tra cui le elezioni statunitensi del novembre 2024.

  • Spam: in questo periodo di riferimento, abbiamo registrato una diminuzione di circa il 50% del totale delle misure di rilevamento e una diminuzione di circa il 46% del totale degli account univoci sottoposti a misure di controllo in risposta a segnalazioni di sospetto spam, a dimostrazione dei miglioramenti nei nostri strumenti di rilevamento e applicazione proattiva. Si tratta di un proseguimento dei nostri sforzi per individuare lo spam attraverso i segnali degli account e rimuovere prima possibile gli autori di spam dalla loro attività sulla piattaforma. Questo sforzo era già in atto durante l'ultimo periodo di riferimento, durante il quale il totale delle misure di controllo e il totale degli account univoci sottoposti a misure di controllo per lo spam sono diminuiti rispettivamente del 65% e del 60%.

I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community

Rilevamento proattivo e applicazione delle Linee Guida per la Community


Utilizziamo strumenti automatizzati per rilevare in modo proattivo e, in alcuni casi, contrastare le violazioni delle nostre Linee Guida per la Community. Questi strumenti includono la tecnologia di hash-matching (tra cui PhotoDNA e Child Sexual Abuse Imagery (CSAI) Match di Google), l'API di Google per la sicurezza dei contenuti e altre tecnologie personalizzate progettate per rilevare testi e contenuti multimediali abusivi, a volte sfruttando l'intelligenza artificiale e l'apprendimento automatico. 

Nella seconda metà del 2024, abbiamo adottato le seguenti misure di controllo dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community utilizzando strumenti di rilevamento automatizzato:

Interventi totali

Numero totale di singoli account moderati

3.685.602

1.845.125

Motivo della politica

Interventi totali

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

1.818.287

828.590

<1

Sfruttamento sessuale di minori

491.970

188.877

1

Molestie e bullismo

14.942

11.234

8

Minacce e violenza

43.625

29.599

9

Autolesionismo e suicidio

761

624

9

Informazioni false

85

81

10

Impersonificazione

8

6

19

Spam

177.150

110.551

<1

Farmaci

869.178

590.658

5

Armi

205.387

133.079

<1

Altre merci regolamentate

48.280

37.028

9

Incitamento all'odio

10.344

8.683

10

Terrorismo ed estremismo violento

5.585

2.951

21

Lotta contro lo sfruttamento e gli abusi sessuali sui minori 

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Prevenire rilevare ed eliminare i reati di (CSEA) sulla nostra piattaforma è una priorità assoluta di Snap; e continuiamo a sviluppare le nostre capacità per combattere questi e altri crimini.

Utilizziamo strumenti di rilevamento della tecnologia attiva per aiutare a identificare i contenuti relativi alla CSEA. Questi strumenti includono strumenti di hash-matching (tra cui PhotoDNA e CSAI Match di Google, per identificare immagini e video illegali noti della CSEA) e l'API di Google per la sicurezza dei contenuti (per identificare immagini illegali nuove e "mai sottoposti a hash" prima). Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività sospette CSEA. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Se necessario, l'NCMEC si coordina poi con le forze dell'ordine nazionali o internazionali.

Nella seconda metà del 2024, abbiamo adottato le seguenti misure dopo aver identificato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):


Numero totale di contenuti moderati

Totale degli account disabilitati

Numero totale delle segnalazioni al NCMEC*

1.228.929

242.306

417.842

*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati.

I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà

Snapchat consente agli amici di aiutarsi a vicenda in momenti difficili fornendo risorse e supporto per gli Snapchatter in difficoltà. 

Il nostro strumento di ricerca Here For You fornisce  risorse di esperti quando gli utenti cercano determinati argomenti relativi a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla sextortion e ad altri rischi e danni sessuali, per aiutare chi è in difficoltà. La nostra lista globale di risorse per la sicurezza è accessibile pubblicamente a tutti gli Snapchatter, nel nostro Privacy, Safety and Policy Hub.
Quando i nostri team per la sicurezza vengono a conoscenza di un Snapchatter in difficoltà, sono attrezzati per fornire  risorse di prevenzione e supporto dell'autolesionismo e per informare i servizi di emergenza, se necessario. Le risorse che condividiamo sono disponibili nel nostro elenco globale di risorse per la sicurezza, e sono accessibili a tutti gli Snapchatter.

Numero totale di risorse relative al suicidio condivise

64.094

Ricorsi

Di seguito forniamo informazioni sui ricorsi che abbiamo ricevuto dagli utenti che richiedevano una revisione della nostra decisione di bloccare il loro account nella seconda metà del 2024:

Motivo della politica

Totale dei ricorsi

Totale dei reinserimenti

Totale delle decisioni confermate

Tempo medio di elaborazione (giorni) per l'elaborazione dei ricorsi

TOTALE

493.782

35.243

458.539

5

Contenuti di natura sessuale

162.363

6.257

156.106

4

Sfruttamento sessuale di minori

102.585

15.318

87.267

6

Molestie e bullismo

53.200

442

52.758

7

Minacce e violenza

4.238

83

4.155

5

Autolesionismo e suicidio

31

1

30

5

Informazioni false

3

0

3

<1

Impersonificazione

847

33

814

7

Spam

19.533

5.090

14.443

9

Farmaci

133.478

7.598

125.880

4

Armi

4.678

136

4.542

6

Altre merci regolamentate

9.153

168

8.985

6

Incitamento all'odio

3.541

114

3.427

7

Terrorismo ed estremismo violento

132

3

129

9

Panoramica regionale e nazionale

Questa sezione fornisce una panoramica delle azioni intraprese dai nostri team per la sicurezza per applicare le nostre Linee Guida per la Community, sia in modo proattivo che in risposta alle segnalazioni di violazioni all'interno dell'app, in un campione di aree geografiche. Le nostre Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla loro posizione geografica.

Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.


Panoramica delle azioni dei nostri team di sicurezza per far rispettare le nostre Linee Guida per la Community 

Area geografica

Interventi totali

Numero totale di singoli account moderati

America del Nord

3.828.389

2.117.048

Europa

2.807.070

1.735.054

Resto del mondo

3.396.651

1.846.110

Totale

10.032.110

5.698.212

Segnalazioni di violazioni delle Linee Guida per la Community ai nostri team di sicurezza

Area geografica

Segnalazioni sui contenuti e sugli account

Interventi totali

Numero totale di singoli account moderati

America del Nord

5.916.815

2.229.465

1.391.304

Europa

5.781.317

2.085.109

1.378.883

Resto del mondo

7.681.716

2.031.934

1.319.934

Totale

19.379.848

6.346.508

4.090.121

Rilevamento proattivo e applicazione delle Linee Guida per la Community

Interventi totali

Numero totale di singoli account moderati

1.598.924

837.012

721.961

417.218

1.364.717

613.969

3.685.602

1.868.199

Moderazione degli annunci

Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile alla pubblicità, creando un'esperienza sicura per tutti i Snapchatter. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.


Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora puoi trovare la Galleria di annunci di Snapchat nell'hub per la trasparenza di Snap, accessibile direttamente tramite la barra di navigazione.

Totale degli annunci segnalati

Totale degli annunci rimossi

43.098

17.833