Snap Values
Relazione per la trasparenza
1° gennaio 2025-30 giugno 2025

Pubblicato:

1 dicembre 2025

Aggiornato:

1 dicembre 2025

Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Nell'ambito del nostro impegno per la sicurezza e la trasparenza ci impegniamo costantemente per rendere questi report più completi e informativi per i numerosi stakeholder che hanno a cuore la moderazione dei nostri contenuti, il nostro approccio alle forze dell'ordine e la sicurezza e il benessere della community di Snapchat. 

Questa relazione per la trasparenza si riferisce alla prima metà del 2025 (1 gennaio - 30 giugno). Condividiamo dati globali sulle segnalazioni degli utenti e sul rilevamento proattivo da parte di Snap; sulle misure adottate dai nostri team per la sicurezza in categorie specifiche di violazioni delle Linee Guida per la Community; su come abbiamo risposto alle richieste delle forze dell'ordine e dei governi; e su come abbiamo risposto alle notifiche di violazione del diritto d'autore e del marchio registrato. Forniamo anche approfondimenti specifici per Paese in una serie di pagine collegate.

Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.

Tieni presente che la versione più aggiornata del presente report sulla trasparenza è la versione inglese.

Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community

I nostri team addetti alla sicurezza applicano le Linee Guida per la Community sia in modo proattivo (mediante l'uso di strumenti di rilevamento automatizzato) che in modo reattivo (in risposta alle segnalazioni), come descritto dettagliatamente nelle seguenti sezioni di questo rapporto. In questo ciclo di segnalazioni (1° semestre 2025), i nostri team per la sicurezza hanno effettuato il seguente numero di interventi:

Interventi totali

Numero totale di singoli account moderati

9.674.414

5.794.201

Di seguito è riportata una ripartizione per tipo di violazione delle Linee Guida per la Community interessate, incluso il "tempo medio di elaborazione" tra il momento in cui abbiamo rilevato la violazione (proattivamente o al momento della ricezione di una segnalazione) e il momento in cui abbiamo intrapreso un'azione finale sul contenuto o sull'account in questione:

Motivo della politica

Interventi totali

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

5.461.419

3.233.077

1

Sfruttamento e abuso sessuale di minori

1.095.424

733.106

5

Molestie e bullismo

713.448

594.302

3

Minacce e violenza

187.653

146.564

3

Autolesionismo e suicidio

47.643

41.216

5

Informazioni false

2.088

2.004

1

Impersonificazione

7.138

6.881

<1

Spam

267.299

189.344

1

Droghe

1.095.765

726.251

7

Armi

251.243

173.381

1

Altre merci regolamentate

183.236

126.952

4

Incitamento all'odio

343.051

284.817

6

Terrorismo ed estremismo violento

10.970

6.783

2

I dati totali sulle misure applicative includono le misure applicate da Snap dopo aver esaminato le segnalazioni in-app inviate tramite Snapchat.  Questo rappresenta la stragrande maggioranza delle misure adottate dai team per la sicurezza di Snap. Questo numero esclude la maggior parte delle misure adottate a seguito di indagini basate su segnalazioni inviate a Snap tramite il nostro Sito di Assistenza o altri meccanismi (ad es. tramite email) o come risultato di alcune indagini intraprese dai nostri team per la sicurezza. tali misure di controllo escluse hanno rappresentato meno del 0,5% del volume delle misure di controllo nella prima metà del 2025.

Nel periodo di riferimento, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, il che significa che sui 10.000 visualizzazioni di Snap e Storia su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre Linee guida per la Community. Tra le misure applicative per quelle che consideriamo "Danni più gravi", abbiamo riscontrato un VVR del 0,0003%. Nella tabella sottostante è riportata una ripartizione del VVR in base al motivo della politica.

Motivo della politica

VVR

Contenuti di natura sessuale

0,00482%

Sfruttamento e abuso sessuale di minori

0,00096%

Molestie e bullismo

0,00099%

Minacce e violenza

0,00176%

Autolesionismo e suicidio

0,00009%

Informazioni false

0,00002%

Impersonificazione

0,00009%

Spam

0,00060%

Droghe

0,00047%

Armi

0,00083%

Altre merci regolamentate

0,00104%

Incitamento all'odio

0,00025%

Terrorismo ed estremismo violento

0,00002%

Violazioni delle Linee Guida per la Community segnalate ai nostri team Trust and Safety

Dal 1° gennaio al 30 giugno 2025, in risposta a 19.766.324 segnalazioni di violazioni delle nostre Linee Guida per la Community all'interno dell'app, i team per la sicurezza di Snap hanno intrapreso un totale di 6.278.446 azioni di applicazione a livello globale, tra cui interventi contro 4.104.624 account unici.  Questo volume di segnalazioni all'interno dell'app esclude le segnalazioni tramite sito di assistenza ed email, che rappresentano meno dell'1% del volume totale delle segnalazioni.  Il tempo medio di elaborazione impiegato dai nostri team di sicurezza per adottare misure di moderazione in risposta a tali segnalazioni è stato di circa 2 minuti. Di seguito è riportata una ripartizione per motivo della politica. (Nota: nelle relazioni precedenti, a volte ci riferivamo a questo aspetto come "categoria di segnalazione").  Andando avanti, utilizzeremo il termine “motivo della politica”  che riteniamo rifletta più accuratamente la natura dei dati, perché i nostri team per la sicurezza si impegnano ad applicare la politica in base al motivo appropriato, indipendentemente dalla categoria di segnalazione identificata dalla persona che invia la segnalazione).


Numero totale di segnalazioni sui contenuti e sugli account

Interventi totali

Numero totale di singoli account moderati

Totale

19.766.324

6.278.446

4.104.624

Motivo della politica

Numero totale di segnalazioni sui contenuti e sugli account

Interventi totali

Percentuale delle segnalazioni totali gestite da Snap

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

7.315.730

3.778.370

60,2%

2.463.464

1

Sfruttamento e abuso sessuale di minori

1.627.097

695.679

11,1%

577.736

10

Molestie e bullismo

4.103.797

700.731

11,2%

584.762

3

Minacce e violenza

997.346

147.162

2,3%

120.397

2

Autolesionismo e suicidio

350.775

41.150

0,7%

36.657

3

Informazioni false

606.979

2.027

0,0%

1.960

1

Impersonificazione

745.874

7.086

0,1%

6.837

<1

Spam

1.709.559

122.499

2,0%

94.837

1

Droghe

481.830

262.962

4,2%

176.799

5

Armi

271.586

39.366

0,6%

32.316

1

Altre merci regolamentate

530.449

143.098

2,3%

98.023

3

Incitamento all'odio

817.262

337.263

5,4%

280.682

6

Terrorismo ed estremismo violento

208.040

1.053

0,0%

912

2

Nella prima metà del 2025, abbiamo continuato a ridurre i tempi medi di elaborazione per tutte le categorie di politiche, riducendoli in media di oltre il 75% rispetto al periodo di riferimento precedente, a 2 minuti. Questa riduzione è stata in gran parte dovuta a un continuo sforzo concertato per migliorare la nostra priorità di revisione delle segnalazioni in base alla gravità del danno e alla revisione automatizzata.

Nel periodo di riferimento apportato inoltre diverse modifiche mirate ai nostri sforzi in materia di sicurezza, che hanno avuto un impatto sui dati qui riportati, tra cui il rafforzamento delle nostre politiche sulle attività illecite che coinvolgono le armi. Abbiamo osservato un aumento delle segnalazioni e dei provvedimenti nella categoria Sfruttamento sessuale dei minori, dovuto principalmente all'aumento di contenuti a sfondo sessuale o sensibili che coinvolgono minori e che violano le nostre politiche, ma non sono illegali negli Stati Uniti o soggetti a segnalazione al National Center for Missing and Exploited Children (NCMEC). L'aumento del volume relativo ai contenuti di natura sessuale (e la diminuzione del volume relativo alle molestie) è stato determinato dalla nostra riclassificazione dei contenuti associati alle molestie sessuali da molestie a contenuti di natura sessuale.

I nostri sforzi per rilevare proattivamente e intervenire contro le violazioni delle Linee Guida per la Community

Rilevamento proattivo e applicazione delle Linee Guida per la Community


Utilizziamo strumenti automatizzati per rilevare in modo proattivo e, in alcuni casi, contrastare le violazioni delle nostre Linee Guida per la Community. Questi strumenti includono la tecnologia di hash-matching (tra cui PhotoDNA e Child Sexual Abuse Imagery (CSAI) di Google), la Content Safety API di Google e altre tecnologie proprietarie  progettate per rilevare testi e contenuti multimediali illegali e in violazione delle norme, talvolta sfruttando l'intelligenza artificiale e l'apprendimento automatico. I nostri numeri di rilevamento proattivo fluttuano regolarmente a causa dei cambiamenti nel comportamento degli utenti, dei miglioramenti alle nostre capacità di rilevamento e delle modifiche alle nostre politiche.

Nella prima metà del 2025, abbiamo adottato le seguenti misure di controllo dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community utilizzando strumenti di rilevamento automatizzato:


Interventi totali

Numero totale di singoli account moderati

Totale

3.395.968

1.709.224

Motivo della politica

Interventi totali

Numero totale di singoli account moderati

Tempo medio di elaborazione (in minuti) dal rilevamento all'azione finale

Contenuti di natura sessuale

1.683.045

887.059

0

Sfruttamento e abuso sessuale di minori

399.756

162.017

2

Molestie e bullismo

12.716

10.412

8

Minacce e violenza

40.489

27.662

6

Autolesionismo e suicidio

6.493

4.638

7

Informazioni false

61

44

20

Impersonificazione

52

44

34

Spam

144.800

96.500

0

Droghe

832.803

578.738

7

Armi

211.877

144.455

0

Altre merci regolamentate

40.139

31.408

8

Incitamento all'odio

5.788

4.518

6

Terrorismo ed estremismo violento

9.917

5.899

5

Lotta contro lo sfruttamento e l'abuso sessuale di minori

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerato pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Prevenire rilevare ed eliminare i reati di (CSEA) sulla nostra piattaforma è una priorità assoluta di Snap; e continuiamo a sviluppare le nostre capacità per combattere questi e altri crimini.

Utilizziamo strumenti di rilevamento della tecnologia attiva per aiutare a identificare i contenuti relativi alla CSEA. Questi strumenti includono strumenti di hash-matching (tra cui PhotoDNA e CSAI Match di Google, per identificare immagini e video illegali noti di CSEA) e l'API di Google per la sicurezza dei contenuti (per identificare nuovi immagini illegali "mai sottoposti a hash"). Inoltre, in alcuni casi, utilizziamo segnali comportamentali per contrastare altre attività sospette CSEA. Segnaliamo le violazioni relativi a contenuti di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. Se necessario, l'NCMEC si coordina poi con le forze dell'ordine nazionali o internazionali.

Nella prima metà del 2025, abbiamo adottato le seguenti misure dopo aver identificato CSEA su Snapchat (in modo proattivo o dopo aver ricevuto una segnalazione):

Numero totale di contenuti moderati

Totale degli account disabilitati

Numero totale delle segnalazioni al NCMEC*

994.337

187.387

321.587

*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati.

I nostri sforzi per fornire risorse e supporto agli Snapchatter in difficoltà

Snapchat consente agli amici di aiutarsi a vicenda in momenti difficili fornendo risorse e supporto per gli Snapchatter in difficoltà. 

Il nostro strumento di ricerca Here For You fornisce risorse guidate da esperti quando gli utenti cercano determinati argomenti relativi a salute mentale, ansia, depressione, stress, pensieri suicidi, dolore e bullismo. Abbiamo anche sviluppato una pagina dedicata alla lotta contro l'estorsione sessuale a scopo economico e altri rischi e danni legati alla sfera sessuale, nel tentativo di supportare chi si trova in difficoltà.

Quando i nostri team per la sicurezza vengono a conoscenza di uno Snapchatter in difficoltà, hanno la capacita di fornire  per fornire supporto e risorse per la prevenzione dell'autolesionismo e, se necessario, avvisare i servizi di emergenza. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza accessibili pubblicamente a tutti gli Snapchatter nel nostro Hub su Privacy, Sicurezza e Politiche.

Numero totale di risorse relative al suicidio condivise

36.162

Ricorsi

Di seguito forniamo informazioni sui ricorsi ricevuti dagli utenti che richiedevano una revisione della nostra decisione di bloccare il loro account per violazioni delle Linee Guida per la Community nella prima metà del 2025:

Motivo della politica

Totale dei ricorsi

Totale dei reinserimenti

Totale delle decisioni confermate

Tempo medio di elaborazione (giorni) per l'elaborazione dei ricorsi

Totale

437.855

22.142

415.494

1

Contenuti di natura sessuale

134.358

6.175

128.035

1

Sfruttamento e abuso sessuale sui minori*

89.493

4.179

85.314

<1

Molestie e bullismo

42.779

281

42.496

1

Minacce e violenza

3.987

77

3.909

1

Autolesionismo e suicidio

145

2

143

1

Informazioni false

4

0

4

1

Impersonificazione

1.063

33

1.030

<1

Spam

13.730

3.140

10.590

1

Droghe

128.222

7.749

120.409

1

Armi

10.941

314

10.626

1

Altre merci regolamentate

9.719

124

9.593

1

Incitamento all'odio

3.310

67

3.242

1

Terrorismo ed estremismo violento

104

1

103

1

Panoramica regionale e nazionale

Questa sezione fornisce una panoramica delle azioni intraprese dai nostri team per la sicurezza per applicare le nostre Linee Guida per la Community, sia in modo proattivo che in risposta alle segnalazioni di violazioni all'interno dell'app, in un campione di aree geografiche. Le nostre Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla loro posizione geografica.

Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.



Panoramica delle azioni dei nostri team Fiducia e Sicurezza per le Linee Guida per la Community 

Area geografica

Interventi totali

Numero totale di singoli account moderati

America del Nord

3.468.315

2.046.888

Europa

2.815.474

1.810.223

Resto del mondo

3.390.625

1.937.090

Totale

9.674.414

5.794.201

Segnalazioni di violazioni delle Linee Guida per la Community ai nostri team di sicurezza

Area geografica

Segnalazioni sui contenuti e sugli account

Interventi totali

Numero totale di singoli account moderati

America del Nord

5.762.412

2.125.819

1.359.763

Europa

5.961.962

2.144.828

1.440.907

Resto del mondo

8.041.950

2.007.799

1.316.070

Totale

19.766.324

6.278.446

4.116.740

Rilevamento proattivo e applicazione delle Linee Guida per la Community

Area geografica

Interventi totali

Numero totale di singoli account moderati

America del Nord

1.342.496

785.067

Europa

670.646

422.012

Resto del mondo

1.382.826

696.364

Totale

3.395.968

1.709.224

Moderazione degli annunci

Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile alla pubblicità, creando un'esperienza sicura per tutti i Snapchatter. Tutti gli annunci pubblicitari sono soggetti alla nostra revisione e approvazione. Inoltre, ci riserviamo il diritto di rimuovere gli annunci, anche in seguito a feedback degli utenti, che prendiamo in seria considerazione.


Di seguito abbiamo incluso informazioni sulla nostra moderazione degli annunci a pagamento che ci vengono segnalati in seguito alla loro pubblicazione su Snapchat. Va notato che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, puoi trovare la Galleria degli annunci di Snapchat su values.snap.com nella scheda "Trasparenza".

Totale degli annunci segnalati

Totale degli annunci rimossi

67.789

16.410