Snap Values
Unione Europea

Ti diamo il benvenuto nella nostra pagina sulla trasparenza dell'Unione Europea (UE), dove pubblichiamo informazioni specifiche per l'UE in osservanza alla Normativa sui servizi digitali (DSA), alla Direttiva sui servizi di media audiovisivi (AVMSD), al Dutch Media Act (DMA) e al Regolamento relativo ai contenuti terroristici online (TCO). Tieni presente che la versione più aggiornata delle presenti relazioni sulla trasparenza è disponibile in lingua en-US.

Rappresentante legale 

Snap Group Limited ha nominato Snap B.V. come suo rappresentante legale per gli scopi della DSA. Puoi contattare il rappresentante all'indirizzo dsa-enquiries [at] snapchat.com in merito alla DSA, all'indirizzo vsp-enquiries [at] snapchat.com in merito all'AVMSD e al DMA, all'indirizzo tco-enquiries [at] snapchat.com in merito al TCO, tramite il nostro Sito di assistenza [qui], oppure all'indirizzo:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Paesi Bassi

Se fai parte delle forze dell'ordine, segui i passaggi descritti qui.

Contattaci in lingua olandese o inglese.

Autorità di regolamentazione

Per quanto riguarda la DSA, siamo regolamentati dalla Commissione europea e dall'Autorità olandese per i consumatori e i mercati (ACM). Per quanto concerne l'AVMSD e il DMA, siamo regolamentati dall'Autorità olandese per i media (CvdM). Per quanto riguarda il TCO, siamo regolamentati dall'Autorità olandese per la prevenzione dei contenuti terroristici online e materiali sugli abusi sessuali su minori (ATKM).

Relazione per la trasparenza DSA

Pubblicato: 29 agosto 2025

Ultimo aggiornamento: 29 agosto 2025

Ciclo di segnalazione: 1 gennaio 2025 - 30 giugno 2025

Pubblichiamo il presente rapporto in conformità con gli obblighi di rendicontazione sulla trasparenza previsti dagli articoli 15, 24 e 42 della Legge sui servizi digitali dell'Unione Europea (UE) (Regolamento (UE) 2022/2065) ("DSA"). Salvo diversa indicazione, le informazioni contenute nel presente rapporto si riferiscono al periodo di riferimento dal 1° gennaio 2025 al 30 giugno 2025 (primo semestre 2025). 

1. Media destinatari attivi al mese 
(Articoli DSA 24.2 e 42.3)

Al 1° giugno 2025, abbiamo in media 94,7 milioni di destinatari attivi su base mensile (“AMAR”) nella nostra app Snapchat nell'UE. Questo significa che in media, nel periodo di 6 mesi conclusosi il 30 giugno 2025, 94,7 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue:

Queste cifre sono state calcolate per essere conformi con gli attuali requisiti DSA e dovrebbero essere utilizzate solo per scopi DSA. Nel corso del tempo abbiamo cambiato il modo di calcolare questa cifra, anche in seguito al cambiamento delle politiche interne, degli orientamenti delle autorità di regolamentazione e della tecnologia. Per questo motivo non è possibile fare un confronto diretto tra un periodo e l'altro. Inoltre, potrebbe differire dai calcoli utilizzati per altri dati relativi agli utenti attivi che pubblichiamo per altri scopi.

2. Richieste delle autorità degli Stati membri
(Articolo 15.1(a) del DSA)

a) Ordini di agire contro contenuti illegali

Durante questo periodo di segnalazione (primo semestre 2025), abbiamo ricevuto zero (0) ordini di agire contro contenuti illegali appositamente individuati dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 9 della DSA. 


Poiché questo numero è zero (0), non possiamo fornire un'analisi dettagliata per tipo di contenuti illegali interessati o per Stato membro che ha emesso l'ordine o i tempi medi per confermare la ricezione o dare esecuzione agli ordini.

b) Ordini di fornire informazioni 

Durante questo periodo di segnalazione (primo semestre 2025), abbiamo ricevuto i seguenti numeri di richieste per divulgare i dati degli utenti dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 10 della DSA:

Il tempo medio per informare le autorità competenti della ricezione di questi ordini di fornire informazioni è stato di <1 minuto: forniamo una risposta automatizzata a conferma della ricezione. 

Il tempo medio per dare effetto a questi ordini di fornire informazioni è stato inferiore ai 14 giorni. Questo parametro riflette il periodo di tempo da quando Snap ha ricevuto un ordine e il momento in cui Snap ha ritenuto che la questione fosse completamente risolta, che nei singoli casi può dipendere in parte dalla velocità con cui l'autorità dello Stato membro competente risponde a qualsiasi richiesta di chiarimento da parte di Snap necessaria per elaborare l'ordine.

Nota, non forniamo un'analisi dettagliata degli ordini di cui sopra per fornire informazioni categorizzate per tipo di contenuti illegali in questione perché queste informazioni non sono generalmente a nostra disposizione.


3. Moderazione dei contenuti 


Tutti i contenuti su Snapchat devono rispettare le nostre Linee Guida per la Community e i nostri Termini di Servizio. Alcuni contenuti devono inoltre rispettare linee guida e politiche. Ad esempio, i contenuti inviati per la raccomandazione algoritmica a un pubblico più ampio sulle nostre piattaforme di trasmissione pubbliche devono soddisfare ulteriori standard, più elevati forniti nelle nostre Linee guida sui contenuti per l'idoneità alla raccomandazione, mentre gli annunci devono essere conformi alle nostre Politiche pubblicitarie.

Applichiamo queste politiche utilizzando la tecnologia e la revisione umana. Forniamo meccanismi che consentono agli utenti e ai non-utenti di segnalare violazioni, inclusi contenuti e attività illegali, direttamente in-app o attraverso il nostro sito web. Utilizziamo, inoltre, una tecnologia proattiva in grado di rilevare i danni. I meccanismi di rilevamento proattivo e i report richiedono una revisione che si avvale di un mix di strumenti automatizzati e di moderatori umani per intraprendere azioni appropriate in conformità con le nostre politiche. 

Di seguito sono riportate ulteriori informazioni sulla moderazione dei contenuti nel primo semestre 2025.

a) Avvisi inviati in conformità all'articolo 16 della DSA 
(Articolo 15.1 (b))

In conformità con l'Articolo 16 della DSA, Snap ha istituito meccanismi che consentono agli utenti e ai non utenti di comunicare a Snap la presenza su Snapchat di elementi specifici di informazioni che considerano essere contenuti illegali. Possono farlo segnalando contenuti o account specifici, direttamente nell'app Snapchat o sul nostro sito Web. 

Per quanto riguarda le segnalazioni in-app o tramite il nostro sito web, chi effettua la segnalazione può selezionare un motivo specifico da un menu di opzioni che rispecchiano le categorie di violazioni elencate nelle nostre Linee Guida per la Community (ad esempio, incitamento all'odio, droga). Le nostre Linee Guida per la Community, basate sui nostri valori, generalmente comprendono categorie di contenuti e attività illegali nell'UE, pertanto le nostre opzioni di segnalazione, in alcuni casi, includono categorie di contenuti illegali nell'UE. Tuttavia, qualora chi effettua la segnalazione nell'Unione Europea ritenga che il contenuto o l'account che sta segnalando sia illegale per ragioni non specificamente menzionate nel nostro menu delle segnalazioni, ha l'opportunità di selezionarle come "altri contenuti illegali" e di spiegarne i motivi di illegalità alla base della segnalazione. 

Durante il periodo di segnalazione (primo semestre 2025), abbiamo ricevuto le seguenti notifiche da utenti che riteniamo siano nell'UE:

Di seguito, forniamo un'analisi dettagliata che riflette il modo in cui sono state elaborate tali segnalazioni, ad esempio, attraverso un processo che ha incluso la revisione umana o esclusivamente tramite mezzi automatizzati: 

Se, dopo la revisione, stabiliamo che il contenuto o l'account segnalato viola le nostre Linee Guida per la Community o è altrimenti ritenuto illegale, potremmo (i) rimuovere il contenuto in violazione (ii) avvisare il titolare dell'account in questione e assegnare un avvertimento nei confronti dell'account e/o (iii) bloccare l'account, come illustrato nei dettagli nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat

Nel primo semestre del 2025, abbiamo adottato le seguenti misure coercitive al ricevimento delle notifiche inviate dagli utenti che riteniamo si trovino nell'UE:

Nota: il numero totale di avvisi inviati suddivisi per tipo di violazione nella tabella precedente non include tutte le segnalazioni effettuate tramite il nostro Sito di assistenza. Il Sito di assistenza segnala che i segnalatori dell'UE hanno effettuato circa lo 0,4% del volume totale delle notifiche UE.  In futuro, vogliamo includere nei calcoli le segnalazioni del Sito di assistenza. 

Nel primo semestre 2025, tutte le segnalazioni relative ad "altri contenuti illegali" che abbiamo processato sono state in ultima analisi applicate secondo le nostre Linee Guida per la Community perché le nostre Linee Guida per la Community vietavano i contenuti o le attività relative. Abbiamo quindi categorizzato queste esecuzioni sotto la categoria pertinente di violazione delle Linee Guida per la Community nella tabella di cui sopra.

Oltre alle suddette esecuzioni, potremmo intraprendere azioni sui contenuti comunicati a noi in conformità con altre politiche e linee guida applicabili di Snap: 

  • Per quanto riguarda i contenuti sulle nostre superfici di trasmissione pubbliche, se stabiliamo che i contenuti segnalati non soddisfano le Linee guida per i contenuti relative all'idoneità alla sezione Consigliati, potremmo rifiutare i contenuti per la raccomandazione algoritmica o potremmo limitare la distribuzione dei contenuti per escludere determinati tipi di pubblico (se i contenuti soddisfano i nostri criteri di idoneità alla raccomandazione, ma sono altrimenti sensibili o allusivi).  

Nel primo semestre 2025, abbiamo intrapreso le seguenti azioni relative ai contenuti sulle piattaforme di trasmissione pubbliche di Snapchat segnalateci nell'UE, in conformità con le nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati:

  • Se riteniamo che una pubblicità segnalata violi le nostre Informative sulla Pubblicità, possiamo rimuoverla dopo averla esaminata. 

Nel primo semestre del 2025, abbiamo intrapreso le seguenti azioni in merito agli annunci pubblicitari segnalati da utenti che riteniamo siano nell'UE:


b) Moderazione dei contenuti su iniziativa di Snap 
(Articolo 15.1(c))

Oltre a rivedere gli avvisi inoltrati ai sensi dell'articolo 16 del DSA, Snap, di sua propria iniziativa, si occupa anche della moderazione dei contenuti. Di seguito forniamo informazioni sulla moderazione dei contenuti effettuata su iniziativa di Snap, tra cui l'uso di strumenti automatizzati, le misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti e il numero e i tipi di restrizioni imposte a seguito di tali sforzi di moderazione proattiva dei contenuti.

  • Utilizzo di strumenti automatizzati nell'ambito della moderazione di propria iniziativa di Snap

Distribuiamo strumenti automatizzati al fine di rilevare proattivamente e, in taluni casi, rafforzare la sicurezza contro le violazioni dei nostri termini e politiche. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google CSAI Match), API per la sicurezza dei contenuti di Google, modelli di rilevamento del linguaggio abusivo (che rilevano e rifiutano i contenuti in base a un elenco di parole chiave ed emoji abusivi identificato e regolarmente aggiornato), altre tecnologie personalizzate studiate per rilevare testo ed emoji abusivi e tecnologie che sfruttano l'intelligenza artificiale, tra cui l'apprendimento automatico e modelli linguistici di grandi dimensioni. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee guida per la Community e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e alle politiche pubblicitarie. 

Nel primo semestre del 2025, tutti i nostri rilevamenti proattivi sono stati effettuati sfruttando strumenti automatizzati. (In alcuni casi, il nostro team Fiducia e Sicurezza ha rilevato manualmente contenuti illegali e/o che violavano le politiche di Snap, che sono stati quindi indagati e applicati in linea con le politiche di Snap e/o le leggi pertinenti). Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana. Il numero e i tipi di restrizioni imposte derivanti da questa procedura sono descritti di seguito. 

  • Numero e tipi di restrizioni imposte su iniziativa di Snap

Nel primo semestre 2025, Snap ha intrapreso le seguenti azioni di applicazione della legge dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community:

Inoltre, nel primo semestre 2025, per quanto riguarda i contenuti sulle nostre superfici di trasmissione pubbliche, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo le violazioni delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati attraverso l'uso di strumenti automatizzati:

* Come stabilito nelle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati, gli account che violano ripetutamente o in modo grave tali Linee Guida potrebbero essere esclusi temporaneamente o permanentemente dalle raccomandazioni sulle nostre piattaforme di trasmissione pubbliche. Applichiamo questa azione nell'ambito dei nostri sforzi di moderazione proattiva.

Inoltre, nel primo semestre 2025, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo le violazioni delle nostre Politiche pubblicitarie attraverso l'uso di strumenti automatizzati:

  • Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti

I nostri team di moderazione dei contenuti applicano le nostre politiche di moderazione dei contenuti per contribuire a proteggere la nostra community di Snapchat. Essi svolgono una formazione nell'arco di più settimane, durante le quali i nuovi membri del team verranno formati sulle politiche, gli strumenti e le procedure di escalation di Snap. I nostri team di moderazione si impegnano in corsi di aggiornamento pertinenti ai loro flussi di lavoro, in particolare quando ci troviamo di fronte a casi al limite delle politiche e che dipendono dal contesto. Inoltre, organizziamo programmi e sessioni di abilitazione per migliorare le competenze e somministriamo quiz al fine di garantire che tutti i moderatori siano aggiornati e conformi a tutte le politiche aggiornate. Infine, qualora emergessero delle tendenze di contenuti urgenti sulla base degli eventi attuali, divulgheremo tempestivamente dei chiarimenti sulle politiche per garantire ai team di poter rispondere in conformità con le politiche di Snap.

Forniamo ai nostri team di moderazione dei contenuti supporto e risorse importanti, tra cui supporto per il benessere sul posto di lavoro e accesso facile ai servizi di salute mentale

c) Reclami ricevuti tramite i sistemi interni di gestione dei reclami (ad esempio, ricorsi) di Snap 
(Articolo 15.1(d))

Gli utenti i cui account sono bloccati dai nostri team di sicurezza per violazioni delle Linee Guida per la Community (anche per contenuti e attività illegali) possono presentare ricorso contro il blocco dell'account. Gli utenti possono inoltre presentare ricorso contro alcune decisioni di moderazione dei contenuti.

Durante il periodo di segnalazione (primo semestre 2025), Snap ha elaborato i seguenti ricorsi (inclusi i ricorsi contro il blocco degli account e le decisioni di moderazione a livello di contenuti) presentati tramite i propri sistemi interni di gestione dei reclami da utenti che riteniamo si trovino nell'UE:

d) Uso di mezzi automatizzati per scopi di moderazione dei contenuti 
(Articoli 15.1(e) e 42.2(c))

  • Descrizione e scopi qualitativi

Come spiegato in precedenza nella Sezione 3(b), utilizziamo strumenti automatizzati allo scopo di rilevare in modo proattivo e, in alcuni casi, applicare le violazioni dei nostri termini e politiche. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google CSAI Match), API per la sicurezza dei contenuti di Google, modelli di rilevamento del linguaggio abusivo (che rilevano e rifiutano i contenuti in base a un elenco di parole chiave ed emoji abusivi identificato e regolarmente aggiornato), altre tecnologie personalizzate studiate per rilevare testo ed emoji abusivi e tecnologie che sfruttano l'intelligenza artificiale, tra cui l'apprendimento automatico e modelli linguistici di grandi dimensioni. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee Guida per la Community (che, tra l'altro, vietano i contenuti illegali) e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e Informative sulla Pubblicità. 

Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana.

 

  • Indicatori di precisione e possibile tasso di errore, suddivisi per Stato membro

Monitoriamo indicatori di accuratezza e possibili tassi di errore dei nostri strumenti automatizzati di moderazione selezionando campioni casuali di attività elaborate dai nostri strumenti automatizzati e inviandole per ulteriore revisione da parte dei nostri team di moderazione umani. Il tasso di accuratezza corrisponde alla percentuale di attività estratte da questi campioni casuali per cui è stata confermata la correttezza delle decisioni di moderazione dopo un riesame da parte di moderatori umani. Il tasso di errore è la differenza tra il 100% e il tasso di accuratezza calcolato come descritto in precedenza.

Monitoriamo l'accuratezza e il possibile tasso di errore per due ampie categorie di strumenti di moderazione automatizzata, vale a dire: 

  • Strumenti automatizzati che rilevano e/o applicano le violazioni delle nostre Linee Guida per la Community e possono portare a misure di applicazione nei confronti dell'account di un utente (ad esempio, avvisi applicati all'account o bloccati dall'account). In base al campionamento, nel primo semestre 2025, il tasso di accuratezza di questi strumenti automatizzati è stato di circa il 96% mentre il tasso di errore è stato di circa il 4%. 

  • Strumenti automatizzati che rilevano e/o intervengono sui contenuti sulle nostre superfici di trasmissione pubbliche sulla base delle nostre Linee guida per i contenuti relativi all'idoneità alla sezione Consigliati. In base al campionamento, nel primo semestre 2025, il tasso di accuratezza di questi strumenti automatizzati è stato di circa il 88% mentre il tasso di errore è stato di circa il 12%. 

In base al campionamento, nel primo semestre 2025, il tasso di accuratezza combinato degli strumenti automatizzati utilizzati in entrambe le categorie descritte sopra è stato di circa l'90% mentre il tasso di errore è stato di circa il 10%.  

In genere, non teniamo traccia della lingua dei contenuti che moderiamo su Snapchat e, pertanto, non possiamo fornire un'analisi dettagliata dei tassi di accuratezza e di errore dei nostri strumenti automatizzati di moderazione per ogni lingua ufficiale degli Stati membri. Per far si' che queste informazioni siano simili, qui di seguito forniamo una ripartizione dei nostri tassi di accuratezza e di errore combinati per i contenuti moderati automaticamente (sia nelle nostre Linee guida per i contenuti relativi all'idoneità alla sezione Consigliati) che riteniamo provengano da ciascun Stato membro.

  • Misure di salvaguardia

Siamo consapevoli del potenziale impatto degli strumenti automatizzati di moderazione sui diritti fondamentali e adottiamo misure di salvaguardia per aiutare a ridurre al minimo tale impatto.

I nostri strumenti di moderazione automatizzata dei contenuti vengono testati prima di essere utilizzati. I modelli vengono testati offline per verificarne le prestazioni e implementati tramite test A/B per garantirne il corretto funzionamento prima di essere completamente messi in produzione. Eseguiamo revisioni della garanzia di qualità (QA) prima del lancio, revisioni del lancio e controlli di precisione QA continui durante le implementazioni. 

Dopo il lancio dei nostri strumenti automatizzati, ne valutiamo costantemente le prestazioni e l'accuratezza e apportiamo le modifiche necessarie. Questo procedimento comporta la revisione di campioni di attività automatizzate da parte dei nostri moderatori umani per individuare i modelli che richiedono adattamenti volti a migliorarne la precisione. Monitoriamo, inoltre, la diffusione di danni specifici su Snapchat tramite campionamenti giornalieri casuali di alcuni contenuti pubblici e utilizziamo queste informazioni per individuare le aree in cui è possibile introdurre ulteriori miglioramenti. 

Le nostre politiche e i nostri sistemi promuovono un'applicazione coerente ed equa, anche da parte dei nostri strumenti automatizzati, e offrono agli Snapchatter l'opportunità di contestare in maniera significativa i risultati dell'applicazione delle politiche attraverso i processi di avviso e ricorso che sono volti a proteggere gli interessi della nostra community e allo stesso tempo i diritti dei singoli Snapchatter.

Ci impegniamo a evolvere costantemente i nostri strumenti automatizzati di moderazione dei contenuti per aumentarne l'accuratezza e sostenere l'applicazione coerente ed equa delle nostre politiche.

e) Controversie sottoposte agli organismi di risoluzione extragiudiziale delle controversie di cui all'Articolo 21
(Articolo 24.1(a))

Per il periodo di segnalazione (primo semestre 2025), forniamo le seguenti informazioni sulle controversie contro Snap agli organismi di risoluzione extragiudiziale delle controversie di cui all'articolo 21 della DSA: 

La tabella precedente riflette lo stato, al 30 giugno 2025, delle controversie presentate agli organismi di risoluzione extragiudiziale delle controversie certificati ai sensi dell'articolo 21 della DSA durante il periodo di segnalazione (primo semestre 2025). In ogni parametro, abbiamo incluso i casi ricevuti da Snap anche quelli che erano completamente o parzialmente mancanti, ma che hanno richiesto solo in un secondo momento. Per quanto riguarda le controversie in cui è stata emessa una decisione, abbiamo incluso solo le decisioni ricevute durante il periodo di segnalazione. Analogamente, delle 3 decisioni a favore del querelante, 2 sono attualmente in sospeso in appello. Un ricorso è stato presentato con successo in un caso; tuttavia, poiché la decisione rivista a favore di Snap è stata emessa al di fuori del periodo di segnalazione pertinente, questo caso continua a essere segnalato come una decisione a favore del querelante.


Il tempo medio necessario per completare le procedure di risoluzione delle controversie è stato calcolato dalla data in cui Snap riceve un reclamo alla data in cui è stata ricevuta una decisione dall'organismo ODS.


Occorre tenere presente che non sono stati inclusi nella tabella precedente i reclami presentati a un organismo certificato ai sensi dell'articolo 21, ma che l'organismo competente ha ritenuto inammissibili prima di trasmetterli a Snap. Non ci è possibile confermare il numero di controversie che rientrano in questa categoria perché alcuni, ma non tutti, gli organismi certificati informano Snap di tali controversie. Tuttavia, siamo a conoscenza di 28 reclami che rientrano in questa categoria avvenuti nel primo semestre 2025.

f) Sospensioni imposte ai sensi dell'Articolo 23
(Articolo 24.1(b))
  • Sospensioni ai sensi dell'Articolo 23.1: sospensione degli account che forniscono frequentemente contenuti palesemente illegali 

Come spiegato nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat, gli account che riteniamo vengano utilizzati principalmente per violare le nostre Linee Guida per la Community (anche attraverso la fornitura di contenuti palesemente illegali) e gli account che causano gravi danni vengono immediatamente disabilitati. Per tutte le altre violazioni delle nostre Linee Guida per la Community, generalmente Snap applica un processo esecutivo composto da tre parti:

  • Passaggio uno: il contenuto in violazione viene rimosso.

  • Passaggio due: l'utente riceve una notifica che gli indica che ha violato le nostre Linee Guida per la Community e che i contenuti da lui pubblicati sono stati rimossi e che le violazioni ripetute comporteranno ulteriori azioni precise, inclusa la disattivazione dell'account.

  • Passaggio tre: il nostro team registra uno strike contro l'account dell'utente.

Informazioni sul numero di strike (ad esempio avvisi) e sui blocchi imposti nel primo semestre 2025 agli account nell'UE sono disponibili nelle Sezioni 3(a) e 3(b).

  • Sospensioni ai sensi dell'Articolo 23.2: sospensione relativa all'elaborazione di avvisi e reclami di persone, entità e denuncianti che inviano frequentemente avvisi o reclami manifestamente infondati

Applicando la nostra definizione interna di avvisi e reclami "manifestamente infondati" e le nostre soglie interne per ciò che consideriamo invio frequente di tali avvisi e reclami, il numero delle sospensioni relative all'elaborazione di avvisi e reclami imposte nel primo semestre 2025 ai sensi dell'Articolo 23.2 della DSA è il seguente:

4. Informazioni sui nostri Team di moderazione dei contenuti 
a) Risorse umane dedicate alla moderazione dei contenuti, incluso per il rispetto degli articoli 16, 20 e 22 della DSA, suddivisi per lingue ufficiali degli Stati membri
(Articolo 42.2(a))


I nostri team di moderazione dei contenuti, che consentono di mantenere al sicuro la nostra community, operano in tutto il mondo, 24 ore su 24, 7 giorni su 7. Di seguito è riportata la ripartizione delle nostre risorse di moderazione umana in base alla specialità linguistica dei moderatori (da notare che alcuni moderatori sono specializzati in più lingue, ma i moderatori multilingue vengono conteggiati una volta sola) al 30 giugno 2025:

La tabella sopra riportata comprende tutte le risorse umane dedicate alla moderazione dei contenuti che supportano le lingue ufficiali degli Stati membri dell'UE a partire dal 30 giugno 2025. Nel caso in cui avessimo bisogno di un'ulteriore assistenza linguistica, ci avvarremo di servizi di traduzione.

b) Qualifiche e competenze linguistiche dei moderatori di contenuti; formazione e supporto forniti
(Articolo 42.2(b))

I moderatori vengono selezionati mediante una descrizione del ruolo standard che include un requisito linguistico (a seconda delle esigenze). Il requisito linguistico afferma che il candidato deve essere in grado di dimostrare una buona padronanza della lingua scritta e parlata e, per le posizioni entry-level, i candidati devono avere almeno un anno di esperienza lavorativa. I candidati devono soddisfare i requisiti inerenti l'istruzione e i trascorsi penali per poter essere presi in considerazione. Inoltre, i candidati devono dimostrare di avere una comprensione degli eventi attuali relativi al Paese o alla regione di moderazione dei contenuti che dovranno supportare. 


Si rimanda a quanto sopra per informazioni sulla formazione e sull'assistenza che Snap fornisce ai moderatori di contenuti, richiesta separatamente ai sensi dell'Articolo 15(1)(c) della DSA e quindi inclusa nella Sezione 3(b), nell'ultima sottosezione intitolata "Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti"

Relazione sul Media Scanning in materia di sfruttamento e abuso sessuale dei minori (CSEA)

Pubblicato: 31 gennaio 2025

Ultimo aggiornamento: 31 gennaio 2025

La presente relazione copre il periodo che va dal 1° gennaio 2024 al 31 dicembre 2024.

Contesto

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Individuare ed eliminare le immagini di sfruttamento e abuso sessuale dei minori (CSEA) sulla nostra piattaforma e prevenirne la diffusione è una priorità assoluta di Snap; per questo cerchiamo di combattere questi e altri crimini con sempre maggiore efficacia.


Ecco alcune tecnologie utilizzate: (a) il sofisticato strumento di hash-matching di PhotoDNA e il Child Sexual Abuse Imagery (CSAI) Match di Google per identificare immagini e video illegali già noti di CSEA; e (b) l'API per la sicurezza dei contenuti di Google per identificare immagini CSEA nuove e "mai sottoposte a hashing". Segnaliamo le immagini di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. L'NCMEC, a sua volta, coordina le proprie azioni con le forze dell'ordine degli Stati Uniti o di altri Paesi, se necessario.


Relazione

Il grafico che segue include i dati sul rilevamento proattivo e sulle conseguenti azioni intraprese contro gli utenti dell'UE in relazione a immagini di CSEA nel 2024. (Attenzione: alcune azioni restrittive derivanti dal controllo proattivo nel 2024 potrebbero ancora essere oggetto di ricorso al momento della compilazione della presente relazione e pertanto non si riflettono nei dati sui ricorsi e sui casi di reintegro riportati di seguito.)

*Questa categoria riporta le azioni intraprese in risposta a violazioni delle Linee guida per la community di Snap in materia di sfruttamento sessuale di minori.  Non sono elencati i contenuti rilevati proattivamente e bloccati per altre violazioni delle Linee guida per la community di Snap.

**Un'azione restrittiva può essere revocata se stabiliamo che era errata in base alle politiche in vigore al momento dell'esecuzione, o se stabiliamo che è stata applicata correttamente, ma che la politica applicabile è cambiata al momento della revisione del ricorso.

Garanzie per la moderazione dei contenuti

Le garanzie applicate per il CSEA Media Scanning sono riportate nella relazione per la trasparenza sul DSA dell'UE di cui sopra.

Relazione per la trasparenza dei contenuti online dei terroristi dell'Unione europea

Pubblicato: 28 febbraio 2025

Ultimo aggiornamento: 28 febbraio 2025

Ciclo di segnalazione: 1 gennaio 2024 - 31 dicembre 2024

La presente relazione per la trasparenza è pubblicata in conformità agli articoli 7(2) e 7(3) del Regolamento 2021/784 del Parlamento europeo e del Consiglio dell'UE, riguardanti la diffusione di contenuti terroristici online (il Regolamento). Copre il periodo di segnalazione dal 1° gennaio al 31 dicembre 2024

Informazioni generali
  • Articolo 7(3)(a): informazioni sulle misure del fornitore di servizi di hosting in relazione all'individuazione e alla rimozione o alla disattivazione degli accessi a contenuti terroristici

  • Articolo 7(3)(b): informazioni sulle misure del fornitore di servizi di hosting per affrontare la ricomparsa online di materiale che è stato precedentemente rimosso o al quale è stato disattivato l'accesso perché considerato contenuto terroristico, in particolare quando sono stati utilizzati strumenti automatizzati


Snapchat ha un'incidenza molto bassa di contenuti terroristici e non ha ricevuto un ordine di rimozione ai sensi del Regolamento nel 2024.

A terroristi, organizzazioni terroristiche ed estremisti violenti è vietato utilizzare Snapchat. I contenuti che sostengono, promuovono, esaltano o promuovono il terrorismo o altri atti violenti e criminali sono vietati dalle nostre Linee Guida per la Community. Gli utenti sono in grado di segnalare contenuti che violano le Linee Guida per la Community tramite il nostro menu di segnalazione in app o il nostro Sito di assistenza. Utilizziamo, inoltre, il rilevamento proattivo per tentare di individuare i contenuti non conformi su piattaforme pubbliche come Spotlight e Scopri.


Indipendentemente da come potremmo venire a conoscenza di violazioni dei contenuti, i nostri team di sicurezza, attraverso una combinazione di automazione e moderazione umana, esaminano tempestivamente i contenuti individuati e prendono decisioni in materia di applicazione delle norme. Le esecuzioni possono includere la rimozione dei contenuti, l'avviso o la disabilitazione dell'account non conforme e, se necessario, la segnalazione dell'account alle forze dell'ordine. Per evitare la ricomparsa di contenuti terroristici o altri contenuti estremisti violenti su Snapchat, oltre a collaborare con le forze dell'ordine, adottiamo misure per bloccare il dispositivo associato all'account in violazione e impedire all'utente di creare un altro account Snapchat. 


Ulteriori dettagli sulle nostre misure per individuare e rimuovere i contenuti terroristici sono disponibili nella nostra Guida esplicativa sui contenuti d'odio, il terrorismo e l'estremismo violento e nella nostra Guida esplicativa sulla moderazione, l'applicazione delle regole e i ricorsi



Segnalazioni ed esecuzioni
  • Articolo 7(3)(c): il numero di elementi di contenuti terroristici rimossi o ai quali è stato disattivato l'accesso a seguito di ordini di rimozione o misure specifiche e il numero di ordini di rimozione in cui i contenuti non sono stati rimossi o ai quali l'accesso non è stato disattivato ai sensi dell'articolo 3(7) primo comma e dell'articolo 3(8), insieme ai relativi motivi


Durante il periodo di segnalazione, Snap non ha ricevuto ordini di rimozione né è stato necessario implementare misure specifiche ai sensi dell'Articolo 5 del Regolamento. Di conseguenza, non siamo stati tenuti ad intraprendere esecutive ai sensi del Regolamento.

La tabella seguente descrive le azioni coercitive intraprese sulla base delle segnalazioni degli utenti e del rilevamento proattivo di contenuti e account, sia nell'UE che in altre parti del mondo, che violavano le nostre Linee Guida per la Community in materia di terrorismo ed estremismo violento.

Ricorsi di esecuzione
  • Articolo 7(3)(d): il numero e l'esito dei reclami gestiti dal fornitore di servizi di hosting in conformità all'Articolo 10

  • Articolo 7(3)(g): il numero di casi in cui il fornitore di servizi di hosting ha ripristinato i contenuti o accessi agli stessi a seguito di un reclamo da parte del fornitore di contenuti

Poiché non abbiamo ricevuto richieste di azioni esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo gestito alcun reclamo ai sensi dell'Articolo 10 del Regolamento e non abbiamo ricevuto reintegrazioni associate.

La tabella seguente contiene informazioni relative ai ricorsi e alle reintegrazioni, sia nell'UE che in altre parti del mondo, che coinvolgono contenuti terroristici ed estremisti violenti applicati secondo le nostre Linee Guida per la Community.

Procedimenti giudiziari e ricorsi
  • Articolo 7(3)(e): il numero e l'esito dei procedimenti di riesame amministrativo o giudiziario avviati dal fornitore di servizi di hosting

  • Articolo 7(3)(f): il numero di casi in cui il fornitore di servizi di hosting ha avuto l'esigenza di ripristinare i contenuti o accedervi a seguito di procedimenti di riesame amministrativo o giudiziario

Dato che non abbiamo ricevuto richieste di misure esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo avuto alcun procedimento di riesame amministrativo o giudiziario associato e non abbiamo avuto l'obbligo di ripristinare i contenuti a seguito di tali procedure.

Valutazione dei rischi DSA

La presente relazione è stata redatta con l'obiettivo di rispettare gli obblighi di Snap ai sensi degli articoli 34 e 35 del Regolamento (UE) 2022/2065. Mostra i risultati della nostra valutazione dei rischi di sistema derivanti dalla progettazione, dalla funzione e dall'uso delle piattaforme online di Snapchat, oltre alla metodologia utilizzata per valutare tali rischi e alle misure di mitigazione messe in atto per affrontare tali rischi.


Relazione sulla valutazione dei rischi e sulla mitigazione DSA | Snapchat | agosto 2023 (PDF)


Audit DSA e implementazione Audit

Queste relazioni sono state redatte per rispettare gli obblighi di Snap ai sensi dell'Articolo 37 del Regolamento (UE) 2022/2065 e contengono: (i) i risultati dell'audit indipendente della conformità di Snap con gli obblighi stabiliti nel Capitolo III del Regolamento (UE) 2022/2065 e (ii) le misure adottate per attuare le raccomandazioni operative di tale Audit indipendente.

Relazione sull'Audit indipendente DSA | Snapchat | agosto 2024 (PDF)

Relazione sull'implementazione dell'audi DSA | Snapchat | settembre 2024 (PDF)



Codice di condotta EU VSP

Snap è un fornitore del “servizio di condivisione video su piattaforma”(”VSP”) ai sensi dell'articolo 1(1)(AN) AVMSD. Il presente Codice di condotta (“Codice”) è stato redatto per descrivere in che modo Snap rispetta i suoi obblighi ai sensi della normativa olandese sui media (“DMA”) e della Direttiva (EU) 2010/13 (come modificata dalla Direttiva (EU) 2018/1808 (la “Direttiva sui Servizi Media Audiovisivi” o “AVMSD”)). Il Codice è applicabile in tutta l'Unione Europea e nello Spazio Economico Europeo.

Codice di condotta EU VSP | Snapchat | Marzo 2025 (PDF)

Bulgaro | Croato | Ceco | Danese | Olandese | Estone | Finlandese | Francese | Tedesco | Greco | Ungherese | Irlandese | Italiano | Lettone | Lituano | Maltese | Polacco | Portoghese | Romeno | Slovacco | Sloveno | Spagnolo | Svedese