Snap Values
Unione Europea

Ti diamo il benvenuto nella nostra pagina sulla trasparenza dell'Unione Europea (UE), dove pubblichiamo informazioni specifiche per l'UE in osservanza alla Normativa sui servizi digitali (DSA), alla Direttiva sui servizi di media audiovisivi (AVMSD), al Dutch Media Act (DMA) e al Regolamento relativo ai contenuti terroristici online (TCO). Tieni presente che la versione più aggiornata delle presenti relazioni sulla trasparenza è disponibile in lingua en-US.

Rappresentante legale 

Snap Group Limited ha nominato Snap B.V. come suo rappresentante legale per gli scopi della DSA. Puoi contattare il rappresentante all'indirizzo dsa-enquiries [at] snapchat.com in merito alla DSA, all'indirizzo vsp-enquiries [at] snapchat.com in merito all'AVMSD e al DMA, all'indirizzo tco-enquiries [at] snapchat.com in merito al TCO, tramite il nostro Sito di assistenza [qui], oppure all'indirizzo:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Paesi Bassi

Se fai parte delle forze dell'ordine, segui i passaggi descritti qui.

Contattaci in lingua olandese o inglese.

Autorità di regolamentazione

Per quanto riguarda la DSA, siamo regolamentati dalla Commissione europea e dall'Autorità olandese per i consumatori e i mercati (ACM). Per quanto concerne l'AVMSD e il DMA, siamo regolamentati dall'Autorità olandese per i media (CvdM). Per quanto riguarda il TCO, siamo regolamentati dall'Autorità olandese per la prevenzione dei contenuti terroristici online e materiali sugli abusi sessuali su minori (ATKM).

Relazione per la trasparenza DSA

Pubblicato: 28 febbraio 2025

Ultimo aggiornamento: 23 aprile 2025 (versione 2.0)

Ciclo di segnalazione: 1 luglio 2024 - 31 dicembre 2024

Pubblichiamo il presente rapporto in conformità con gli obblighi di rendicontazione sulla trasparenza previsti dagli articoli 15, 24 e 42 della Legge sui servizi digitali dell'Unione Europea (UE) (Regolamento (UE) 2022/2065) ("DSA"). Salvo diversa indicazione, le informazioni contenute nel presente rapporto si riferiscono al periodo di riferimento dal 1° luglio 2024 al 31 dicembre 2024 (secondo semestre 2024). 

1. Media destinatari attivi al mese 
(Articoli DSA 24.2 e 42.3)

Al 1° gennaio 2025, abbiamo in media 93,7 milioni di destinatari attivi su base mensile (“AMAR”) nella nostra app Snapchat nell'UE. Questo significa che in media, nel periodo di 6 mesi conclusosi il 31 dicembre 2024, 93,7 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue:

Queste cifre sono state calcolate per essere conformi con gli attuali requisiti DSA e dovrebbero essere utilizzate solo per scopi DSA. Nel corso del tempo abbiamo cambiato il modo di calcolare questa cifra, anche in seguito al cambiamento delle politiche interne, degli orientamenti delle autorità di regolamentazione e della tecnologia. Per questo motivo non è possibile fare un confronto diretto tra un periodo e l'altro. Inoltre, potrebbe differire dai calcoli utilizzati per altri dati relativi agli utenti attivi che pubblichiamo per altri scopi.

2. Richieste delle autorità degli Stati membri
(Articolo 15.1(a) del DSA)

a) Ordini di agire contro contenuti illegali


Durante questo periodo di segnalazione (secondo semestre 2024), abbiamo ricevuto zero (0) ordini di agire contro contenuti illegali appositamente individuati dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 9 della DSA. 

Poiché questo numero è zero (0), non possiamo fornire un'analisi dettagliata per tipo di contenuti illegali interessati o per Stato membro che ha emesso l'ordine o i tempi medi per confermare la ricezione o dare esecuzione agli ordini

b) Ordini di fornire informazioni 

Durante questo periodo di segnalazione (secondo semestre 2024), abbiamo ricevuto i seguenti ordini di divulgare i dati degli utenti dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 10 della DSA:

Il tempo medio per informare le autorità competenti della ricezione di questi ordini di fornire informazioni è stato di 0 minuti: forniamo una risposta automatizzata a conferma della ricezione. 

Il tempo medio per dare effetto a questi ordini di fornire informazioni è stato di circa 12 giorni. Questo parametro riflette il periodo di tempo da quando Snap ha ricevuto un ordine e il momento in cui Snap ha ritenuto che la questione fosse completamente risolta, che nei singoli casi può dipendere in parte dalla velocità con cui l'autorità dello Stato membro competente risponde a qualsiasi richiesta di chiarimento da parte di Snap necessaria per elaborare l'ordine.

Nota, non forniamo un'analisi dettagliata degli ordini di cui sopra per fornire informazioni categorizzate per tipo di contenuti illegali in questione perché queste informazioni non sono generalmente a nostra disposizione.

3. Moderazione dei contenuti 


Tutti i contenuti su Snapchat devono rispettare le nostre Linee Guida per la Community e i nostri Termini di Servizio. Alcuni contenuti devono inoltre rispettare linee guida e politiche. Ad esempio, i contenuti inviati per la raccomandazione algoritmica a un pubblico più ampio sulle nostre piattaforme di trasmissione pubbliche devono soddisfare ulteriori standard, più elevati, forniti nelle nostre Linee guida sui contenuti per l'idoneità alla raccomandazione, mentre gli annunci devono essere conformi alle nostre Politiche pubblicitarie.

Applichiamo queste politiche utilizzando la tecnologia e la revisione umana. Forniamo meccanismi che consentono agli utenti e ai non-utenti di segnalare violazioni, inclusi contenuti e attività illegali, direttamente in-app o attraverso il nostro sito web. Utilizziamo, inoltre, una tecnologia proattiva in grado di rilevare i danni. I meccanismi di rilevamento proattivo e i report richiedono una revisione, che si avvale di un mix di strumenti automatizzati e di moderatori umani per intraprendere azioni appropriate in conformità con le nostre politiche. 

Di seguito sono riportate ulteriori informazioni sulla moderazione dei contenuti nel secondo semestre 2024.

a) Avvisi inviati in conformità all'articolo 16 della DSA 
(Articolo 15.1 (b))

In conformità con l'Articolo 16 della DSA, Snap ha istituito meccanismi che consentono agli utenti e ai non utenti di comunicare a Snap la presenza su Snapchat di elementi specifici di informazioni che considerano essere contenuti illegali. Possono farlo segnalando contenuti o account specifici, direttamente nell'app Snapchat o sul nostro sito Web. 

Per quanto riguarda le segnalazioni in-app o tramite il nostro sito web, chi effettua la segnalazione può selezionare un motivo specifico da un menu di opzioni che rispecchiano le categorie di violazioni elencate nelle nostre Linee Guida per la Community (ad esempio, incitamento all'odio, droga). Le nostre Linee Guida per la Community vietano contenuti e attività illegali nell'Unione Europea, pertanto i motivi di segnalazione riflettono in larga misura le categorie specifiche di contenuti illegali nell'Unione Europea. Tuttavia, qualora chi effettua la segnalazione nell'Unione Europea ritenga che il contenuto o l'account che sta segnalando sia illegale per ragioni non specificamente menzionate nel nostro menu delle segnalazioni, ha l'opportunità di selezionare "altri contenuti illegali" e di spiegare i motivi di illegalità alla base della sua segnalazione. 

Durante il periodo di segnalazione (secondo semestre 2024), abbiamo ricevuto le seguenti segnalazioni inviate in conformità all'articolo 16 della DSA nell'UE:

Di seguito, forniamo un'analisi dettagliata che riflette il modo in cui sono state elaborate tali segnalazioni, ad esempio, attraverso un processo che ha incluso la revisione umana o esclusivamente tramite mezzi automatizzati: 

Se, dopo la revisione, stabiliamo che il contenuto o l'account segnalato viola le nostre Linee Guida per la Community (anche per motivi di illegalità), potremmo (i) rimuovere il contenuto in violazione (ii) avvisare il titolare dell'account in questione e assegnare un avvertimento nei confronti dell'account e/o (iii) bloccare l'account, come illustrato nei dettagli nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat

Nel secondo semestre del 2024, abbiamo intrapreso le seguenti azioni di contrasto al ricevimento delle segnalazioni presentate in conformità all'articolo 16 della DSA nell'Unione Europea:

Nel secondo semestre 2024, tutte le segnalazioni relative ad "altri contenuti illegali" che abbiamo processato sono state in ultima analisi applicate secondo le nostre Linee Guida per la Community perché le nostre Linee Guida per la Community vietavano i contenuti o le attività relative. Abbiamo quindi categorizzato queste esecuzioni sotto la categoria pertinente di violazione delle Linee Guida per la Community nella tabella di cui sopra.

Oltre alle suddette esecuzioni, potremmo intraprendere azioni sui contenuti comunicati a noi in conformità con altre politiche e linee guida applicabili di Snap: 

  • Per quanto riguarda i contenuti sulle nostre superfici di trasmissione pubbliche, se stabiliamo che i contenuti segnalati non soddisfano le Linee guida per i contenuti relative all'idoneità alla sezione Consigliati, potremmo rifiutare i contenuti per la raccomandazione algoritmica o potremmo limitare la distribuzione dei contenuti per escludere determinati tipi di pubblico (se i contenuti soddisfano i nostri criteri di idoneità alla raccomandazione, ma sono altrimenti sensibili o allusivi).  

Nel secondo semestre 2024, abbiamo intrapreso le seguenti azioni relative ai contenuti sulle piattaforme di trasmissione pubbliche di Snapchat segnalateci nell'UE, in conformità con le nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati:

  • Se riteniamo che una pubblicità segnalata violi le nostre Informative sulla Pubblicità, possiamo rimuoverla dopo averla esaminata. 


Nel secondo semestre 2024, abbiamo intrapreso le seguenti azioni relative agli annunci pubblicitari segnalati nell'UE:


b) Moderazione dei contenuti su iniziativa di Snap 
(Articolo 15.1(c))


Oltre a rivedere gli avvisi inoltrati ai sensi dell'articolo 16 del DSA, Snap, di sua propria iniziativa, si occupa anche della moderazione dei contenuti. Di seguito forniamo informazioni sulla moderazione dei contenuti effettuata su iniziativa di Snap, tra cui l'uso di strumenti automatizzati, le misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti e il numero e i tipi di restrizioni imposte a seguito di tali sforzi di moderazione proattiva dei contenuti.

  • Utilizzo di strumenti automatizzati nell'ambito della moderazione di propria iniziativa di Snap

Distribuiamo strumenti automatizzati al fine di rilevare proattivamente e, in taluni casi, rafforzare la sicurezza contro le violazioni dei nostri termini e politiche. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google CSAI Match), API per la sicurezza dei contenuti di Google, modelli di rilevamento del linguaggio abusivo (che rilevano e rifiutano i contenuti in base a un elenco di parole chiave ed emoji abusivi identificato e regolarmente aggiornato) e tecnologie che sfruttano l'intelligenza artificiale, l'apprendimento automatico e modelli linguistici di grandi dimensioni. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee Guida per la Community (che, tra l'altro, vietano i contenuti illegali) e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e Informative sulla Pubblicità. 

Nel secondo semestre del 2024, tutti i nostri rilevamenti proattivi sono stati effettuati sfruttando strumenti automatizzati. Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana. Il numero e i tipi di restrizioni imposte derivanti da questa procedura sono descritti di seguito. 

  • Numero e tipi di restrizioni imposte su iniziativa di Snap

Nel secondo semestre 2024, Snap ha intrapreso le seguenti azioni espresse dopo aver rilevato in modo proattivo le violazioni delle nostre Linee Guida per la Community (comprese le violazioni di contenuti e attività illegali ai sensi delle leggi dell'UE e degli Stati membri):

Inoltre, nel secondo semestre del 2024, in relazione ai contenuti sulle nostre piattaforme di trasmissione pubbliche, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo su Snapchat, attraverso l'uso di strumenti automatizzati, violazioni delle nostre Linee guida sui contenuti per l'idoneità alle raccomandazioni:

* Come stabilito nelle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati, gli account che violano ripetutamente o in modo grave tali Linee Guida potrebbero essere esclusi temporaneamente o permanentemente dalle raccomandazioni sulle nostre piattaforme di trasmissione pubbliche. Applichiamo questa azione nell'ambito dei nostri sforzi di moderazione proattiva.

Inoltre, nel secondo semestre del 2024, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo su Snapchat, attraverso l'uso di strumenti automatizzati, violazioni delle nostre Informative sulla Pubblicità:

  • Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti

I nostri team di moderazione dei contenuti applicano le nostre politiche di moderazione dei contenuti per contribuire a proteggere la nostra community di Snapchat. Essi svolgono una formazione nell'arco di più settimane, durante le quali i nuovi membri del team verranno formati sulle politiche, gli strumenti e le procedure di escalation di Snap. I nostri team di moderazione partecipano regolarmente a corsi di aggiornamento pertinenti ai loro flussi di lavoro, in particolare quando ci troviamo di fronte a casi al limite delle politiche e che dipendono dal contesto. Inoltre, organizziamo programmi per migliorare le competenze, sessioni di abilitazione e quiz al fine di garantire che tutti i moderatori siano aggiornati e conformi a tutte le politiche aggiornate. Infine, qualora emergessero delle tendenze di contenuti urgenti sulla base degli eventi attuali, divulgheremo tempestivamente dei chiarimenti sulle politiche in modo che i team possano rispondere in conformità con le politiche di Snap.

Forniamo ai nostri team di moderazione dei contenuti di supporto e risorse importanti, tra cui supporto per il benessere sul posto di lavoro e accesso facile ai servizi di salute mentale. 

c) Reclami ricevuti tramite i sistemi interni di gestione dei reclami (ad esempio, ricorsi) di Snap 
(Articolo 15.1(d))


Gli utenti i cui account sono bloccati dai nostri team di sicurezza per violazioni delle Linee Guida per la Community (anche per contenuti e attività illegali) possono presentare ricorso contro il blocco dell'account. Gli utenti possono inoltre presentare ricorso contro alcune decisioni di moderazione dei contenuti.

Durante il periodo di segnalazione (secondo semestre 2024), Snap ha elaborato i seguenti ricorsi (inclusi i ricorsi contro il blocco degli account e le decisioni di moderazione a livello di contenuti) presentati tramite i propri sistemi interni di gestione dei reclami nell'UE:

d) Uso di mezzi automatizzati per scopi di moderazione dei contenuti 
(Articoli 15.1(e) e 42.2(c))

  • Descrizione e scopi qualitativi

Come spiegato in precedenza nella Sezione 3(b), utilizziamo strumenti automatizzati allo scopo di rilevare in modo proattivo e, in alcuni casi, applicare le violazioni dei nostri termini e politiche. Tali strumenti includono strumenti di hash-matching (tra cui PhotoDNA e Google CSAI Match), API per la sicurezza dei contenuti di Google, modelli di rilevamento del linguaggio abusivo (che rilevano e rifiutano i contenuti in base a un elenco di parole chiave ed emoji abusivi identificato e regolarmente aggiornato) e tecnologie che sfruttano l'intelligenza artificiale, l'apprendimento automatico e modelli linguistici di grandi dimensioni. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee Guida per la Community (che, tra l'altro, vietano i contenuti illegali) e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e Informative sulla Pubblicità. 

Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana. 

  • Indicatori di precisione e possibile tasso di errore, suddivisi per Stato membro

Monitoriamo indicatori di accuratezza e possibili tassi di errore dei nostri strumenti automatizzati di moderazione selezionando campioni casuali di attività elaborate dai nostri strumenti automatizzati e inviandole per ulteriore revisione da parte dei nostri team di moderazione umani. Il tasso di accuratezza corrisponde alla percentuale di attività estratte da questi campioni casuali per cui è stata confermata la correttezza delle decisioni di moderazione dopo un riesame da parte di moderatori umani. Il tasso di errore è la differenza tra il 100% e il tasso di accuratezza calcolato come descritto in precedenza. 

Monitoriamo l'accuratezza e il possibile tasso di errore per due ampie categorie di strumenti di moderazione automatizzata, vale a dire: 

  • Strumenti automatizzati che rilevano e/o applicano le violazioni delle nostre Linee Guida per la Community e possono portare a misure di applicazione nei confronti dell'account di un utente (ad esempio, avvisi applicati all'account o bloccati dall'account). In base al campionamento, nel secondo semestre 2024, il tasso di accuratezza di questi strumenti automatizzati è stato di circa il 95% mentre il tasso di errore è stato di circa il 5%. 

  • Strumenti automatizzati che rilevano e/o intervengono sui contenuti sulle nostre superfici di trasmissione pubbliche sulla base delle nostre Linee guida per i contenuti relativi all'idoneità alla sezione Consigliati. In base al campionamento, nel secondo semestre 2024, il tasso di accuratezza di questi strumenti automatizzati è stato di circa il 85% mentre il tasso di errore è stato di circa il 15%. 

In base al campionamento, nel secondo semestre 2024, il tasso di accuratezza combinato degli strumenti automatizzati utilizzati in entrambe le categorie descritte sopra è stato di circa l'89% mentre il tasso di errore è stato di circa l'11%.  


In genere, non teniamo traccia della lingua dei contenuti che moderiamo su Snapchat e, pertanto, non possiamo fornire un'analisi dettagliata dei tassi di accuratezza e di errore dei nostri strumenti automatizzati di moderazione per ogni lingua ufficiale degli Stati membri. Per far si' che queste informazioni siano simili, qui di seguito forniamo una ripartizione dei nostri tassi di accuratezza e di errore combinati per i contenuti moderati automaticamente (sia nelle nostre Linee guida per i contenuti relativi all'idoneità alla sezione Consigliati) originari di ogni Stato membro.

  • Misure di salvaguardia

Siamo consapevoli del potenziale impatto degli strumenti automatizzati di moderazione sui diritti fondamentali e adottiamo misure di salvaguardia per aiutare a ridurre al minimo tale impatto.

I nostri strumenti di moderazione automatizzata dei contenuti vengono testati prima di essere utilizzati. I modelli vengono testati offline per verificarne le prestazioni e implementati tramite test A/B per garantirne il corretto funzionamento prima di essere completamente messi in produzione. Eseguiamo revisioni della garanzia di qualità (QA) prima del lancio, revisioni del lancio e controlli di precisione QA continui durante le implementazioni parziali (graduali). 

Dopo il lancio dei nostri strumenti automatizzati, ne valutiamo costantemente le prestazioni e l'accuratezza e apportiamo le modifiche necessarie. Questo procedimento comporta la revisione di campioni di attività automatizzate da parte dei nostri moderatori umani per individuare i modelli che richiedono adattamenti volti a migliorarne la precisione. Monitoriamo, inoltre, la diffusione di danni specifici su Snapchat tramite campionamenti giornalieri casuali di alcuni contenuti pubblici e utilizziamo queste informazioni per individuare le aree in cui è possibile introdurre ulteriori miglioramenti. 

Le nostre politiche e i nostri sistemi promuovono un'applicazione coerente ed equa, anche da parte dei nostri strumenti automatizzati, e offrono agli Snapchatter l'opportunità di contestare in maniera significativa i risultati dell'applicazione delle politiche attraverso i processi di avviso e ricorso che sono volti a proteggere gli interessi della nostra community e allo stesso tempo i diritti dei singoli Snapchatter.

Ci impegniamo a migliorare costantemente i nostri strumenti automatizzati di moderazione dei contenuti per aumentarne l'accuratezza e sostenere l'applicazione coerente ed equa delle nostre politiche.

e) Controversie sottoposte agli organismi di risoluzione extragiudiziale delle controversie di cui all'Articolo 21
(Articolo 24.1(a))

Per il periodo di segnalazione (secondo semestre 2024), forniamo le seguenti informazioni sulle controversie contro Snap agli organismi di risoluzione extragiudiziale delle controversie di cui all'articolo 21 della DSA: 

La tabella precedente riflette lo stato, al 31 dicembre 2024, delle controversie presentate agli organismi di risoluzione extragiudiziale delle controversie certificati ai sensi dell'articolo 21 della DSA durante il periodo di segnalazione (secondo semestre 2024). Al 31 dicembre 2024, su 20 controversie presentate a tali organismi nel secondo semestre 2024, 15 erano in sospeso e 5 sono state risolte prima che venisse emessa una decisione. 

Da notare che non sono stati inclusi nella tabella precedente i reclami presentati a un organismo certificato ai sensi dell'articolo 21, ma che l'organismo competente ha ritenuto inammissibili prima di trasmetterli a Snap. Non ci è possibile confermare il numero di controversie che rientrano in questa categoria perché alcuni, ma non tutti, gli organismi certificati informano Snap di tali controversie. Tuttavia, siamo a conoscenza di 6 reclami che rientrano in questa categoria nel secondo semestre 2024.

f) Sospensioni imposte ai sensi dell'Articolo 23
(Articolo 24.1(b))
  • Sospensioni ai sensi dell'Articolo 23.1: sospensione degli account che forniscono frequentemente contenuti palesemente illegali 

Come spiegato nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat, gli account che riteniamo vengano utilizzati principalmente per violare le nostre Linee Guida per la Community (anche attraverso la fornitura di contenuti palesemente illegali) e gli account che causano gravi danni vengono immediatamente disabilitati. Per tutte le altre violazioni delle nostre Linee Guida per la Community, generalmente Snap applica un processo esecutivo composto da tre parti:

  • Passaggio uno: il contenuto in violazione viene rimosso.

  • Passaggio due: l'utente riceve una notifica che gli indica che ha violato le nostre Linee Guida per la Community e che i contenuti da lui pubblicati sono stati rimossi e che le violazioni ripetute comporteranno ulteriori azioni precise, inclusa la disattivazione dell'account.

  • Passaggio tre: il nostro team registra uno strike contro l'account dell'utente.

Informazioni sul numero di strike (ad esempio avvisi) e sui blocchi imposti nel secondo semestre 2024 agli account nell'UE sono disponibili nelle Sezioni 3(a) e 3(b).

  • Sospensioni ai sensi dell'Articolo 23.2: sospensione relativa all'elaborazione di avvisi e reclami di persone, entità e denuncianti che inviano frequentemente avvisi o reclami manifestamente infondati

Applicando la nostra definizione interna di avvisi e reclami "manifestamente infondati" e le nostre soglie interne per ciò che consideriamo invio frequente di tali avvisi e reclami, il numero delle sospensioni relative all'elaborazione di avvisi e reclami imposte nel secondo semestre 2024 ai sensi dell'Articolo 23.2 della DSA è il seguente:

4. Informazioni sui nostri Team di moderazione dei contenuti 
a) Risorse umane dedicate alla moderazione dei contenuti, incluso per il rispetto degli articoli 16, 20 e 22 della DSA, suddivisi per lingue ufficiali degli Stati membri
(Articolo 42.2(a))


I nostri team di moderazione dei contenuti, che consentono di mantenere al sicuro la nostra community, operano in tutto il mondo, 24 ore su 24, 7 giorni su 7. Di seguito è riportata la ripartizione delle risorse umane preposte alla moderazione in base alle specializzazioni linguistiche dei moderatori (alcuni moderatori sono specializzati in più lingue) in data 31 dicembre 2024:

La tabella sopra riportata comprende tutte le risorse umane dedicate alla moderazione dei contenuti che supportano le lingue ufficiali degli Stati membri dell'UE a partire dal 31 dicembre 2024. Nel caso in cui avessimo bisogno di un'ulteriore assistenza linguistica, ci avvarremo di servizi di traduzione.

b) Qualifiche e competenze linguistiche dei moderatori di contenuti; formazione e supporto forniti
(Articolo 42.2(b))

I moderatori vengono selezionati mediante una descrizione del ruolo standard che include un requisito linguistico (a seconda delle esigenze). Il requisito linguistico afferma che il candidato deve essere in grado di dimostrare una buona padronanza della lingua scritta e parlata e, per le posizioni entry-level, i candidati devono avere almeno un anno di esperienza lavorativa. I candidati devono soddisfare i requisiti inerenti l'istruzione e i trascorsi penali per poter essere presi in considerazione. Inoltre, i candidati devono dimostrare di avere una comprensione degli eventi attuali relativi al Paese o alla regione di moderazione dei contenuti che dovranno supportare. 


Si rimanda a quanto sopra per informazioni sulla formazione e sull'assistenza che Snap fornisce ai moderatori di contenuti, richiesta separatamente ai sensi dell'Articolo 15(1)(c) della DSA e quindi inclusa nella Sezione 3(b), nell'ultima sottosezione intitolata "Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti"

Relazione sul Media Scanning in materia di sfruttamento e abuso sessuale dei minori (CSEA)

Pubblicato: 31 gennaio 2025

Ultimo aggiornamento: 31 gennaio 2025

La presente relazione copre il periodo che va dal 1° gennaio 2024 al 31 dicembre 2024.

Contesto

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Individuare ed eliminare le immagini di sfruttamento e abuso sessuale dei minori (CSEA) sulla nostra piattaforma e prevenirne la diffusione è una priorità assoluta di Snap; per questo cerchiamo di combattere questi e altri crimini con sempre maggiore efficacia.


Ecco alcune tecnologie utilizzate: (a) il sofisticato strumento di hash-matching di PhotoDNA e il Child Sexual Abuse Imagery (CSAI) Match di Google per identificare immagini e video illegali già noti di CSEA; e (b) l'API per la sicurezza dei contenuti di Google per identificare immagini CSEA nuove e "mai sottoposte a hashing". Segnaliamo le immagini di CSEA al National Center for Missing and Exploited Children (NCMEC) degli Stati Uniti, come richiesto dalla legge. L'NCMEC, a sua volta, coordina le proprie azioni con le forze dell'ordine degli Stati Uniti o di altri Paesi, se necessario.


Relazione

Il grafico che segue include i dati sul rilevamento proattivo e sulle conseguenti azioni intraprese contro gli utenti dell'UE in relazione a immagini di CSEA nel 2024. (Attenzione: alcune azioni restrittive derivanti dal controllo proattivo nel 2024 potrebbero ancora essere oggetto di ricorso al momento della compilazione della presente relazione e pertanto non si riflettono nei dati sui ricorsi e sui casi di reintegro riportati di seguito.)

*Questa categoria riporta le azioni intraprese in risposta a violazioni delle Linee guida per la community di Snap in materia di sfruttamento sessuale di minori.  Non sono elencati i contenuti rilevati proattivamente e bloccati per altre violazioni delle Linee guida per la community di Snap.

**Un'azione restrittiva può essere revocata se stabiliamo che era errata in base alle politiche in vigore al momento dell'esecuzione, o se stabiliamo che è stata applicata correttamente, ma che la politica applicabile è cambiata al momento della revisione del ricorso.

Garanzie per la moderazione dei contenuti

Le garanzie applicate per il CSEA Media Scanning sono riportate nella relazione per la trasparenza sul DSA dell'UE di cui sopra.

Relazione per la trasparenza dei contenuti online dei terroristi dell'Unione europea

Pubblicato: 28 febbraio 2025

Ultimo aggiornamento: 28 febbraio 2025

Ciclo di segnalazione: 1 gennaio 2024 - 31 dicembre 2024

La presente relazione per la trasparenza è pubblicata in conformità agli articoli 7(2) e 7(3) del Regolamento 2021/784 del Parlamento europeo e del Consiglio dell'UE, riguardanti la diffusione di contenuti terroristici online (il Regolamento). Copre il periodo di segnalazione dal 1° gennaio al 31 dicembre 2024

Informazioni generali
  • Articolo 7(3)(a): informazioni sulle misure del fornitore di servizi di hosting in relazione all'individuazione e alla rimozione o alla disattivazione degli accessi a contenuti terroristici

  • Articolo 7(3)(b): informazioni sulle misure del fornitore di servizi di hosting per affrontare la ricomparsa online di materiale che è stato precedentemente rimosso o al quale è stato disattivato l'accesso perché considerato contenuto terroristico, in particolare quando sono stati utilizzati strumenti automatizzati


Snapchat ha un'incidenza molto bassa di contenuti terroristici e non ha ricevuto un ordine di rimozione ai sensi del Regolamento nel 2024.

A terroristi, organizzazioni terroristiche ed estremisti violenti è vietato utilizzare Snapchat. I contenuti che sostengono, promuovono, esaltano o promuovono il terrorismo o altri atti violenti e criminali sono vietati dalle nostre Linee Guida per la Community. Gli utenti sono in grado di segnalare contenuti che violano le Linee Guida per la Community tramite il nostro menu di segnalazione in app o il nostro Sito di assistenza. Utilizziamo, inoltre, il rilevamento proattivo per tentare di individuare i contenuti non conformi su piattaforme pubbliche come Spotlight e Scopri.


Indipendentemente da come potremmo venire a conoscenza di violazioni dei contenuti, i nostri team di sicurezza, attraverso una combinazione di automazione e moderazione umana, esaminano tempestivamente i contenuti individuati e prendono decisioni in materia di applicazione delle norme. Le esecuzioni possono includere la rimozione dei contenuti, l'avviso o la disabilitazione dell'account non conforme e, se necessario, la segnalazione dell'account alle forze dell'ordine. Per evitare la ricomparsa di contenuti terroristici o altri contenuti estremisti violenti su Snapchat, oltre a collaborare con le forze dell'ordine, adottiamo misure per bloccare il dispositivo associato all'account in violazione e impedire all'utente di creare un altro account Snapchat. 


Ulteriori dettagli sulle nostre misure per individuare e rimuovere i contenuti terroristici sono disponibili nella nostra Guida esplicativa sui contenuti d'odio, il terrorismo e l'estremismo violento e nella nostra Guida esplicativa sulla moderazione, l'applicazione delle regole e i ricorsi



Segnalazioni e interventi 
  • Articolo 7(3)(c): il numero di elementi di contenuti terroristici rimossi o ai quali è stato disattivato l'accesso a seguito di ordini di rimozione o misure specifiche e il numero di ordini di rimozione in cui i contenuti non sono stati rimossi o ai quali l'accesso non è stato disattivato ai sensi dell'articolo 3(7) primo comma e dell'articolo 3(8), insieme ai relativi motivi


Durante il periodo di segnalazione, Snap non ha ricevuto ordini di rimozione né è stato necessario implementare misure specifiche ai sensi dell'Articolo 5 del Regolamento. Di conseguenza, non siamo stati tenuti ad intraprendere esecutive ai sensi del Regolamento.

La tabella seguente descrive le azioni coercitive intraprese sulla base delle segnalazioni degli utenti e del rilevamento proattivo di contenuti e account, sia nell'UE che in altre parti del mondo, che violavano le nostre Linee Guida per la Community in materia di terrorismo ed estremismo violento.

Ricorsi di esecuzione
  • Articolo 7(3)(d): il numero e l'esito dei reclami gestiti dal fornitore di servizi di hosting in conformità all'Articolo 10

  • Articolo 7(3)(g): il numero di casi in cui il fornitore di servizi di hosting ha ripristinato i contenuti o accessi agli stessi a seguito di un reclamo da parte del fornitore di contenuti

Poiché non abbiamo ricevuto richieste di azioni esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo gestito alcun reclamo ai sensi dell'Articolo 10 del Regolamento e non abbiamo ricevuto reintegrazioni associate.

La tabella seguente contiene informazioni relative ai ricorsi e alle reintegrazioni, sia nell'UE che in altre parti del mondo, che coinvolgono contenuti terroristici ed estremisti violenti applicati secondo le nostre Linee Guida per la Community.

Procedimenti giudiziari e ricorsi
  • Articolo 7(3)(e): il numero e l'esito dei procedimenti di riesame amministrativo o giudiziario avviati dal fornitore di servizi di hosting

  • Articolo 7(3)(f): il numero di casi in cui il fornitore di servizi di hosting ha avuto l'esigenza di ripristinare i contenuti o accedervi a seguito di procedimenti di riesame amministrativo o giudiziario

Dato che non abbiamo ricevuto richieste di misure esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo avuto alcun procedimento di riesame amministrativo o giudiziario associato e non abbiamo avuto l'obbligo di ripristinare i contenuti a seguito di tali procedure.

Valutazione dei rischi DSA

La presente relazione è stata redatta con l'obiettivo di rispettare gli obblighi di Snap ai sensi degli articoli 34 e 35 del Regolamento (UE) 2022/2065. Mostra i risultati della nostra valutazione dei rischi di sistema derivanti dalla progettazione, dalla funzione e dall'uso delle piattaforme online di Snapchat, oltre alla metodologia utilizzata per valutare tali rischi e alle misure di mitigazione messe in atto per affrontare tali rischi.


Relazione sulla valutazione dei rischi e sulla mitigazione DSA | Snapchat | agosto 2023 (PDF)


Audit DSA e implementazione Audit

Queste relazioni sono state redatte per rispettare gli obblighi di Snap ai sensi dell'Articolo 37 del Regolamento (UE) 2022/2065 e contengono: (i) i risultati dell'audit indipendente della conformità di Snap con gli obblighi stabiliti nel Capitolo III del Regolamento (UE) 2022/2065 e (ii) le misure adottate per attuare le raccomandazioni operative di tale Audit indipendente.

Relazione sull'Audit indipendente DSA | Snapchat | agosto 2024 (PDF)

Relazione sull'implementazione dell'audi DSA | Snapchat | settembre 2024 (PDF)



Codice di condotta EU VSP

Snap è un fornitore del “servizio di condivisione video su piattaforma”(”VSP”) ai sensi dell'articolo 1(1)(AN) AVMSD. Il presente Codice di condotta (“Codice”) è stato redatto per descrivere in che modo Snap rispetta i suoi obblighi ai sensi della normativa olandese sui media (“DMA”) e della Direttiva (EU) 2010/13 (come modificata dalla Direttiva (EU) 2018/1808 (la “Direttiva sui Servizi Media Audiovisivi” o “AVMSD”)). Il Codice è applicabile in tutta l'Unione Europea e nello Spazio Economico Europeo.

Codice di condotta EU VSP | Snapchat | Marzo 2025 (PDF)

Bulgaro | Croato | Ceco | Danese | Olandese | Estone | Finlandese | Francese | Tedesco | Greco | Ungherese | Irlandese | Italiano | Lettone | Lituano | Maltese | Polacco | Portoghese | Romeno | Slovacco | Sloveno | Spagnolo | Svedese