Privacy, Safety, and Policy Hub
Unione Europea
1 gennaio 2024 - 30 giugno 2024

Pubblicato:

25 ottobre 2024

Aggiornato:

17 dicembre 2024

Ti diamo il benvenuto nella nostra pagina sulla trasparenza dell'Unione Europea (UE), dove pubblichiamo informazioni specifiche per l'UE in osservanza alla Normativa sui servizi digitali (DSA), alla Direttiva sui servizi di media audiovisivi (AVMSD), al Dutch Media Act (DMA) e al Regolamento relativo ai contenuti terroristici online (TCO). Tieni presente che la versione più aggiornata delle presenti relazioni sulla trasparenza è disponibile in lingua en-US.

Rappresentante legale 

Snap Group Limited ha nominato Snap B.V. come suo Rappresentante legale per gli scopi della DSA. Puoi contattare il rappresentante all'indirizzo dsa-enquiries [at] snapchat.com in merito a DSA, all'indirizzo vsp-enquiries [at] snapchat.com in merito a AVMSD e DMA, all'indirizzo tco-enquiries [at] snapchat.com in merito a TCO, tramite il nostro Sito di assistenza [qui], oppure all'indirizzo:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Paesi Bassi

Se fai parte delle forze dell'ordine, segui i passaggi descritti qui.

Contattaci in lingua olandese o inglese.

Autorità di regolamentazione

Per quanto riguarda la DSA, siamo regolamentati dalla Commissione europea e dall'Autorità olandese per i consumatori e i mercati (ACM). Per quanto concerne l'AVMSD e il DMA, siamo regolamentati dall'Autorità olandese per i media (CvdM). Per quanto riguarda il TCO, siamo regolamentati dall'Autorità olandese per la prevenzione dei contenuti terroristici online e del materiale di abuso sessuale su minori (ATKM).

Relazione per la trasparenza DSA

Ultimo aggiornamento: 25 ottobre 2024

Pubblichiamo la presente relazione sulle nostre attività di moderazione dei contenuti su Snapchat in conformità ai requisiti di segnalazione per la trasparenza previsti dagli articoli 15, 24 e 42 del Digital Services Act dell'Unione Europea (UE) (Regolamento (UE) 2022/2065) ("DSA"). Salvo diversa indicazione, le informazioni contenute nella presente relazione si riferiscono al periodo di segnalazione compreso tra il 1° gennaio 2024 e il 30 giugno 2024 (primo semestre 2024) e riguardano la moderazione dei contenuti sulle funzionalità di Snapchat regolamentate dalla DSA. 

Ci impegniamo costantemente a migliorare le nostre relazioni. Per questo periodo di segnalazione (primo semestre 2024), abbiamo apportato modifiche alla struttura della nostra relazione con tabelle nuove e più differenziate per fornire una migliore panoramica delle nostre attività di moderazione dei contenuti. 

1. Media destinatari attivi al mese 
(Articoli DSA 24.2 e 42.3)


Al 1° ottobre 2024, abbiamo in media 92,9 milioni di destinatari attivi su base mensile (“AMAR”) nella nostra app Snapchat nell'UE. Questo significa che in media, nel periodo di 6 mesi conclusosi il 30 settembre 2024, 92,9 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue:

Queste cifre sono state calcolate per soddisfare gli attuali requisiti DSA e dovrebbero essere utilizzate solo per scopi DSA. Nel corso del tempo abbiamo cambiato il modo di calcolare questa cifra, anche in seguito al cambiamento delle politiche interne, degli orientamenti delle autorità di regolamentazione e della tecnologia. Per questo motivo non è possibile fare un confronto diretto tra un periodo e l'altro. Inoltre, potrebbe differire dai calcoli utilizzati per altri dati relativi agli utenti attivi che pubblichiamo per altri scopi.

2. Richieste delle autorità degli Stati membri
(Articolo 15.1(a) del DSA)
a) Ordini di agire contro contenuti illegali


Durante questo periodo di segnalazione (primo semestre 2024), abbiamo ricevuto zero (0) ordini di agire contro contenuti illegali appositamente individuati dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 9 della DSA. 

Poiché questo numero è zero (0), non possiamo fornire un'analisi dettagliata per tipo di contenuti illegali interessati o per Stato membro che ha emesso l'ordine o i tempi medi per confermare la ricezione o dare esecuzione agli ordini.

b) Ordini di fornire informazioni 


Durante questo periodo di segnalazione (primo semestre 2024), abbiamo ricevuto i seguenti ordini di divulgare i dati degli utenti dalle autorità degli Stati membri dell'UE, inclusi quelli emessi in conformità all'articolo 10 della DSA:


Il tempo medio per informare le autorità competenti della ricezione di questi ordini di fornire informazioni è stato di 0 minuti: forniamo una risposta automatizzata a conferma della ricezione. 

Il tempo medio per dare effetto a questi ordini di fornire informazioni è stato di circa 7 giorni. Questo parametro riflette il periodo di tempo da quando Snap ha ricevuto un ordine e il momento in cui Snap ha ritenuto che la questione fosse completamente risolta, che nei singoli casi può dipendere in parte dalla velocità con cui l'autorità dello Stato membro competente risponde a qualsiasi richiesta di chiarimento da parte di Snap necessaria per elaborare l'ordine.

Nota, non forniamo un'analisi dettagliata degli ordini di cui sopra per fornire informazioni categorizzate per tipo di contenuti illegali in questione perché queste informazioni non sono generalmente a nostra disposizione.

3. Moderazione dei contenuti 


Tutti i contenuti su Snapchat devono rispettare le nostre Linee Guida per la Community e i nostri Termini di Servizio. Alcuni contenuti devono inoltre rispettare linee guida e politiche. Ad esempio, i contenuti inviati per la raccomandazione algoritmica a un pubblico più ampio sulle nostre piattaforme di trasmissione pubbliche devono soddisfare gli standard aggiuntivi e più elevati forniti nelle nostre Linee guida sui contenuti per l'idoneità alla raccomandazione, mentre gli annunci devono essere conformi alle nostre Politiche pubblicitarie.

Applichiamo queste politiche utilizzando la tecnologia e la revisione umana. Forniamo inoltre meccanismi che consentono agli Snapchatter di segnalare violazioni, inclusi contenuti e attività illegali, direttamente in-app o attraverso il nostro sito web. I meccanismi di rilevamento proattivo e i report richiedono una revisione, che si avvale di un mix di strumenti automatizzati e di moderatori umani per intraprendere azioni appropriate in conformità con le nostre politiche. 

Forniamo ulteriori informazioni sulla nostra moderazione dei contenuti sulle nostre piattaforme pubbliche nel primo semestre 2024 di seguito.

a) Avvisi inviati in conformità all'articolo 16 della DSA 
(Articolo 15.1 (b))

In conformità con l'Articolo 16 della DSA, Snap ha istituito meccanismi che consentono agli utenti e ai non utenti di comunicare a Snap la presenza su Snapchat di elementi specifici di informazioni che considerano essere contenuti illegali. Possono farlo segnalando contenuti o account specifici, direttamente nell'app Snapchat o sul nostro sito web. 

Durante il periodo di segnalazione (primo semestre 2024), abbiamo ricevuto le seguenti segnalazioni inviate in conformità all'articolo 16 della DSA nell'UE:


Di seguito, forniamo un'analisi dettagliata che riflette il modo in cui sono state elaborate tali segnalazioni, ad esempio, attraverso un processo che ha incluso la revisione umana o esclusivamente tramite mezzi automatizzati: 

Per quanto riguarda le segnalazioni in-app o tramite il nostro sito web, chi effettua la segnalazione può selezionare un motivo specifico da un menu di opzioni che rispecchiano le categorie di violazioni elencate nelle nostre Linee Guida per la Community (ad esempio, incitamento all'odio, assunzione di droghe o vendita). Le nostre Linee Guida per la Community vietano contenuti e attività illegali nell'Unione Europea, pertanto i motivi di segnalazione riflettono in larga misura le categorie specifiche di contenuti illegali nell'Unione Europea. Tuttavia, qualora chi effettua la segnalazione nell'Unione Europea ritenga che il contenuto o l'account che sta segnalando sia illegale per ragioni non specificamente menzionate nel nostro menu delle segnalazioni, ha l'opportunità di selezionare "altri contenuti illegali" e di spiegare i motivi di illegalità alla base della sua segnalazione. 

Se, dopo la revisione, stabiliamo che il contenuto o l'account segnalato viola le nostre Linee Guida per la Community (anche per motivi di illegalità), potremmo (i) rimuovere il contenuto in violazione (ii) avvisare il titolare dell'account in questione e assegnare un avvertimento nei confronti dell'account e/o (iii) bloccare l'account, come illustrato nei dettagli nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat

Nel primo semestre del 2024, abbiamo intrapreso le seguenti azioni di contrasto al ricevimento delle segnalazioni presentate in conformità all'articolo 16 della DSA nell'Unione Europea:

Nel primo semestre 2024, tutte le segnalazioni relative ad "altri contenuti illegali" che abbiamo processato sono state in ultima analisi applicate secondo le nostre Linee Guida per la Community perché le nostre Linee Guida per la Community vietavano i contenuti o le attività relative. Abbiamo quindi categorizzato queste esecuzioni sotto la categoria pertinente di violazione delle Linee Guida per la Community nella tabella di cui sopra.

Oltre alle suddette esecuzioni, potremmo intraprendere azioni sui contenuti comunicati a noi in conformità con altre politiche e linee guida applicabili di Snap: 

  • Per quanto riguarda i contenuti sulle nostre piattaforme di trasmissione pubbliche, se riteniamo che i contenuti segnalati non soddisfino gli standard più elevati delle nostre Linee guida sui contenuti per l'idoneità alla raccomandazione, potremmo rifiutare i contenuti per la raccomandazione algoritmica (se i contenuti non soddisfano i nostri criteri di idoneità) o potremmo limitare la distribuzione dei contenuti per escludere il pubblico sensibile (se i contenuti soddisfano i nostri criteri di idoneità alla raccomandazione, ma sono altrimenti sensibili o suggestivi).

Nel primo semestre 2024, abbiamo intrapreso le seguenti azioni relative ai contenuti sulle piattaforme di trasmissione pubbliche di Snapchat segnalateci nell'UE, in conformità con le nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati:

  • Se riteniamo che una pubblicità segnalata violi le nostre Informative sulla Pubblicità, possiamo rimuoverla dopo averla esaminata. 


Nel primo semestre del 2024, abbiamo intrapreso le seguenti azioni relative alle pubblicità che ci sono state segnalate nell'UE:


b) Moderazione dei contenuti su iniziativa di Snap 
(Articolo 15.1(c))


Oltre a esaminare le segnalazioni inviate in conformità all'Articolo 16 della DSA, Snap modera, di propria iniziativa, i contenuti sulle piattaforme pubbliche di Snapchat (ad esempio, Spotlight, Scopri). Di seguito forniamo informazioni sulla moderazione dei contenuti effettuata su iniziativa di Snap, tra cui l'uso di strumenti automatizzati, le misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti e il numero e i tipi di restrizioni imposte a seguito di tali sforzi di moderazione proattiva dei contenuti.


  • Utilizzo di strumenti automatizzati nell'ambito della moderazione di propria iniziativa di Snap


Utilizziamo strumenti automatizzati per rilevare in modo proattivo e, in alcuni casi, applicare misure a contrasto delle violazioni dei nostri termini e politiche sulle nostre piattaforme di Contenuti Pubblici. Ciò include strumenti di corrispondenza per gli hashtag (come PhotoDNA e Google CSAI Match), modelli di rilevamento di un linguaggio offensivo (che rilevano e rifiutano i contenuti sulla base di un elenco individuato e regolarmente aggiornato di parole chiave ed emoji offensive) e tecnologia di intelligenza artificiale/apprendimento automatico. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee Guida per la Community (che, tra l'altro, vietano i contenuti illegali) e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e Informative sulla Pubblicità. 


Nel primo semestre del 2024, tutti i nostri rilevamenti proattivi sono stati effettuati tramite strumenti automatizzati. Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana. Il numero e i tipi di restrizioni imposte derivanti da questa procedura sono descritti di seguito. 


  • Numero e tipi di restrizioni imposte su iniziativa di Snap


Nel primo semestre del 2024, Snap ha intrapreso le seguenti azioni di contrasto dopo aver rilevato in modo proattivo, attraverso l'uso di strumenti automatizzati, violazioni delle nostre Linee Guida per la Community (incluse le violazioni riferite a contenuti e attività illegali ai sensi delle leggi dell'UE e degli Stati membri):

Inoltre, nel primo semestre del 2024, in relazione ai contenuti sulle nostre piattaforme di trasmissione pubbliche, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo su Snapchat, attraverso l'uso di strumenti automatizzati, violazioni delle nostre Linee guida sui contenuti relative all'idoneità alla sezione Consigliati:

* Come stabilito nelle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati, gli account che violano ripetutamente o in modo grave tali Linee Guida potrebbero essere esclusi temporaneamente o permanentemente dalle raccomandazioni sulle nostre piattaforme di trasmissione pubbliche. Applichiamo questa azione nell'ambito dei nostri sforzi di moderazione proattiva.

Inoltre, nel primo semestre del 2024, abbiamo intrapreso le seguenti azioni dopo aver rilevato in modo proattivo su Snapchat, attraverso l'uso di strumenti automatizzati, violazioni delle nostre Informative sulla Pubblicità:

  • Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti


I nostri team di moderazione dei contenuti applicano le nostre politiche di moderazione dei contenuti per contribuire a proteggere la nostra community di Snapchat. Essi svolgono una formazione nell'arco di più settimane, durante le quali i nuovi membri del team verranno formati sulle politiche, gli strumenti e le procedure di escalation di Snap. I nostri team di moderazione partecipano regolarmente a corsi di aggiornamento pertinenti ai loro flussi di lavoro, in particolare quando ci troviamo di fronte a casi al limite delle politiche e che dipendono dal contesto. Inoltre, organizziamo programmi per migliorare le competenze, sessioni di abilitazione e quiz al fine di garantire che tutti i moderatori siano aggiornati e conformi a tutte le politiche aggiornate. Infine, qualora emergessero delle tendenze di contenuti urgenti sulla base degli eventi attuali, divulgheremo tempestivamente dei chiarimenti sulle politiche in modo che i team possano rispondere in conformità con le politiche di Snap.


Forniamo ai nostri team di moderazione dei contenuti supporto e risorse importanti, tra cui supporto per il benessere sul posto di lavoro e accesso facile ai servizi di salute mentale. 

c) Reclami ricevuti tramite i sistemi interni di gestione dei reclami (ad esempio, ricorsi) di Snap 
(Articolo 15.1(d))


Gli utenti i cui account sono bloccati dai nostri team di sicurezza per violazioni delle Linee Guida per la Community (anche per contenuti e attività illegali) possono presentare ricorso contro il blocco dell'account. Gli utenti possono inoltre presentare ricorso contro alcune decisioni di moderazione dei contenuti.

Durante il periodo di segnalazione (primo semestre 2024), Snap ha elaborato i seguenti ricorsi (inclusi i ricorsi contro il blocco degli account e le decisioni di moderazione a livello di contenuti) presentati tramite i propri sistemi interni di gestione dei reclami nell'UE:

d) Uso di mezzi automatizzati per scopi di moderazione dei contenuti 
(Articoli 15.1(e) e 42.2(c))

  • Descrizione e scopi qualitativi


Come spiegato in precedenza nella Sezione 3(b), utilizziamo strumenti automatizzati allo scopo di rilevare in modo proattivo e, in alcuni casi, applicare le violazioni dei nostri termini e politiche sulle nostre piattaforme di contenuti pubblici. Ciò include strumenti di corrispondenza per gli hashtag (come PhotoDNA e Google CSAI Match), modelli di rilevamento di un linguaggio offensivo (che rilevano e rifiutano i contenuti sulla base di un elenco individuato e regolarmente aggiornato di parole chiave ed emoji offensive) e tecnologia di intelligenza artificiale/apprendimento automatico. I nostri strumenti automatizzati sono progettati per rilevare le violazioni delle nostre Linee Guida per la Community (che, tra l'altro, vietano i contenuti illegali) e, ove applicabile, delle nostre Linee guida per i contenuti relative all'idoneità alla sezione Consigliati e Informative sulla Pubblicità. 

Quando i nostri strumenti automatizzati rilevano una potenziale violazione delle nostre politiche, intervengono automaticamente in conformità con le nostre politiche o creano un'attività per la revisione umana.

  • Indicatori di precisione e possibile tasso di errore, suddivisi per Stato membro


Monitoriamo l'accuratezza dei nostri strumenti automatizzati di moderazione selezionando campioni casuali di attività elaborate dai nostri strumenti automatizzati sulle nostre piattaforme pubbliche e inviandoli per una nuova revisione da parte dei nostri team di moderazione umana. Il tasso di accuratezza è la percentuale di attività provenienti da questi campioni casuali che sono state accolte dai nostri moderatori umani al momento della nuova revisione. Il tasso di errore è la differenza tra il 100% e il tasso di accuratezza calcolato come descritto in precedenza.

Sulla base di campionamenti, nel primo semestre 2024, gli indicatori di accuratezza e il possibile tasso di errore dei mezzi automatizzati utilizzati in tutte le categorie di violazioni sono stati di circa il 93% e il tasso di errore è stato di circa il 7%.

In genere, non teniamo traccia della lingua dei contenuti che moderiamo su Snapchat e, pertanto, non possiamo fornire un'analisi dettagliata dei tassi di accuratezza e di errore dei nostri strumenti automatizzati di moderazione per ogni lingua ufficiale degli Stati membri. In qualità di rappresentante delle presenti informazioni, forniamo di seguito un'analisi dettagliata dei nostri tassi di accuratezza e di errore per i contenuti moderati automaticamente provenienti da ogni Stato membro.

  • Misure di salvaguardia


Siamo consapevoli del potenziale impatto degli strumenti automatizzati di moderazione sui diritti fondamentali e adottiamo misure di salvaguardia per ridurre al minimo tale impatto.

I nostri strumenti automatizzati di moderazione dei contenuti vengono testati prima di essere implementati su Snapchat. I modelli vengono testati offline per verificarne le prestazioni e implementati tramite test A/B per garantirne il corretto funzionamento prima di essere completamente messi in produzione. Eseguiamo revisioni della garanzia di qualità (QA) prima del lancio, revisioni del lancio e controlli di precisione QA continui durante le implementazioni parziali (graduali). 

Dopo il lancio dei nostri strumenti automatizzati, ne valutiamo costantemente le prestazioni e l'accuratezza e apportiamo le modifiche necessarie. Questo procedimento comporta la revisione di campioni di attività automatizzate da parte dei nostri moderatori umani per individuare i modelli che richiedono adattamenti volti a migliorarne la precisione. Monitoriamo, inoltre, la diffusione di danni specifici su Snapchat tramite campionamenti giornalieri casuali delle Storie pubbliche e utilizziamo queste informazioni per individuare le aree in cui è possibile introdurre ulteriori miglioramenti. 

Le nostre politiche e i nostri sistemi promuovono un'applicazione coerente ed equa, anche da parte dei nostri strumenti automatizzati, e offrono agli Snapchatter l'opportunità di contestare in maniera significativa i risultati dell'applicazione delle politiche attraverso i processi di avviso e ricorso che sono volti a proteggere gli interessi della nostra community e allo stesso tempo i diritti dei singoli Snapchatter.

Ci impegniamo a migliorare costantemente i nostri strumenti automatizzati di moderazione dei contenuti per aumentarne l'accuratezza e sostenere l'applicazione coerente ed equa delle nostre politiche.

e) Controversie sottoposte agli organismi di risoluzione extragiudiziale delle controversie di cui all'Articolo 21
(Articolo 24.1(a))

Per il periodo di riferimento (primo semestre 2024), il numero di controversie sottoposte a organismi di risoluzione extragiudiziale delle controversie formalmente certificati ai sensi dell'Articolo 21 della DSA è stato pari a zero (0) e non siamo in grado di fornire un'analisi dettagliata in base agi esiti, ai tempi medi di completamento o alla quota di controversie in cui Snap ha attuato le decisioni di un organismo di risoluzione extragiudiziale delle controversie. 

Tieni presente che, nel primo semestre del 2024, abbiamo ricevuto due (2) avvisi di controversie presentate a un organismo che chiedeva la certificazione in qualità di organismo di risoluzione extragiudiziale delle controversie ai sensi dell'Articolo 21 della DSA. Non abbiamo incluso tali controversie nel conteggio di cui sopra poiché l'organismo che ha trasmesso tali avvisi di controversie non è stato in grado di verificare lo stato di certificazione su nostra richiesta.

f) Sospensioni imposte ai sensi dell'Articolo 23 
(Articolo 24.1(b))
  • Sospensioni ai sensi dell'Articolo 23.1: sospensione degli account che forniscono frequentemente contenuti palesemente illegali 

Come spiegato nella nostra Guida su Moderazione, applicazione delle regole e ricorsi di Snapchat, gli account che riteniamo vengano utilizzati principalmente per violare le nostre Linee Guida per la Community (anche attraverso la fornitura di contenuti palesemente illegali) e gli account che causano gravi danni vengono immediatamente disabilitati. Per tutte le altre violazioni delle nostre Linee Guida per la Community, generalmente Snap applica un processo esecutivo composto da tre parti:

  • Passaggio uno: il contenuto in violazione viene rimosso.

  • Passaggio due: lo Snapchatter riceve una notifica che indica che ha violato le nostre Linee Guida per la Community, che il suo contenuto è stato rimosso e che le violazioni ripetute comporteranno ulteriori azioni coercitive, tra cui la disattivazione dell'account.

  • Passaggio tre: il nostro team registra uno strike contro l'account dello Snapchatter.

Le informazioni relative al numero di strike (cioè di avvertimenti) e di blocchi imposti nel primo semestre 2024 agli account nell'UE in relazione a contenuti o attività sulle piattaforme pubbliche di Snapchat sono riportate sopra, nelle Sezioni 3(a) e 3(b).

  • Sospensioni ai sensi dell'Articolo 23.2: sospensione relativa all'elaborazione di avvisi e reclami di persone, entità e denuncianti che inviano frequentemente avvisi o reclami manifestamente infondati

Applicando la nostra definizione interna di avvisi e reclami "manifestamente infondati" e le nostre soglie interne per ciò che consideriamo invio frequente di tali avvisi e reclami, il numero delle sospensioni relative all'elaborazione di avvisi e reclami imposte nel primo semestre 2024 ai sensi dell'Articolo 23.2 della DSA è il seguente:

4. Informazioni sui nostri Team di moderazione dei contenuti 
a) Risorse umane dedicate alla moderazione dei contenuti, incluso per il rispetto degli articoli 16, 20 e 22 della DSA, suddivisi per lingue ufficiali degli Stati membri
(Articolo 42.2(a))


I nostri team di moderazione dei contenuti operano in tutto il mondo, consentendoci di mantenere gli Snapchatter al sicuro 24 ore su 24, 7 giorni su 7. Di seguito troverai la ripartizione delle nostre risorse umane di moderazione in base alle specializzazioni linguistiche dei moderatori (nota che alcuni moderatori sono specializzati in più lingue) alla data del 30 giugno 2024:

La tabella sopra riportata comprende tutte le risorse umane dedicate alla moderazione dei contenuti che supportano le lingue ufficiali degli Stati membri dell'UE a partire dal 30 giugno 2024. Nel caso in cui avessimo bisogno di un'ulteriore assistenza linguistica, ci avvarremo di servizi di traduzione.

b) Qualifiche e competenze linguistiche dei moderatori di contenuti; formazione e supporto forniti
(Articolo 42.2(b))


I moderatori vengono selezionati mediante una descrizione del ruolo standard che include un requisito linguistico (a seconda delle esigenze). In base a tale requisito linguistico, il candidato deve essere in grado di dimostrare una padronanza della lingua scritta e orale e avere almeno un anno di esperienza lavorativa in posizioni entry-level. I candidati devono soddisfare i requisiti inerenti l'istruzione e i trascorsi penali per poter essere presi in considerazione. Inoltre, i candidati devono dimostrare di avere una comprensione degli eventi attuali relativi al Paese o alla regione di moderazione dei contenuti che dovranno supportare. 

Si rimanda a quanto sopra per informazioni sulla formazione e sull'assistenza che Snap fornisce ai moderatori di contenuti, richiesta separatamente ai sensi dell'Articolo 15(1)(c) della DSA e quindi inclusa nella Sezione 3(b), nell'ultima sottosezione intitolata "Misure adottate per fornire formazione e assistenza alle persone incaricate della moderazione dei contenuti"

Relazione sulla scansione dei media sullo sfruttamento e l'abuso sessuale dei minori (CSEA)


Background

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.


Utilizziamo l'hash-matching avanzato di PhotoDNA e la corrispondenza CSAI (Child Sexual Abuse Imagery) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.


Relazione

I dati seguenti si basano sul risultato di una scansione proattiva utilizzando PhotoDNA e/o corrispondenza CSAI dei media caricati dal Rullino di un utente su Snapchat.

Fermare lo sfruttamento sessuale dei minori è una priorità assoluta. Snap dedica importanti risorse a questo proposito e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Durante l'autunno del 2023, Snap ha implementato delle modifiche alla politica che hanno influito sulla coerenza di alcune esecuzioni CSE e abbiamo affrontato queste incongruenze mediante la riqualificazione degli agenti e un rigoroso controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle esecuzioni iniziali.  

Garanzie per la moderazione dei contenuti

Le garanzie applicate per la scansione dei contenuti multimediali CSEA sono illustrate nella sezione "Garanzie per la moderazione dei contenuti" della relazione DSA.


Relazione per la trasparenza dei contenuti online dei terroristi dell'Unione europea

Pubblicato: 17 giugno 2024

Ultimo aggiornamento: 17 giugno 2024

La presente relazione per la trasparenza è pubblicata in conformità agli articoli 7(2) e 7(3) del Regolamento 2021/784 del Parlamento europeo e del Consiglio dell'UE, riguardanti la diffusione di contenuti terroristici online (il Regolamento). Copre il periodo di segnalazione dal 1 gennaio al 31 dicembre 2023.


Informazioni generali
  • Articolo 7(3)(a): informazioni sulle misure del fornitore di servizi di hosting in relazione all'individuazione e alla rimozione o alla disattivazione degli accessi a contenuti terroristici

  • Articolo 7(3)(b): informazioni sulle misure del fornitore di servizi di hosting per affrontare la ricomparsa online di materiale che è stato precedentemente rimosso o al quale è stato disattivato l'accesso perché considerato contenuto terroristico, in particolare quando sono stati utilizzati strumenti automatizzati


A terroristi, organizzazioni terroristiche ed estremisti violenti è vietato utilizzare Snapchat. I contenuti che sostengono, promuovono, esaltano o promuovono il terrorismo o altri atti violenti e criminali sono vietati dalle nostre Linee Guida per la Community. Gli utenti sono in grado di segnalare contenuti che violano le Linee Guida per la Community tramite il nostro menu di segnalazione in app o il nostro Sito di assistenza. Utilizziamo, inoltre, il rilevamento proattivo per tentare di individuare i contenuti non conformi su piattaforme pubbliche come Spotlight e Scopri.


Indipendentemente da come potremmo venire a conoscenza di violazioni dei contenuti, i nostri team di Fiducia e Sicurezza, attraverso una combinazione di automazione e moderazione umana, esaminano tempestivamente i contenuti individuati e prendono decisioni in materia di applicazione delle norme. Le esecuzioni possono includere la rimozione dei contenuti, l'avviso o il blocco dell'account non conforme e, se necessario, la segnalazione dell'account alle forze dell'ordine. Per evitare la ricomparsa di contenuti terroristici o altri contenuti estremisti violenti su Snapchat, oltre a collaborare con le forze dell'ordine, adottiamo misure per bloccare il dispositivo associato all'account in violazione e impedire all'utente di creare un altro account Snapchat. 


Ulteriori dettagli sulle nostre misure per individuare e rimuovere i contenuti terroristici sono disponibili nella nostra Guida esplicativa sui contenuti d'odio, il terrorismo e l'estremismo violento e nella nostra Guida esplicativa sulla moderazione, l'applicazione delle regole e i ricorsi



Segnalazioni ed esecuzioni
  • Articolo 7(3)(c): il numero di elementi di contenuti terroristici rimossi o ai quali è stato disattivato l'accesso a seguito di ordini di rimozione o misure specifiche e il numero di ordini di rimozione in cui i contenuti non sono stati rimossi o ai quali l'accesso non è stato disattivato ai sensi dell'articolo 3(7) primo comma e dell'articolo 3(8), insieme ai relativi motivi


Durante il periodo di segnalazione, Snap non ha ricevuto ordini di rimozione né è stato necessario implementare misure specifiche ai sensi dell'Articolo 5 del Regolamento. Di conseguenza, non siamo stati tenuti ad intraprendere esecutive ai sensi del Regolamento.


La tabella seguente descrive le azioni esecutive intraprese sulla base di segnalazioni degli utenti e il rilevamento proattivo contro contenuti e account, sia nell'UE che in altre parti del mondo, che hanno violato le nostre Linee Guida per la Community in materia di terrorismo ed estremismo violento

Ricorsi di esecuzione
  • Articolo 7(3)(d): il numero e l'esito dei reclami gestiti dal fornitore di servizi di hosting in conformità all'Articolo 10

  • Articolo 7(3)(g): il numero di casi in cui il fornitore di servizi di hosting ha ripristinato i contenuti o accessi agli stessi a seguito di un reclamo da parte del fornitore di contenuti


Poiché non abbiamo ricevuto richieste di azioni esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo gestito alcun reclamo ai sensi dell'Articolo 10 del Regolamento e non abbiamo ricevuto reintegrazioni associate.


La tabella seguente contiene informazioni relative ai ricorsi e alle reintegrazioni, sia nell'UE che in altre parti del mondo, che coinvolgono contenuti terroristici ed estremisti violenti applicati secondo le nostre Linee Guida per la Community.

Procedimenti giudiziari e ricorsi
  • Articolo 7(3)(e): il numero e l'esito dei procedimenti di riesame amministrativo o giudiziario avviati dal fornitore di servizi di hosting

  • Articolo 7(3)(f): il numero di casi in cui il fornitore di servizi di hosting ha avuto l'esigenza di ripristinare i contenuti o accedervi a seguito di procedimenti di riesame amministrativo o giudiziario


Poiché non abbiamo ricevuto richieste di misure esecutive ai sensi del Regolamento durante il periodo di segnalazione, come indicato sopra, non abbiamo avuto alcun procedimento di riesame amministrativo o giudiziario associato e non abbiamo avuto l'obbligo di ripristinare i contenuti a seguito di tali procedure.

Valutazione dei rischi DSA

La presente relazione è stata redatta con l'obiettivo di rispettare gli obblighi di Snap ai sensi degli articoli 34 e 35 del Regolamento (UE) 2022/2065. Mostra i risultati della nostra valutazione dei rischi di sistema derivanti dalla progettazione, dalla funzione e dall'uso delle piattaforme online di Snapchat, oltre alla metodologia utilizzata per valutare tali rischi e alle misure di mitigazione messe in atto per affrontare tali rischi.


Relazione sulla valutazione dei rischi e sulla mitigazione DSA | Snapchat | agosto 2023 (PDF)


Audit DSA e implementazione Audit

Queste relazioni sono state redatte per rispettare gli obblighi di Snap ai sensi dell'Articolo 37 del Regolamento (UE) 2022/2065 e contengono: (i) i risultati dell'audit indipendente della conformità di Snap con gli obblighi stabiliti nel Capitolo III del Regolamento (UE) 2022/2065 e (ii) le misure adottate per attuare le raccomandazioni operative di tale Audit indipendente.

Relazione sull'Audit indipendente DSA | Snapchat | agosto 2024 (PDF)

Relazione sull'implementazione dell'audi DSA | Snapchat | settembre 2024 (PDF)



Codice di condotta EU VSP

Snap è un fornitore del “servizio di condivisione video su piattaforma”(”VSP”) ai sensi dell'articolo 1(1)(AN) AVMSD. Il presente Codice di condotta (“Codice”) è stato redatto per descrivere in che modo Snap rispetta i suoi obblighi ai sensi della normativa olandese sui media (“DMA”) e della Direttiva (EU) 2010/13 (come modificata dalla Direttiva (EU) 2018/1808 (la “Direttiva sui Servizi Media Audiovisivi” o “AVMSD”)). Il Codice è applicabile in tutta l'Unione Europea e nello Spazio Economico Europeo.

Codice di condotta EU VSP | Snapchat | Dicembre 2024 (PDF)