Unione Europea
1 luglio 2023 - 31 dicembre 2023

Pubblicato:

25 Aprile 2024

Aggiornato:

25 Aprile 2024

Ti diamo il benvenuto nella nostra pagina sulla trasparenza dell'Unione Europea (UE), dove pubblichiamo informazioni specifiche dell'UE richieste dal Digital Services Act (DSA), dalla Direttiva sui servizi audiovisivi e mediatici (AVMSD), dal Dutch Media Act (DMA) e dal Regolamento relativo ai contenuti terroristici online (TCO). Tieni presente che la versione più aggiornata delle presenti relazioni sulla trasparenza è disponibile in lingua en-US.

Rappresentante legale 

Snap Group Limited ha nominato Snap B.V. come suo Rappresentante legale per gli scopi della DSA. Puoi contattare il rappresentante all'indirizzo dsa-enquiries [at] snapchat.com in merito a DSA, all'indirizzo vsp-enquiries [at] snapchat.com in merito a AVMSD e DMA, all'indirizzo tco-enquiries [at] snapchat.com in merito a TCO, tramite il nostro Sito di assistenza [qui], oppure all'indirizzo:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Paesi Bassi

Se fai parte delle forze dell'ordine, segui i passaggi descritti qui.

Contattaci in lingua olandese o inglese.

Autorità di regolamentazione

Per quanto riguarda la DSA, siamo regolamentati dalla Commissione europea e dall'Autorità olandese per i consumatori e i mercati (ACM). Per quanto concerne l'AVMSD e il DMA, siamo regolamentati dall'Autorità olandese per i media (CvdM). Per quanto riguarda il TCO, siamo regolamentati dall'Autorità per la prevenzione dei contenuti terroristici online e del materiale di abuso sessuale su minori (ATKM).

Relazione per la trasparenza DSA

Snap è tenuta, ai sensi degli articoli 15, 24 e 42 della DSA, a pubblicare rapporti contenenti le informazioni prescritte in merito alla moderazione dei contenuti per i servizi di Snapchat considerati "piattaforme online", ossia Spotlight, Per te, Profili pubblici, Mappe, Lenti e Pubblicità. Questa relazione deve essere pubblicata ogni 6 mesi, a partire dal 25 ottobre 2023.

Snap pubblica due volte l'anno dei rapporti di trasparenza per fornire informazioni sugli sforzi di Snap in materia di sicurezza e sulla natura e il volume dei contenuti riportati sulla nostra piattaforma. Il nostro ultimo report per il secondo semestre 2023 (dal 1 luglio al 31 dicembre) è disponibile qui (con aggiornamenti sui nostri dati relativi alla Media destinatari attivi al mese aggiornati al 1 agosto 2024, vedi in fondo a questa pagina). Le metriche specifiche del Digital Services Act sono disponibili in questa pagina.

Media destinatari attivi al mese 
(Articoli DSA 24.2 e 42.3)

Al 31 dicembre 2023, abbiamo in media 90,9 milioni di destinatari attivi al mese ("AMAR") nella nostra app Snapchat nell'UE. Questo significa che in media, negli ultimi 6 mesi, 90,9 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue:

Queste cifre sono state calcolate per soddisfare le attuali regole DSA e dovrebbero essere utilizzate solo per scopi DSA. Nel corso del tempo abbiamo cambiato il modo di calcolare questa cifra, anche in seguito al cambiamento delle politiche interne, degli orientamenti delle autorità di regolamentazione e della tecnologia. Per questo motivo non è possibile fare un confronto diretto tra un periodo e l'altro. Inoltre, potrebbe differire dai calcoli utilizzati per altri dati relativi agli utenti attivi che pubblichiamo per altri scopi.


Richieste delle autorità degli Stati membri
(Articolo 15.1(a) del DSA)

Richieste di rimozione 

Durante questo periodo abbiamo ricevuto 0 richieste di rimozione dagli Stati membri dell'UE ai sensi dell'articolo 9 del DSA. 

Richieste di informazioni 

Durante questo periodo abbiamo ricevuto le seguenti richieste di informazioni dagli Stati membri dell'UE ai sensi dell'articolo 10 del DSA:

Il tempo mediano per informare le autorità della ricezione delle Richieste di informazioni è di 0 minuti: forniamo una risposta automatica, confermando la ricezione. Il tempo medio di elaborazione delle richieste di informazioni è di circa 10 giorni. Questo indicatore riflette il lasso di tempo che intercorre tra il momento in cui Snap riceve una Richiesta di informazioni e il momento in cui ritiene che la questione sia stata risolta. In alcuni casi, la durata di questa procedura dipende in parte dalla velocità con cui le forze dell'ordine rispondono alle richieste di chiarimenti di Snap, necessarie per elaborare la richiesta.

Moderazione dei contenuti 


Tutti i contenuti su Snapchat devono rispettare le nostre Linee Guida per la Community e i Termini di Servizio, nonché termini, linee guida e materiale esplicativo. I meccanismi di rilevamento proattivo e le segnalazioni di contenuti o account illeciti o che violano la legge richiedono una revisione; a questo punto, i nostri sistemi di gestione elaborano la richiesta, raccolgono i metadati pertinenti e inoltrano i contenuti in questione al nostro team di moderazione tramite un'interfaccia utente strutturata, progettata per facilitare operazioni di revisione efficaci ed efficienti. Quando i nostri team di moderazione stabiliscono, attraverso una revisione umana o automatica, che un utente ha violato i nostri Termini, potremmo rimuovere il contenuto o l'account in questione, chiudere o limitare la visibilità dell'account in questione e/o informare le forze dell'ordine come illustrato nella nostra guida su Moderazione, applicazione delle regole e ricorsi di Snapchat.  Gli utenti i cui account sono stati bloccati dal nostro team di sicurezza per violazioni delle linee guida della community possono presentare un ricorso per l'account bloccato, mentre gli utenti possono presentare ricorso per l'applicazione di determinati contenuti.

Segnalazioni su contenuti e account (Articolo 15.1(b) del DSA)

Snap ha istituito meccanismi per consentire a utenti e non utenti di segnalare contenuti e account che violano le Linee Guida per la Community e i Termini di Servizio sulla piattaforma, compresi quelli considerati illegali ai sensi dell'articolo 16 del DSA.  Questi meccanismi di segnalazione sono disponibili nell'app stessa (direttamente dal contenuto) e sul nostro sito web.

Durante il periodo di riferimento abbiamo ricevuto le seguenti segnalazioni su contenuti e account nell'UE:

Nel 2° semestre del 2023 abbiamo gestito 664.896 segnalazioni con il solo impiego di mezzi automatizzati. Si è trattato di contenuti illegali in violazione delle nostre Linee Guida per la Community. 

Oltre ai contenuti e agli account degli utenti, controlliamo anche se gli annunci pubblicitari violano i termini della nostra piattaforma. Di seguito è riportato il numero totale di annunci segnalati e rimossi nell'UE. 

Segnalazioni da utenti di fiducia (Articolo 15.1(b))

Nel periodo di riferimento dell'ultima Relazione per la trasparenza (2° semestre del 2023) non è stato nominato alcun utente di fiducia in seno al DSA. Di conseguenza, il numero di segnalazioni effettuate da questa categoria di utenti è stato pari a zero (0) per tale periodo.

Moderazione proattiva dei contenuti (Articolo 15.1(c))

Durante il periodo di riferimento, Snap è intervenuta sui seguenti contenuti e account nell'UE dopo aver avviato di propria iniziativa attività di moderazione:

Tutti gli sforzi di moderazione di Snap hanno coinvolto gli esseri umani o l'automazione. In genere, sui nostri contenuti pubblici, i contenuti passano attraverso la moderazione automatica e la revisione umana prima di poter essere pubblicati per un vasto pubblico. Per quanto riguarda gli strumenti automatizzati, questi includono:

  • Rilevamento proattivo di contenuti illeciti e violenti grazie all'apprendimento automatico;

  • Strumenti di corrispondenza degli hashtag (come PhotoDNA e CSAI Match di Google);

  • Rilevamento di un linguaggio offensivo per rifiutare contenuti sulla base di un elenco definito e regolarmente aggiornato di parole chiave offensive, comprese le emoji.


Ricorsi (Articolo 15.1(d))

Durante il periodo di riferimento, Snap ha esaminato i seguenti ricorsi relativi a contenuti e account nell'UE tramite i propri sistemi interni di gestione dei reclami:


*Fermare lo sfruttamento sessuale dei minori è una priorità assoluta. Snap dedica importanti risorse a questo proposito e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Durante l'autunno del 2023, Snap ha implementato delle modifiche alla politica che hanno influito sulla coerenza di alcune esecuzioni CSE e abbiamo affrontato queste incongruenze mediante la riqualificazione degli agenti e un rigoroso controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle esecuzioni iniziali. 

Strumenti automatizzati per la moderazione dei contenuti (Articolo 15.1(e))

In genere, sui nostri contenuti pubblici, i contenuti passano attraverso la moderazione automatica e la revisione umana prima di poter essere pubblicati per un vasto pubblico. Per quanto riguarda gli strumenti automatizzati, questi includono:

  • Rilevamento proattivo di contenuti illeciti e violenti grazie all'apprendimento automatico;

  • Strumenti di corrispondenza per gli hashtag (come PhotoDNA e CSAI Match di Google);

  • Rilevamento di un linguaggio offensivo di rifiutare i contenuti sulla base di un elenco individuato e regolarmente aggiornato di parole chiave offensive, compresi gli emoji.


La precisione delle tecnologie di moderazione automatica relative a tutti i tipi di danni è stata di circa il 96,61% e il tasso di errore è stato di circa il 3,39%.


Garanzie per la moderazione dei contenuti (Articoli 15.1(e))

Riconosciamo che vi sono dei rischi associati alla moderazione dei contenuti, compresi i rischi per la libertà di espressione e di riunione, che potrebbero essere causati da pregiudizi automatici e umani del moderatore e da segnalazioni offensive, anche da parte di governi, autorità politiche o organizzazioni di individui. In generale, Snapchat non è un luogo adatto per contenuti politici o di attivismo, soprattutto i nostri spazi pubblici. 


Tuttavia, al fine di prevenire tali rischi, Snap ha avviato attività di test e formazione e dispone di procedure solide e coerenti per la gestione delle segnalazioni di contenuti illegali o in violazione, anche da parte delle forze dell'ordine e delle autorità governative. Valutiamo e miglioriamo continuamente i nostri algoritmi di moderazione dei contenuti. Sebbene i potenziali danni alla libertà di espressione siano difficili da individuare, non siamo a conoscenza di alcun problema significativo e forniamo ai nostri utenti strumenti per segnalare eventuali errori. 


Le nostre politiche e i nostri sistemi promuovono un'applicazione coerente ed equa e, come descritto sopra, offrono agli Snapchatter l'opportunità di contestare in maniera significativa i risultati dell'applicazione delle politiche attraverso i processi di Avviso e Ricorso che sono volti a proteggere gli interessi della community e allo stesso tempo anche i diritti dei singoli Snapchatter.

Ci impegniamo costantemente a migliorare le nostre politiche e i nostri processi e abbiamo compiuto passi da gigante nella lotta contro i contenuti e le attività potenzialmente dannosi e illegali su Snapchat. Ciò si riflette in una tendenza in crescita dei nostri numeri relativi alle segnalazione e all'applicazione delle politiche nell'ultima Relazione per la trasparenza e nella diminuzione dei tassi di rilevanza per le violazioni su Snapchat in generale.


Accordi extragiudiziali (Articolo 24.1(a))

Riguardo al periodo della nostra ultima Relazione per la trasparenza (2° semestre del 2023), non sono stati ufficialmente nominati organismi di risoluzione extragiudiziale delle controversie ai sensi della DSA. Di conseguenza, il numero di controversie sottoposte a tali organismi è stato pari a zero (0) in questo periodo e non siamo in grado di fornire gli esiti, i tempi mediani di risoluzione e la percentuale di controversie in cui abbiamo implementato le decisioni dell'organismo. 



Sospensioni di account (Articolo 24.1(b))

Durante il 2° semestre del 2023,  non abbiamo registrato alcuna sospensione dell'account ai sensi dell'Articolo 23. Il team di Fiducia e Sicurezza di Snap ha adottato procedure per limitare la possibilità che gli account degli utenti presentino frequentemente avvisi o reclami manifestamente infondati. Tali procedure includono la limitazione della creazione di report duplicati e l'uso di filtri email per impedire agli utenti che hanno inviato frequentemente report palesemente infondati di continuare a farlo. Snap intraprende azioni legali appropriate contro gli account, come spiegato nelle nostre Spiegazioni sulla moderazione, l'applicazione e i ricorsi di Snapchat e le informazioni relative al livello di applicazione delle politiche da parte di Snap sull'account sono disponibili nella nostra Relazione per la trasparenza (2° semestre del 2023). Tali misure continueranno a esser esaminate e iterate.


Risorse, competenze e supporto dei moderatori (Articolo 42.2)

Il nostro team di moderazione dei contenuti opera in tutto il mondo, consentendoci di mantenere gli Snapchatter al sicuro 24 ore su 24, 7 giorni su 7. Di seguito troverai la ripartizione delle nostre risorse umane di moderazione in base alle specializzazioni linguistiche dei moderatori (nota che alcuni moderatori sono specializzati in più lingue) alla data di 31 dicembre 2023:

La tabella di cui sopra include tutti i moderatori che supportano le lingue degli Stati membri dell'UE al 31 dicembre 2023. Nel caso in cui avessimo bisogno di un'ulteriore assistenza linguistica, ci avvarremo di servizi di traduzione.

I moderatori vengono selezionata mediante una descrizione del ruolo standard che include un requisito linguistico (a seconda delle esigenze). In base a tale requisito linguistico, il candidato deve essere in grado di dimostrare una padronanza della lingua scritta e orale e avere almeno un anno di esperienza lavorativa in posizioni entry-level. I candidati devono soddisfare i requisiti inerenti l'istruzione e i trascorsi penali per poter essere presi in considerazione. Inoltre, i candidati devono dimostrare di avere una comprensione degli eventi attuali relativi al Paese o alla regione di moderazione dei contenuti che dovranno supportare.

Il nostro team di moderazione applica tali politiche e misure al fine di proteggere la community di Snapchat. La formazione si svolge nell'arco di più settimane, durante le quali i nuovi membri del team verranno formati sulle politiche, gli strumenti e le procedure di escalation di Snap. Al termine della formazione, ogni moderatore deve sostenere un esame di abilitazione prima di poter esaminare i contenuti. Il nostro team di moderazione partecipa regolarmente a corsi di aggiornamento relativi ai loro flussi di lavoro, soprattutto quando si tratta di casi ai limiti dell'ambito di applicazione delle politiche o che dipendono dal contesto. Inoltre, organizziamo programmi per migliorare le competenze, sessioni di abilitazione e quiz al fine di garantire che tutti i moderatori siano aggiornati e conformi a tutte le politiche aggiornate. Infine, qualora emergessero delle tendenze di contenuti urgenti sulla base degli eventi attuali, divulgheremo tempestivamente dei chiarimenti sulle politiche in modo che i team possano rispondere in conformità con le politiche di Snap.

Forniamo al nostro Team di moderazione dei contenuti, gli "addetti al primo soccorso digitale" di Snap, supporto e risorse notevoli, tra cui supporto al benessere sul posto di lavoro e facile accesso ai servizi per la salute mentale. 

Relazione sulla scansione dei media sullo sfruttamento e l'abuso sessuale dei minori (CSEA)


Background

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.


Utilizziamo l'hash-matching avanzato di PhotoDNA e la corrispondenza CSAI (Child Sexual Abuse Imagery) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.


Relazione

I dati seguenti si basano sul risultato di una scansione proattiva utilizzando PhotoDNA e/o corrispondenza CSAI dei media caricati dal Rullino di un utente su Snapchat.

Fermare lo sfruttamento sessuale dei minori è una priorità assoluta. Snap dedica importanti risorse a questo proposito e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Durante l'autunno del 2023, Snap ha implementato delle modifiche alla politica che hanno influito sulla coerenza di alcune esecuzioni CSE e abbiamo affrontato queste incongruenze mediante la riqualificazione degli agenti e un rigoroso controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle esecuzioni iniziali.  

Garanzie per la moderazione dei contenuti

Le garanzie applicate per la scansione dei contenuti multimediali CSEA sono illustrate nella sezione "Garanzie per la moderazione dei contenuti" della relazione DSA.


Relazione sulla scansione dei media sullo sfruttamento e l'abuso sessuale dei minori (CSEA)


Background

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.


Utilizziamo l'hash-matching avanzato di PhotoDNA e la corrispondenza CSAI (Child Sexual Abuse Imagery) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.


Relazione

I dati seguenti si basano sul risultato di una scansione proattiva utilizzando PhotoDNA e/o corrispondenza CSAI dei media caricati dal Rullino di un utente su Snapchat.

Fermare lo sfruttamento sessuale dei minori è una priorità assoluta. Snap dedica importanti risorse a questo proposito e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Durante l'autunno del 2023, Snap ha implementato delle modifiche alla politica che hanno influito sulla coerenza di alcune esecuzioni CSE e abbiamo affrontato queste incongruenze mediante la riqualificazione degli agenti e un rigoroso controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle esecuzioni iniziali.  

Garanzie per la moderazione dei contenuti

Le garanzie applicate per la scansione dei contenuti multimediali CSEA sono illustrate nella sezione "Garanzie per la moderazione dei contenuti" della relazione DSA.


Fermare lo sfruttamento sessuale dei minori è una priorità assoluta. Snap dedica importanti risorse a questo proposito e ha tolleranza zero per tali comportamenti.  È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti.  Durante l'autunno del 2023, Snap ha implementato delle modifiche alla politica che hanno influito sulla coerenza di alcune esecuzioni CSE e abbiamo affrontato queste incongruenze mediante la riqualificazione degli agenti e un rigoroso controllo della qualità.  Ci aspettiamo che la prossima relazione per la trasparenza mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle esecuzioni iniziali.  

Garanzie per la moderazione dei contenuti

Le garanzie applicate per la scansione dei contenuti multimediali CSEA sono illustrate nella sezione "Garanzie per la moderazione dei contenuti" della relazione DSA.


DSA UE: media dei destinatari attivi al mese (agosto 2024)
(Articoli DSA 24.2 e 42.3)

Al 1° agosto 2024, abbiamo in media 92,4 milioni di utenti attivi su base mensile nella nostra app Snapchat nell'UE. Questo significa che in media, negli ultimi 6 mesi, 92,4 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue: