Unione Europea
Ultimo aggiornamento: 7 febbraio 2024

Benvenuti nella nostra pagina sulla trasparenza dedicata all'Unione Europea (UE), dove pubblichiamo informazioni specifiche per l'UE in osservanza alla Normativa sui servizi digitali (DSA), alla Direttiva sui servizi di media audiovisivi (AVMSD) e al Dutch Media Act (DMA).  

Media destinatari attivi al mese 

Al 1° agosto 2023, abbiamo in media 102 milioni di destinatari attivi al mese ("AMAR") nella nostra app Snapchat nell'UE. Questo significa che in media, negli ultimi 6 mesi, 102 milioni di utenti registrati nell'UE hanno aperto l'app Snapchat almeno una volta in un determinato mese.

Questo numero è suddiviso per Stato membro come segue:

Queste cifre sono state calcolate per soddisfare le attuali regole DSA e dovrebbero essere utilizzate solo per scopi DSA. Potremmo cambiare le modalità di calcolo di questa cifra nel corso del tempo, anche in seguito ai cambiamenti delle linee guida delle autorità di regolamentazione e della tecnologia. Inoltre, potrebbe differire dai calcoli utilizzati per altri dati relativi agli utenti attivi che pubblichiamo per altri scopi.

Rappresentante legale 

Snap Group Limited ha nominato Snap B.V. come suo rappresentante legale. È possibile contattare Snap B.V. all'indirizzo dsa-enquiries [at] snapchat.com per domande relative al DSA, all'indirizzo vsp-enquiries [at] snapchat.com per domande relative all'AVMSD e al DMA, tramite il nostro Sito di assistenza [qui], o all'indirizzo:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Paesi Bassi

Se fai parte delle forze dell'ordine, segui i passaggi descritti qui.

Autorità di regolamentazione

Per quanto riguarda la DSA, siamo regolamentati dalla Commissione europea e dall'Autorità olandese per i consumatori e i mercati (ACM). 

Per quanto concerne l'AVMSD e il DMA, siamo regolamentati dall'Autorità olandese per i media (CvdM).

Relazione per la trasparenza DSA

Snap è tenuta, ai sensi degli articoli 15, 24 e 42 della DSA, a pubblicare rapporti contenenti le informazioni prescritte in merito alla moderazione dei contenuti per i servizi di Snapchat considerati "piattaforme online", ossia Spotlight, Per te, Profili pubblici, Mappe, Lenti e Pubblicità. Questa relazione deve essere pubblicata ogni 6 mesi, a partire dal 25 ottobre 2023.

Snap pubblica due volte l'anno dei rapporti di trasparenza per fornire informazioni sugli sforzi di Snap in materia di sicurezza e sulla natura e il volume dei contenuti riportati sulla nostra piattaforma. La nostra ultima relazione per il primo semestre 2023 (1 gennaio - 30 giugno) è disponibile qui. Tale relazione contiene le seguenti informazioni:

  • Richieste governative, che includono richieste di rimozione di informazioni e contenuti; 

  • Violazioni dei contenuti, che includono le azioni intraprese in relazione ai contenuti illegali e i tempi di risposta medi; 

  • Ricorsi, che vengono ricevuti e gestiti tramite la nostra procedura interna di gestione dei reclami.

Tali sezioni sono pertinenti alle informazioni richieste dall'articolo 15.1(a), (b) e (d) della DSA. Nota che non contengono ancora un set di dati completo perché l'ultimo rapporto riguarda il periodo del primo trimestre 2023, che precede l'entrata in vigore del DSA. 

Forniamo di seguito alcune informazioni aggiuntive sugli aspetti non coperti dalla nostra relazione per la trasparenza per il primo semestre 2023:

Moderazione dei contenuti (Articolo 15.1(c) ed (e), Articolo 42.2)

Tutti i contenuti su Snapchat devono rispettare le nostre Linee Guida per la Community e i Termini di Servizio, nonché termini, linee guida e spiegazioni di supporto. I meccanismi di rilevamento proattivo e le segnalazioni di contenuti o account illeciti o che violano la legge richiedono una revisione; a questo punto, i nostri sistemi di gestione elaborano la richiesta, raccolgono i metadati pertinenti e inoltrano i contenuti in questione al nostro team di moderazione tramite un'interfaccia utente strutturata, progettata per facilitare operazioni di revisione efficaci ed efficienti. Quando i nostri team di moderazione stabiliscono, attraverso una revisione umana o automatica, che un utente ha violato i nostri Termini, potremmo rimuovere il contenuto o l'account in questione, chiudere o limitare la visibilità dell'account in questione e/o informare le forze dell'ordine come illustrato nella nostra guida su Moderazione, applicazione delle regole e ricorsi di Snapchat.  Gli utenti i cui account sono stati bloccati dal nostro team di sicurezza per violazioni delle linee guida della community possono presentare un ricorso per l'account bloccato, mentre gli utenti possono presentare ricorso per l'applicazione di determinati contenuti.

Strumenti automatizzati di moderazione dei contenuti

In genere, sui nostri contenuti pubblici, i contenuti passano attraverso la moderazione automatica e la revisione umana prima di poter essere pubblicati per un vasto pubblico. Per quanto riguarda gli strumenti automatizzati, questi includono:

  • Rilevamento proattivo di contenuti illeciti e violenti grazie all'apprendimento automatico;

  • Strumenti di corrispondenza per gli hashtag (come PhotoDNA e CSAI Match di Google);

  • Rilevamento di un linguaggio offensivo di rifiutare i contenuti sulla base di un elenco individuato e regolarmente aggiornato di parole chiave offensive, compresi gli emoji.

Per il periodo dell'ultima Relazione per la trasparenza (1° semestre 2023), non è stato necessario raccogliere indicatori formali/tassi di errore per questi sistemi automatizzati. Tuttavia, monitoriamo regolarmente questi sistemi per eventuali problemi e le nostre decisioni di moderazione umana vengono regolarmente valutate per precisione.


Moderazione umana

Il nostro team di moderazione dei contenuti opera in tutto il mondo, consentendoci di mantenere gli Snapchatter al sicuro 24 ore su 24, 7 giorni su 7. Di seguito troverai la ripartizione delle nostre risorse umane di moderazione in base alle specializzazioni linguistiche dei moderatori (nota che alcuni moderatori sono specializzati in più lingue) alla data di agosto 2023:

I numeri sopra riportati variano frequentemente in base alle tendenze dei volumi in arrivo o alle richieste per lingua/Paese. Nel caso in cui avessimo bisogno di un'ulteriore assistenza linguistica, ci avvarremo di servizi di traduzione.

I moderatori vengono selezionata mediante una descrizione del ruolo standard che include un requisito linguistico (a seconda delle esigenze). In base a tale requisito linguistico, il candidato deve essere in grado di dimostrare una padronanza della lingua scritta e orale e avere almeno un anno di esperienza lavorativa in posizioni entry-level. I candidati devono anche soddisfare i requisiti inerenti l'istruzione e i trascorsi penali per poter essere presi in considerazione. Inoltre, i candidati devono dimostrare di avere una comprensione degli eventi attuali relativi al Paese o alla regione di moderazione dei contenuti che dovranno supportare. 

Il nostro team di moderazione applica tali politiche e misure al fine di proteggere la community di Snapchat. La formazione si svolge nell'arco di più settimane, durante le quali i nuovi membri del team verranno formati sulle politiche, gli strumenti e le procedure di escalation di Snap. Al termine della formazione, ogni moderatore deve sostenere un esame di abilitazione prima di poter esaminare i contenuti. Il nostro team di moderazione partecipa regolarmente a corsi di aggiornamento relativi ai loro flussi di lavoro, soprattutto quando si tratta di casi ai limiti dell'ambito di applicazione delle politiche o che dipendono dal contesto. Inoltre, organizziamo programmi per migliorare le competenze, sessioni di abilitazione e quiz al fine di garantire che tutti i moderatori siano aggiornati e conformi a tutte le politiche aggiornate. Infine, qualora emergessero delle tendenze di contenuti urgenti sulla base degli eventi attuali, divulgheremo tempestivamente dei chiarimenti sulle politiche in modo che i team possano rispondere in conformità con le politiche di Snap.

Forniamo al nostro Team di moderazione dei contenuti, gli "addetti al primo soccorso digitale" di Snap, supporto e risorse notevoli, tra cui supporto al benessere sul posto di lavoro e facile accesso ai servizi per la salute mentale. 


Misure di salvaguardia per la moderazione dei contenuti

Riconosciamo che vi sono dei rischi associati alla moderazione dei contenuti, compresi i rischi per la libertà di espressione e di riunione, che potrebbero essere causati da pregiudizi automatici e umani del moderatore e da segnalazioni offensive, anche da parte di governi, autorità politiche o organizzazioni di individui. In generale, Snapchat non è un luogo adatto per contenuti politici o di attivismo, soprattutto i nostri spazi pubblici. 

Tuttavia, al fine di prevenire tali rischi, Snap ha avviato attività di test e formazione e dispone di procedure solide e coerenti per la gestione delle segnalazioni di contenuti illegali o in violazione, anche da parte delle forze dell'ordine e delle autorità governative. Valutiamo e miglioriamo continuamente i nostri algoritmi di moderazione dei contenuti. Sebbene i potenziali danni alla libertà di espressione siano difficili da individuare, non siamo a conoscenza di alcun problema significativo e forniamo ai nostri utenti strumenti per segnalare eventuali errori. 

Le nostre politiche e i nostri sistemi promuovono un'applicazione coerente ed equa e, come descritto sopra, offrono agli Snapchatter l'opportunità di contestare in maniera significativa i risultati dell'applicazione delle politiche attraverso i processi di Avviso e Ricorso che sono volti a proteggere gli interessi della community e allo stesso tempo anche i diritti dei singoli Snapchatter.

Ci impegniamo costantemente a migliorare le nostre politiche e i nostri processi e abbiamo compiuto passi da gigante nella lotta contro i contenuti e le attività potenzialmente dannosi e illegali su Snapchat. Ciò si riflette in una tendenza in crescita dei nostri numeri relativi alle segnalazione e all'applicazione delle politiche nell'ultima Relazione per la trasparenza e nella diminuzione dei tassi di rilevanza per le violazioni su Snapchat in generale. 


Avvisi dei segnalatori di fiducia (Trusted Flagger) (Articolo 15.1(b))

Per il periodo relativo all'ultima Relazione per la trasparenza (1° semestre del 2023), non ci sono stati Trusted Flagger formalmente nominati ai sensi della DSA. Di conseguenza, il numero di avvisi inviati da tali Trusted Flagger è stato pari a zero (0) per tale periodo.


Dispute extragiudiziali (Articolo 24.1(a))

Per il periodo dell'ultima Relazione per la trasparenza (1° semestre del 2023), non ci sono stati organismi per la risoluzione delle controversie extragiudiziali formalmente nominati ai sensi della DSA. Di conseguenza, il numero di controversie presentate a tali organismi è stato pari a zero (0) per tale periodo.


Sospensioni dell'account ai sensi dell'articolo 23 (Articolo 24.1(b))

Per il periodo dell'ultima Relazione per la trasparenza (1° semestre del 2023), non è stato necessario sospendere nessun account ai sensi dell'articolo 23 della DSA per aver fornito contenuti manifestamente illegali, avvisi infondati o reclami infondati. Di conseguenza, il numero di tali sospensioni è stato pari a zero (0). Tuttavia, Snap intraprende azioni legali appropriate contro gli account, come spiegato nelle nostre Spiegazioni sulla moderazione, l'applicazione e i ricorsi di Snapchat) e le informazioni relative al livello di applicazione delle politiche da parte di Snap sull'account sono disponibili nella nostra Relazione per la trasparenza (1° semestre del 2023).