Report sulla trasparenza
1 gennaio 2023 - 30 giugno 2023

Pubblicato:

25 ottobre 2023

Aggiornato:

13 dicembre 2023

Per fornire una panoramica dell'impegno di Snap in materia di sicurezza, della natura e del volume dei contenuti segnalati sulla nostra piattaforma, pubblichiamo relazioni per la trasparenza a cadenza semestrale. Ci impegniamo a rendere queste relazioni sempre più complete e informative per i numerosi stakeholder che hanno a cuore il benessere della nostra community, nonché le nostre pratiche in materia di moderazione dei contenuti e di applicazione della legge. 

Questa relazione per la trasparenza si riferisce alla prima metà del 2023 (1 gennaio-30 giugno). Come nelle nostre relazioni precedenti, condividiamo i dati sul numero totale di segnalazioni in-app a livello di contenuti e di account che abbiamo ricevuto e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni di politiche, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; nonché sui provvedimenti che abbiamo preso suddivisi per Paese.

Come parte del nostro continuo impegno a migliorare le nostre relazioni per la trasparenza, stiamo introducendo alcuni nuovi elementi con questa versione. Abbiamo aggiunto ulteriori dati relativi alle nostre pratiche pubblicitarie e alla moderazione, nonché ai ricorsi per i contenuti e gli account. In linea con la Legge sui servizi digitali dell'UE, abbiamo anche aggiunto nuove informazioni contestuali sulle nostre operazioni negli Stati membri dell'UE, come il numero di moderatori di contenuti e di utenti attivi mensili (MAU) nella regione. Gran parte di queste informazioni è disponibile all'interno del rapporto e nella pagina dedicata all'Unione Europea del Centro per la trasparenza.

Infine, abbiamo aggiornato il nostro Glossario con i link alle spiegazioni delle Linee Guida per la Community, che forniscono un contesto aggiuntivo sulla nostra politica di piattaforma e sui nostri sforzi operativi. 

Per ulteriori informazioni sulle politiche contro i pericoli online e i nostri piani per continuare a migliorare le pratiche di segnalazione, consulta il nostro Blog Sicurezza e Impatto più recente in relazione a questa relazione di trasparenza. 

Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consulta la scheda Informazioni sulla Relazione di Trasparenza in fondo alla pagina.

Si prega di notare che la versione più aggiornata della presente relazione per la trasparenza è disponibile nel locale en-US.

Panoramica dei contenuti e delle violazioni degli account

Dal 1 gennaio al 30 giugno 2023, Snap ha preso azione contro 6.216.118 contenuti a livello globale che violavano le nostre politiche.

Durante il periodo di riferimento, abbiamo constatato un Rapporto di Violazioni Visualizzate (VVR) dello 0,02%, ovvero su ogni 10.000 visualizzazioni di Snap e Storie su Snapchat, 2 violavano le nostre politiche.

*Applicare in modo corretto e coerente le norme contro le informazioni false è un processo dinamico che richiede un contesto e una diligenza aggiornati.  Nel tentativo di migliorare costantemente il livello di precisione dell'applicazione delle norme da parte dei nostri agenti in questa categoria, a partire dal primo semestre del 2022 abbiamo scelto di riportare i dati delle categorie "Contenuti moderati" e "Account unici soggetti a imposizioni" che sono stimati sulla base di una rigorosa verifica della qualità di una parte statisticamente significativa di applicazioni di informazioni false. In particolare, selezioniamo un campione statisticamente significativo di sanzioni per false informazioni in ogni Paese e controlliamo la qualità delle relative decisioni. Utilizziamo quindi questi controlli di qualità per calcolare i tassi di applicazione con un intervallo di affidabilità del 95% (margine di errore del +/- 5%), che utilizziamo per calcolare i casi di sanzioni per informazioni false riportati nella Relazione per la trasparenza. 

Analisi dei contenuti e delle violazioni degli account

I nostri tassi complessivi di segnalazione e moderazione sono rimasti abbastanza simili a quelli dei sei mesi precedenti, con alcune eccezioni in delle categorie chiave. In questo ciclo abbiamo osservato una diminuzione approssimativa del 3% nelle segnalazioni totali di contenuti e account e negli atti di moderazione.

Le categorie con le fluttuazioni più rilevanti sono state Molestie e Bullismo, Spam, Armi e False Informazioni. Molestie e Bullismo hanno registrato un aumento del 56% nelle segnalazioni totali e un conseguente aumento del 39% negli atti di moderazione verso i contenuti e gli account individuali. Questi aumenti della moderazione sono stati accompagnati da una diminuzione del 46% dei tempi di intervento, a dimostrazione delle efficienze operative che il nostro team ha ottenuto nella moderazione di questo tipo di contenuti incriminati. Allo stesso modo, abbiamo osservato un aumento del 65% nelle segnalazioni totali per lo Spam, con un aumento del 110% nella moderazione dei contenuti e dell'80% per gli account, mentre i nostri team hanno ridotto i tempi di consegna dell'80%. La nostra categoria Armi ha registrato una diminuzione del 13% nelle segnalazioni totali, una diminuzione del 51% nella moderazione dei contenuti e del 53% nella moderazione degli account unici. Infine, la nostra categoria Informazioni False ha registrato un aumento del 14% nelle segnalazioni totali, ma una diminuzione del 78% nella moderazione dei contenuti e del 74% nella moderazione degli account unici. Ciò può essere attribuito al prosieguo del processo di Quality Assurance (QA) e al ricorso che applichiamo alle segnalazioni di informazioni false, per garantire che i nostri team di moderazione rilevino e agiscano con precisione sulla piattaforma.

Nel complesso, anche se abbiamo rilevato cifre generalmente simili a quelle dell'ultimo periodo, riteniamo importante continuare a migliorare gli strumenti che la nostra community utilizza per segnalare attivamente e accuratamente potenziali violazioni non appena appaiono sulla piattaforma.

Lotta contro lo sfruttamento e gli abusi sessuali sui minori

Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEAI) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.

Utilizziamo strumenti di rilevamento con tecnologia attiva, come la tecnica di corrispondenza basata su robust hash di PhotoDNA e la tecnica di rilevamento Child Sexual Abuse Imagery (CSAI) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.

Nel primo semestre del 2023, abbiamo individuato e preso provvedimenti in modo proattivo sul 98% del totale delle violazioni in materia di sfruttamento e abuso sessuale di minori qui riportate, con un aumento del 4% rispetto alla nostra relazione precedente.

**Nota che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati.

Contenuto terroristico e di estremismo violento

Durante il periodo di riferimento, 1 gennaio 2023 - 30 giugno 2023, abbiamo rimosso 18 account per violazioni della nostra politica che vieta i contenuti terroristici ed estremisti violenti.

Noi di Snap rimuoviamo i contenuti terroristici ed estremisti violenti segnalati attraverso molteplici canali. Gli utenti sono invitati a segnalare questo tipo di contenuti attraverso il nostro menu di segnalazione in-app; inoltre, collaboriamo strettamente con le forze dell'ordine per contrastare i contenuti di terrorismo ed estremismo violento che possono apparire su Snap.

Contenuti relativi all'autolesionismo e al suicidio

L'attenzione che riserviamo alla salute mentale e al benessere degli Snapchatters ha influenzato (e continua a influenzare) molte delle decisioni che abbiamo preso su come sviluppare Snapchat in modo diverso. In quanto piattaforma concepita per favorire la comunicazione tra amici, crediamo che Snapchat possa svolgere un ruolo unico nel permettere loro di sostenersi a vicenda in momenti difficili.

Quando il nostro team di Fiducia e Sicurezza individua uno Snapchatter in difficoltà, ha la possibilità d'inoltrare le risorse di prevenzione e supporto relative all'autolesionismo e di avvisare il personale di emergenza, se necessario. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza e sono accessibili pubblicamente a tutti gli Snapchatter.

Ricorsi

A partire da questa relazione, stiamo iniziando a condividere il numero di ricorsi da parte di utenti i cui account sono stati bloccati per violazione delle nostre politiche. Ripristiniamo un account solo se i nostri moderatori determinano che ci sia stato un errore. Durante questo periodo, stiamo condividendo i ricorsi relativi al contenuto di droga.  Nella nostra prossima relazione, condivideremo ulteriori dati relativi ai ricorsi derivanti da altre violazioni delle nostre politiche.

Moderazione degli annunci

Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre politiche della piattaforma. Crediamo in un approccio responsabile e rispettoso alla pubblicità, creando un'esperienza sicura e piacevole per tutti i nostri utenti. Di seguito abbiamo incluso informazioni sulla nostra moderazione della pubblicità. Tieni presente che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora puoi trovare la Galleria degli annunci di Snapchat nella barra di navigazione di questa relazione per la trasparenza. 

Panoramica per paese

Questa sezione fornisce una panoramica dell'attuazione delle nostre Linee Guida per la Community in un campione di regioni geografiche. Le nostre linee guida si applicano a tutti i contenuti pubblicati su Snapchat, nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.

Le informazioni relative ai singoli Paesi sono consultabili scaricando il file CSV allegato: