25 ottobre 2023
13 dicembre 2023
Per fornire una panoramica dell'impegno di Snap in materia di sicurezza, della natura e del volume dei contenuti segnalati sulla nostra piattaforma, pubblichiamo relazioni per la trasparenza a cadenza semestrale. Ci impegniamo a rendere queste relazioni sempre più complete e informative per i numerosi stakeholder che hanno a cuore il benessere della nostra community, nonché le nostre pratiche in materia di moderazione dei contenuti e di applicazione della legge.
Questa relazione per la trasparenza si riferisce alla prima metà del 2023 (1 gennaio-30 giugno). Come nelle nostre relazioni precedenti, condividiamo i dati sul numero totale di segnalazioni in-app a livello di contenuti e di account che abbiamo ricevuto e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni di politiche, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; nonché sui provvedimenti che abbiamo preso suddivisi per Paese.
Come parte del nostro continuo impegno a migliorare le nostre relazioni per la trasparenza, stiamo introducendo alcuni nuovi elementi con questa versione. Abbiamo aggiunto ulteriori dati relativi alle nostre pratiche pubblicitarie e alla moderazione, nonché ai ricorsi per i contenuti e gli account. In linea con la Legge sui servizi digitali dell'UE, abbiamo anche aggiunto nuove informazioni contestuali sulle nostre operazioni negli Stati membri dell'UE, come il numero di moderatori di contenuti e di utenti attivi mensili (MAU) nella regione. Gran parte di queste informazioni è disponibile all'interno del rapporto e nella pagina dedicata all'Unione Europea del Centro per la trasparenza.
Infine, abbiamo aggiornato il nostro Glossario con i link alle spiegazioni delle Linee Guida per la Community, che forniscono un contesto aggiuntivo sulla nostra politica di piattaforma e sui nostri sforzi operativi.
Per ulteriori informazioni sulle politiche contro i pericoli online e i nostri piani per continuare a migliorare le pratiche di segnalazione, consulta il nostro Blog Sicurezza e Impatto più recente in relazione a questa relazione di trasparenza.
Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consulta la scheda Informazioni sulla Relazione di Trasparenza in fondo alla pagina.
Si prega di notare che la versione più aggiornata della presente relazione per la trasparenza è disponibile nel locale en-US.
Panoramica dei contenuti e delle violazioni degli account
Dal 1 gennaio al 30 giugno 2023, Snap ha preso azione contro 6.216.118 contenuti a livello globale che violavano le nostre politiche.
Durante il periodo di riferimento, abbiamo constatato un Rapporto di Violazioni Visualizzate (VVR) dello 0,02%, ovvero su ogni 10.000 visualizzazioni di Snap e Storie su Snapchat, 2 violavano le nostre politiche.
*Applicare in modo corretto e coerente le norme contro le informazioni false è un processo dinamico che richiede un contesto e una diligenza aggiornati. Nel tentativo di migliorare costantemente il livello di precisione dell'applicazione delle norme da parte dei nostri agenti in questa categoria, a partire dal primo semestre del 2022 abbiamo scelto di riportare i dati delle categorie "Contenuti moderati" e "Account unici soggetti a imposizioni" che sono stimati sulla base di una rigorosa verifica della qualità di una parte statisticamente significativa di applicazioni di informazioni false. In particolare, selezioniamo un campione statisticamente significativo di sanzioni per false informazioni in ogni Paese e controlliamo la qualità delle relative decisioni. Utilizziamo quindi questi controlli di qualità per calcolare i tassi di applicazione con un intervallo di affidabilità del 95% (margine di errore del +/- 5%), che utilizziamo per calcolare i casi di sanzioni per informazioni false riportati nella Relazione per la trasparenza.
Analisi dei contenuti e delle violazioni degli account
I nostri tassi complessivi di segnalazione e moderazione sono rimasti abbastanza simili a quelli dei sei mesi precedenti, con alcune eccezioni in delle categorie chiave. In questo ciclo abbiamo osservato una diminuzione approssimativa del 3% nelle segnalazioni totali di contenuti e account e negli atti di moderazione.
Le categorie con le fluttuazioni più rilevanti sono state Molestie e Bullismo, Spam, Armi e False Informazioni. Molestie e Bullismo hanno registrato un aumento del 56% nelle segnalazioni totali e un conseguente aumento del 39% negli atti di moderazione verso i contenuti e gli account individuali. Questi aumenti della moderazione sono stati accompagnati da una diminuzione del 46% dei tempi di intervento, a dimostrazione delle efficienze operative che il nostro team ha ottenuto nella moderazione di questo tipo di contenuti incriminati. Allo stesso modo, abbiamo osservato un aumento del 65% nelle segnalazioni totali per lo Spam, con un aumento del 110% nella moderazione dei contenuti e dell'80% per gli account, mentre i nostri team hanno ridotto i tempi di consegna dell'80%. La nostra categoria Armi ha registrato una diminuzione del 13% nelle segnalazioni totali, una diminuzione del 51% nella moderazione dei contenuti e del 53% nella moderazione degli account unici. Infine, la nostra categoria Informazioni False ha registrato un aumento del 14% nelle segnalazioni totali, ma una diminuzione del 78% nella moderazione dei contenuti e del 74% nella moderazione degli account unici. Ciò può essere attribuito al prosieguo del processo di Quality Assurance (QA) e al ricorso che applichiamo alle segnalazioni di informazioni false, per garantire che i nostri team di moderazione rilevino e agiscano con precisione sulla piattaforma.
Nel complesso, anche se abbiamo rilevato cifre generalmente simili a quelle dell'ultimo periodo, riteniamo importante continuare a migliorare gli strumenti che la nostra community utilizza per segnalare attivamente e accuratamente potenziali violazioni non appena appaiono sulla piattaforma.