Privacy and Safety Hub

La nostra relazione per la trasparenza per il primo semestre del 2022

29 novembre 2022

Oggi stiamo pubblicando la nostra più recente relazione per la trasparenza, che riguarda il primo semestre del 2022.
Presso Snap, la sicurezza e il benessere della nostra community sono la nostra più grande priorità e le nostre relazioni per la trasparenza biennali sono uno strumento essenziale che utilizziamo per condividere le informazioni chiave e per continuare a ritenerci responsabili.
Dalla nostra prima relazione per la trasparenza del 2015, ci stiamo impegnando a rendere ogni relazione più informativa, digeribile e efficace dell'ultima. Nella nostra ultima relazione, abbiamo apportato diverse aggiunte e miglioramenti per aiutare la nostra community a comprendere meglio le nostre segnalazioni e per rafforzare il nostro impegno a rendere queste relazioni più complete e informative.
Rendere i dati sulle false informazioni disponibili a livello nazionale
Per la prima volta, stiamo introducendo "False Informazioni" come una categoria indipendente disponibile a livello nazionale, basandoci sulla nostra pratica di segnalare le false informazioni a livello globale. Siamo una delle uniche piattaforme a fornire queste informazioni a livello nazionale. Questo semestre abbiamo azionato un totale di 4.877 contenuti falsi o fuorvianti in quanto potenzialmente nocivi o dannosi. Abbiamo sempre adottato un approccio diverso per prevenire la diffusione di informazioni false su Snapchat, a partire dal design della nostra piattaforma. Su Snapchat, non permettiamo ai contenuti non controllati di diventare virali e quando troviamo del contenuto che viola le nostre Linee Guida per la Community la nostra politica è di rimuovere quel contenuto, riducendo immediatamente il rischio che venga condiviso più ampiamente. Il nostro approccio al controllo dei contenuti che includono informazioni false è altrettanto semplice: li rimuoviamo.
Con le recenti elezioni di metà mandato negli Stati Uniti e altre elezioni a livello globale, riteniamo che informazioni nazionali dettagliate sulle nostre attività contro le informazioni false siano molto importanti. Puoi scoprire di più su come preveniamo la diffusione di informazioni false su Snapchat qui. 
Lotta contro lo sfruttamento e gli abusi sessuali sui minori 
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. Prevenire, rilevare e eradicare la pedopornografia (Child Sexual Exploitation and Abuse Imagery (CSEAI)) sulla nostra piattaforma è una delle nostre principali priorità e stiamo continuamente evolvendo le nostre capacità per combattere questo tipo di abuso sulla nostra piattaforma. Nel primo semestre del 2022, abbiamo individuato e preso provvedimenti in modo proattivo sul 94% del totale delle violazioni in materia di sfruttamento e abuso sessuale di minori qui riportate, con un aumento del 6% rispetto alla nostra relazione precedente.
Inoltre, stiamo implementando un linguaggio aggiornato e maggiori sforzi per combattere la CSEAI. Stiamo condividendo il numero totale di contenuti CSEAI che abbiamo rimosso, così come il numero totale di segnalazioni CSEAI che i nostri team di fiducia e sicurezza hanno inviato al National Center for Missing and Exploited Children (NCMEC).
Introduzione di un Glossario per le Definizioni di Policy & Data
Abbiamo aggiunto un Glossario per le Definizioni di Policy & Data da aggiungere a tutte le relazioni da ora in poi. Il nostro obiettivo nell'implementare questo glossario è quello di offrire una maggiore trasparenza sui termini e le metriche che utilizziamo, in modo da descrivere chiaramente quali forme di contenuti che violano le regole sono incluse e azionabili in ogni categoria. Ad esempio, se i lettori non sono sicuri di cosa intendiamo con "Minacce e violenza", "discorso dell'odio", "altri beni regolamentati" o altre categorie di contenuti, possono fare riferimento facilmente al glossario per una descrizione.
Rimozione proattiva di contenuti che violano le regole 
Nell'esaminare i dati della relazione, è inoltre importante notare che le cifre per le segnalazioni e le rimozioni totali considerano solo i contenuti che ci vengono segnalati. Non prende in considerazione i casi in cui Snap ha rilevato e ha proattivamente azionato del contenuto prima che questo venisse segnalato. Riteniamo che i miglioramenti apportati ai nostri sforzi di rilevamento proattivo abbiano giocato un ruolo importante nella diminuzione di segnalazioni totali, numeri di rimozioni e tempi di svolta rispetto alla nostra ultima relazione in categorie chiave. Poiché i nostri strumenti di rilevamento automatico hanno identificato e rimosso i contenuti prima che potessero raggiungere gli Snapchatter, abbiamo visto una diminuzione nelle rimozioni reattive di contenuti (in altre parole, segnalazioni dagli Snapchatter).
In particolare, dalla nostra ultima relazione, abbiamo visto una diminuzione del 44% delle rimozioni di contenuti minacciosi e violenti sulla base di segnalazioni da Snapchatter, oltre a una diminuzione del 37% delle rimozioni di contenuti riguardo la droga e una diminuzione del 34% delle rimozioni di contenuti di discorsi di odio. In media, il nostro tempo di svolta medio per la rimozione di contenuti che violano le regole è migliorato del 33% dall'ultimo semestre, a poco più di un minuto.
Snapchat si è evoluto nel corso degli anni, ma il nostro impegno a favore della trasparenza e della sicurezza e benessere della nostra community rimane invariato. Continueremo a ritenerci responsabili e a comunicare qualunque aggiornamento sul nostro progresso.