05 dicembre 2024
05 dicembre 2024
Pubblichiamo questa relazione per la trasparenza due volte all'anno per fornire informazioni sugli sforzi di Snap in materia di sicurezza. Ci impegniamo continuamente a favore di questi sforzi per rendere queste relazioni più complete e informative per i numerosi stakeholder che hanno a cuore la moderazione dei contenuti, le pratiche di applicazione della legge e la sicurezza e il benessere della community di Snapchat.
La presente relazione per la trasparenza riguarda il primo semestre del 2024 (1 gennaio - 30 giugno). Come nelle nostre relazioni precedenti, condividiamo i dati sul volume totale di segnalazioni in-app a livello di contenuti e di account che hanno ricevuto i nostri team Trust and Safety e nei confronti delle quali abbiamo preso provvedimenti per specifiche categorie di violazioni delle Linee Guida per la Community, sul modo in cui abbiamo risposto alle richieste delle forze dell'ordine e degli enti governativi; e come abbiamo risposto agli avvisi di violazione del diritto d'autore e di marchi registrati. Forniamo inoltre approfondimenti specifici per paese nei file collegati in fondo a questa pagina.
Nell'ambito del nostro impegno continuo a migliorare le nostre relazioni sulla trasparenza, stiamo anche introducendo nuovi dati che evidenziano i nostri sforzi proattivi per rilevare e contrastare una gamma più ampia di violazioni delle Linee Guida per la Community. Abbiamo incluso questi dati a livello globale e nazionale nella presente relazione, e continueremo a farlo in futuro. Abbiamo anche corretto un errore di denominazione nelle nostre relazioni precedenti: mentre in precedenza facevamo riferimento alle "Moderazioni totali dei contenuti", ora facciamo riferimento alle "Moderazioni totali" per riflettere il fatto che i dati forniti nelle colonne pertinenti includono moderazioni sia a livello di contenuto che a livello di account.
Per ulteriori informazioni sulle nostre politiche per la lotta ai potenziali danni online e sui piani per continuare a sviluppare le nostre pratiche di segnalazione, leggere il nostro recente blog sulla sicurezza e sull'impatto della presente relazione per la trasparenza. Per ulteriori risorse in materia di sicurezza e privacy su Snapchat, consultare la scheda Informazioni sulla relazione per la trasparenza in fondo alla pagina.
Tenere presente che la versione più aggiornata della presente relazione per la trasparenza è disponibile nella versione en-US.
Panoramica delle azioni dei nostri team Trust and Safety per il rispetto delle Linee Guida per la Community
I nostri team Trust and Safety applicano le Linee Guida per la Community sia proattivamente (mediante l'uso di strumenti automatizzati) e reattivamente (in risposta alle segnalazioni), come spiegato approfonditamente nelle sezioni seguenti del presente rapporto. In questo ciclo di segnalazioni (primo semestre 2024), i nostri team Trust and Safety hanno adottato le seguenti azioni di moderazione:
Panoramica dei contenuti e delle violazioni degli account
Dal 1 luglio al 31 dicembre 2023, Snap ha adottato una procedura contro 5.376.714 contenuti a livello globale che ci sono stati segnalati e che violano le nostre Linee Guida per la Community.
Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche. Il tempo medio di elaborazione dei contenuti segnalati è stato di circa 10 minuti.
Panoramica dei contenuti e delle violazioni degli account
Dal 1 luglio al 31 dicembre 2023, Snap ha adottato una procedura contro 5.376.714 contenuti a livello globale che ci sono stati segnalati e che violano le nostre Linee Guida per la Community.
Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche. Il tempo medio di elaborazione dei contenuti segnalati è stato di circa 10 minuti.
Panoramica dei contenuti e delle violazioni degli account
Dal 1 luglio al 31 dicembre 2023, Snap ha adottato una procedura contro 5.376.714 contenuti a livello globale che ci sono stati segnalati e che violano le nostre Linee Guida per la Community.
Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche. Il tempo medio di elaborazione dei contenuti segnalati è stato di circa 10 minuti.
Analisi dei contenuti e delle violazioni degli account
I nostri tassi complessivi di segnalazione e applicazione sono rimasti abbastanza simili ai sei mesi precedenti. In questo ciclo, abbiamo osservato un aumento approssimativo del 10% nelle segnalazioni totali di contenuti e account.
Il conflitto tra Israele e Hamas è iniziato in questo periodo, e di conseguenza, abbiamo assistito a un aumento di contenuti violenti. Il totale delle segnalazioni relative all'incitamento all'odio è aumentato del 61%, mentre il totale delle segnalazioni di incitamento all'odio è aumentato del 97% e le segnalazioni di account unici sono aumentate del 124%. Sono aumentate anche le segnalazioni e le applicazioni relative al terrorismo e all'estremismo violento, anche se rappresentano meno dello 0,1% del totale delle applicazioni relative ai contenuti sulla nostra piattaforma. I nostri team di Fiducia e Sicurezza continuano a rimanere vigili di fronte all'insorgere di conflitti globali per contribuire a mantenere Snapchat al sicuro. Abbiamo anche ampliato la nostra relazione per la trasparenza per includere maggiori informazioni a livello globale e nazionale riguardo al totale delle segnalazioni, ai contenuti applicati e agli account unici applicati per le violazioni della nostra politica sul terrorismo e l'estremismo violento.
Panoramica dei contenuti e delle violazioni degli account
Dal 1 luglio al 31 dicembre 2023, Snap ha adottato una procedura contro 5.376.714 contenuti a livello globale che ci sono stati segnalati e che violano le nostre Linee Guida per la Community.
Durante il periodo in esame, abbiamo registrato un tasso di visualizzazione delle violazioni (VVR) dello 0,01%, ovvero su 10.000 visualizzazioni di Snap e Storie su Snapchat, 1 visualizzazione conteneva contenuti che violavano le nostre politiche. Il tempo medio di elaborazione dei contenuti segnalati è stato di circa 10 minuti.
Lotta contro lo sfruttamento e gli abusi sessuali sui minori
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento con tecnologia attiva, come la tecnica di corrispondenza basata su robust hash di PhotoDNA e la tecnica di rilevamento Child Sexual Abuse Imagery (CSAI) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.
Nel secondo semestre del 2023, abbiamo individuato e agito in modo proattivo sul 59% del totale delle violazioni di sfruttamento e abuso sessuale di minori segnalate. Ciò rappresenta una diminuzione totale del 39% rispetto al periodo precedente, grazie ai miglioramenti apportati alle opzioni di segnalazione per gli Snapchatter, che hanno aumentato la nostra visibilità dei potenziali CSEA inviati su Snapchat.
*Si noti che ogni segnalazione al NCMEC può riguardare diversi contenuti. Il numero totale di contenuti inviati al NCMEC è pari al numero totale di contenuti segnalati. Abbiamo anche escluso le presentazioni ritirate al NCMEC da questo numero.
Contenuti relativi all'autolesionismo e al suicidio
L'attenzione che riserviamo alla salute mentale e al benessere degli Snapchatter ha influenzato (e continua a influenzare) molte delle decisioni che abbiamo preso su come sviluppare Snapchat in modo diverso. In quanto piattaforma concepita per favorire la comunicazione tra amici, crediamo che Snapchat possa svolgere un ruolo unico nel permettere loro di aiutarsi a vicenda in momenti difficili.
Quando il nostro team di Fiducia e Sicurezza viene a conoscenza di uno Snapchatter in difficoltà, può inoltrare risorse di prevenzione e supporto all'autolesionismo e avvisare il personale di emergenza, se necessario. Le risorse che condividiamo sono disponibili sulla nostra lista globale di risorse per la sicurezza e sono accessibili pubblicamente a tutti gli Snapchatter.
Ricorsi
Nella nostra relazione precedente, abbiamo introdotto delle metriche sui ricorsi, evidenziando il numero di volte in cui gli utenti ci hanno chiesto di rivedere la nostra decisione iniziale di moderazione nei confronti del loro account. In questa relazione, abbiamo ampliato i nostri ricorsi per includere l'intera gamma delle categorie di politiche a livello di account.
*Fermare la diffusione di contenuti o attività legate allo sfruttamento sessuale di minori è una priorità assoluta. Snap dedica importanti risorse a questo obiettivo e ha tolleranza zero per tali comportamenti. È necessaria una formazione speciale per esaminare i ricorsi CSE ed è presente un team limitato di agenti che si occupa di queste revisioni a causa della natura grafica dei contenuti. Nell'autunno del 2023, Snap ha implementato modifiche alle politiche che hanno influito sulla coerenza di alcune esecuzioni CSE; abbiamo affrontato queste incoerenze tramite la riqualificazione degli agenti e il controllo della qualità. Ci aspettiamo che la prossima relazione per la trasparenza di Snap mostri i progressi ottenuti nel migliorare i tempi di risposta dei ricorsi CSE e nel migliorare la precisione delle azioni esecutive iniziali.
Panoramica regionale e nazionale
Questa sezione fornisce una panoramica delle azioni dei nostri team Trust and Safety per applicare le Linee Guida della Community, sia proattivamente che in risposta alle segnalazioni di violazioni in-app, in un campione di regioni. Le Linee guida della Community si applicano a tutti i contenuti pubblicati su Snapchat nonché a tutti gli Snapchatter in tutto il mondo, a prescindere dalla posizione geografica.
Le informazioni per i singoli Paesi, compresi tutti gli Stati membri dell'UE, sono disponibili per il download tramite il file CSV.
Lotta contro lo sfruttamento e gli abusi sessuali sui minori
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento con tecnologia attiva, come la tecnica di corrispondenza basata su robust hash di PhotoDNA e la tecnica di rilevamento Child Sexual Abuse Imagery (CSAI) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.
Nel secondo semestre del 2023, abbiamo individuato e agito in modo proattivo sul 59% del totale delle violazioni di sfruttamento e abuso sessuale di minori segnalate. Ciò rappresenta una diminuzione totale del 39% rispetto al periodo precedente, grazie ai miglioramenti apportati alle opzioni di segnalazione per gli Snapchatter, che hanno aumentato la nostra visibilità dei potenziali CSEA inviati su Snapchat.
Lotta contro lo sfruttamento e gli abusi sessuali sui minori
Lo sfruttamento sessuale di qualsiasi membro della nostra community, in particolare dei minori, è considerata pratica illegale, ripugnante e vietata dalle nostre Linee Guida per la Community. La prevenzione, l'individuazione e l'eliminazione delle immagini di sfruttamento e abuso sessuale dei bambini (CSEA) sulla nostra piattaforma sono una priorità assoluta per Snap, che evolve continuamente le sue possibilità per combattere questi e altri crimini.
Utilizziamo strumenti di rilevamento con tecnologia attiva, come la tecnica di corrispondenza basata su robust hash di PhotoDNA e la tecnica di rilevamento Child Sexual Abuse Imagery (CSAI) di Google per identificare rispettivamente le immagini e i video illegali di abusi sessuali su minori e segnalarli al National Center for Missing and Exploited Children (NCMEC), come richiesto dalla legge. Il NCMEC, a sua volta, si coordina con le forze dell'ordine nazionali o internazionali, come richiesto.
Nel secondo semestre del 2023, abbiamo individuato e agito in modo proattivo sul 59% del totale delle violazioni di sfruttamento e abuso sessuale di minori segnalate. Ciò rappresenta una diminuzione totale del 39% rispetto al periodo precedente, grazie ai miglioramenti apportati alle opzioni di segnalazione per gli Snapchatter, che hanno aumentato la nostra visibilità dei potenziali CSEA inviati su Snapchat.
Moderazione degli annunci
Snap si impegna a garantire che tutti gli annunci siano pienamente conformi alle nostre Informative sulla Pubblicità. Crediamo in un approccio responsabile e rispettoso alla pubblicità, creando un'esperienza sicura e piacevole per tutti i nostri utenti. Di seguito sono riportate informazioni sulla nostra moderazione degli annunci a pagamento su Snapchat. Tieni presente che gli annunci su Snapchat possono essere rimossi per una serie di motivi, come indicato nelle Informative sulla Pubblicità di Snap, tra cui contenuti ingannevoli, contenuti per adulti, contenuti violenti o inquietanti, incitamento all'odio e violazione della proprietà intellettuale. Inoltre, ora puoi trovare la Galleria degli annunci di Snapchat nella barra di navigazione di questa relazione per la trasparenza.

























