Di seguito sono riportate le definizioni dei termini, delle politiche e delle pratiche operative comunemente utilizzate e discusse nella nostra relazione per la trasparenza.
Contenuti sessuali: riguardano la promozione o la distribuzione di nudità sessuale, pornografia o servizi sessuali commerciali. Per ulteriori informazioni, consulta la nostra guida sui Contenuti sessuali. ai fini delle nostre relazioni sulla trasparenza, definiamo e monitoriamo i dati relativi allo sfruttamento e all'abuso sessuale dei minori separatamente da altri tipi di contenuti sessuali.
Molestia e atto di bullismo: qualsiasi comportamento indesiderato che possa causare disagio emotivo a un individuo comune, come abusi verbali, molestie sessuali o attenzioni indesiderate a sfondo sessuale. Questa categoria include anche la condivisione o la ricezione di immagini intime non consensuali (NCII). Per ulteriori informazioni, consulta la nostra guida su Molestia e atto di bullismo.
Minacce e violenza: contenuti che esprimono l'intenzione di arrecare gravi danni fisici o emotivi. Per "violenza" si intende qualsiasi contenuto che intenda incitare, glorificare o rappresentare la violenza umana, l'abuso di animali, il sangue o immagini esplicite. Per ulteriori informazioni, consulta la nostra guida su Minacce, violenza e pericoli.
Autolesionismo e suicidio: glorificazione dell'autolesionismo, inclusa la promozione di disordini alimentari, del suicidio o di pratiche che portino a procurarsi dolore. Per ulteriori informazioni, consulta la nostra guida su Minacce, violenza e pericoli.
Informazioni false: si riferisce a contenuti falsi o fuorvianti che possono arrecare danni o hanno natura diffamatoria, come la negazione dell'esistenza di eventi tragici, dichiarazioni mediche infondate o la compromissione dell'integrità delle procedure civili o la manipolazione dei contenuti per scopi non veritieri o fuorvianti, anche tramite l'uso dell'IA generativa o di editing ingannevole. Per ulteriori informazioni, consulta la nostra guida su Informazioni false o ingannevoli dannose.
Furto d'identità: si verifica quando un account assume l'identità di un'altra persona o brand. Per ulteriori informazioni, consulta la nostra guida su Informazioni false o ingannevoli dannose.
Spam: messaggi non richiesti o contenuti condivisi non pertinenti che possono causare confusione o rappresentare un rischio o un fastidio per gli utenti legittimi. Per ulteriori informazioni, consulta la nostra guida su Informazioni false o ingannevoli dannose.
Droghe: si riferisce alla distribuzione e all'uso di droghe illegali (comprese le pillole contraffatte) e ad altre attività illecite riguardanti le droghe. Per ulteriori informazioni, consulta la nostra guida sulle Attività illegali o regolamentate.
Armi: si riferisce a strumenti concepiti o utilizzati per uccidere, arrecare lesioni fisiche o altri danni materiali. Per ulteriori informazioni, consulta la nostra guida sulle Attività illegali o regolamentate.
Altre merci regolamentate: promozione di merci o attività industriali regolamentate, tra cui il gioco d'azzardo illegale, i prodotti a base di tabacco e gli alcolici. Questa categoria comprende anche attività illegali o pericolose, che potrebbero promuovere o incoraggiare comportamenti potenzialmente criminosi o rappresentare un serio rischio per la vita, la sicurezza o il benessere di un individuo. Per ulteriori informazioni, consulta la nostra guida sulle Attività illegali o regolamentate.
Incitamento all'odio: si riferisce a contenuti che sviliscono, diffamano o promuovono atti di discriminazione o violenza nei confronti di un individuo o di un gruppo di individui sulla base di razza, colore, casta, etnia, nazionalità, religione, orientamento sessuale, identità di genere, disabilità, status di veterano, status di immigrazione, status socioeconomico, età, peso o gravidanza. Per ulteriori informazioni, consulta la nostra guida sui Contenuti che incitano all'odio, il terrorismo e l'estremismo violento.
Sfruttamento e abuso sessuale di minori: si riferisce a contenuti che contengono qualsiasi forma di sfruttamento e abuso sessuale di minori, comprese le immagini relative allo sfruttamento e all'abuso sessuale di minori (CSEAI) e l'adescamento di minori per qualsiasi scopo sessuale. Qualsiasi contenuto riconducibile a forme di sfruttamento sessuale e abuso di minori sarà segnalato alle autorità competenti. Per ulteriori informazioni, consulta la nostra guida sui Contenuti sessuali.
Terrorismo ed estremismo violenti: contenuti che promuovono o sostengono il terrorismo o altri atti violenti e criminali commessi da parte di individui e/o gruppi per promuovere determinate ideologie, come quelle di natura politica, religiosa, sociale, razziale o ambientale. Sono inclusi tutti i contenuti che promuovono o sostengono organizzazioni terroristiche straniere o gruppi di estremisti violenti, nonché i contenuti che promuovono il reclutamento per tali organizzazioni o attività di estremismo violento. Per ulteriori informazioni, consulta la nostra guida sui Contenuti che incitano all'odio, il terrorismo e l'estremismo violento.
Segnalazioni di contenuti e account: numero totale di contenuti segnalati e di account segnalati a Snap tramite il nostro menu di segnalazione in-app. Tieni presente che i contenuti includono foto, video e chat.
Applicazione (imposta): un'azione intrapresa nei confronti di un contenuto o di un account (ad esempio, eliminazione, avviso, blocco). Tieni presenti che i contenuti includono foto, video e chat. Le violazioni dei contenuti segnalati possono essere gestite da operatori umani o tramite automazione (quando è possibile un'automazione ad alta precisione).
Totale dei contenuti applicati: il numero totale di contenuti (ad esempio, Snap, Storie) contro cui è stata applicata la legge su Snapchat.
Totale degli account unici applicati: il numero totale di account unici contro cui è stata applicata la legge su Snapchat. Ad esempio, se un singolo account è stato sanzionato più volte per vari motivi (ad esempio, un utente è stato avvisato per aver pubblicato informazioni false e poi cancellato per aver molestato un altro utente), solo un account sarà calcolato in questa metrica. Entrambe le misure di esecuzione sarebbero comunque incluse nella nostra tabella "Panoramica delle violazioni dei contenuti e degli account", con un'esecuzione unica per "False informazioni" e un'esecuzione unica per "Molestia e atto di bullismo".
% del totale delle segnalazioni eseguite da Snap: questo valore mostra la percentuale di contenuti e account eseguiti nell'ambito di una polizza divisa per il totale di contenuti e account eseguiti nell'ambito di tutti i motivi della polizza.
Tempo di elaborazione: l'intervallo di tempo che intercorre tra il momento in cui i nostri team per la sicurezza ricevono per la prima volta una segnalazione (di solito nel momento in cui viene presentata) e l'ultimo riferimento orario di un'azione esecutiva. Se si verificano più cicli di revisione, il tempo finale viene calcolato in base all'ultima azione.
Violative View Rate (VVR): per "VVR" si intende la percentuale di visualizzazioni di Storie e Snap che contenevano contenuti violati, in proporzione a tutte le visualizzazioni di Storie e Snap su Snapchat. Ad esempio, se il nostro VVR è dello 0,03%, ciò significa che su ogni 10.000 visualizzazioni di Snap e Storie su Snapchat, 3 contenevano contenuti che violavano le nostre politiche. Questa metrica ci consente di capire quale percentuale di visualizzazioni su Snapchat proviene da contenuti che violano le nostre Linee Guida per la Community (che sono stati segnalati o fatti rispettare in modo proattivo).
Ricorso: un ricorso si verifica quando un utente invia una richiesta di riesame di una decisione di esecuzione di blocco dell'account. Ad esempio, potremmo rimuovere un account che ha violato la nostra politica sulle molestie. Un utente può non essere d'accordo con la valutazione e presentare ricorso affinché riconsideriamo la nostra decisione.
Reintegrazione: una reintegrazione è un'inversione della decisione di moderazione originale presa in risposta ad un appello. Dopo aver ricevuto un ricorso, esamineremo e valuteremo se la nostra azione esecutiva iniziale è stata corretta. Se stabiliamo di aver commesso un errore nell'applicare il contenuto o l'account secondo le linee guida delle nostre politiche sulla piattaforma, ripristineremo il contenuto o l'account oggetto di ricorso sulla nostra piattaforma.