5. detsember 2024
5. detsember 2024
Me avaldame selle läbipaistvuse aruande kaks korda aastas, et anda ülevaade Snapi ohutusmeetmetest. Me oleme nendele meetmetele pühendunud ja püüame pidevalt aruandeid muuta põhjalikumaks ja informatiivsemaks paljudele sidusrühmadele, kes hoolivad sügavalt meie sisu modereerimisest, õiguskaitsetavadest ning Snapchati kogukonna turvalisusest ja heaolust.
Käesolev läbipaistvuse aruanne hõlmab 2024. aasta esimest poolt (1. jaanuar - 30. juuni). Nagu meie eelmiste aruannete puhul, jagame andmeid rakendusesisese sisu ja kontotasandil teatamiste ülemaailme mahu kohta, mille meie usaldus- ja ohutusmeeskonnad on saanud ja jõustanud konkreetsete kogukonna suuniste rikkumiste kategooriate lõikes; kuidas me reageerisime õiguskaitseorganite ja valitsuste taotlustele; ja kuidas me reageerisime teadetele autoriõiguste ja kaubamärgi rikkumistest. Me esitame selle lehe allosas lingitud failides ka riigipõhise ülevaate.
Osana meie jätkuvast pühendumusest läbipaistvuse aruannete pidevale täiustamisele tutvustame lisaks uusi andmeid, mis rõhutavad meie ennetavaid jõupingutusi kogukonna suuniste rikkumiste avastamiseks ja suuniste jõustamiseks. Me oleme käesolevasse aruandesse lisanud need andmed nii globaalsel tasandil kui ka riiklikel tasanditel ning teeme seda ka edaspidi. Samuti oleme parandanud meie eelmistes aruannetes esinenud märgistusvea: kui me varem ütlesime "Jõustatud sisu kokku", siis nüüd ütleme "Jõustamisi kokku", kajastamaks tõsiasja, et asjakohastest veergudes esitatud andmed hõlmavad jõustamisi nii sisu kui ka konto tasandil.
Lisateavet meie potentsiaalsete veebikahjude vastu võitlevate poliitikate ja aruandlustavade arendamiskavade kohta leiate meie hiljutisest ohutuse ja mõju blogist, mis käsitleb käesolevat läbipaistvuse aruannet. Lisaressursse turvalisuse ja privaatsuse kohta Snapchatis leiate meie läbipaistvuse aruannetele loodud vahekaardilt lehekülje allosas.
Palun pange tähele, et selle läbipaistvuse aruande kõige ajakohasem versioon on saadaval EN-US keeles.
Ülevaade meie usaldus- ja ohutusmeeskondade tegevusest meie kogukonna suuniste jõustamiseks
Meie usaldus- ja ohutusmeeskonnad jõustavad meie kogukonna suuniseid nii ennetavalt (läbi automatiseeritud tööriistade) kui ka reaktiivselt (vastusena teadetele), nagu käesoleva aruande järgmistes jaotistes täpsemalt kirjeldatakse. Selles aruandlustsüklis (2024. aasta esimene poolaasta) võtsid meie usaldus- ja ohutusmeeskonnad järgmisi jõustamismeetmeid:
Ülevaade sisu ja konto rikkumiste kohta
Ajavahemikul 1. juulist kuni 31. detsembrini 2023 jõustas Snap ülemaailmselt 5 376 714 sisu vastu, millest meile teatati ja mis rikkus meie Kogukonna suuniseid.
Aruandeperioodi jooksul oli Rikkuva vaatamise määr (VVR) 0,01 protsenti, mis tähendab, et igast 10 000 Snapchati Snapi ja Loo vaatamisest 1 sisaldas sisu, mis rikkus meie põhimõtteid. Teatatud sisu jõustamiseks kulunud aja mediaan oli ~10 minutit.
Ülevaade sisu ja konto rikkumiste kohta
Ajavahemikul 1. juulist kuni 31. detsembrini 2023 jõustas Snap ülemaailmselt 5 376 714 sisu vastu, millest meile teatati ja mis rikkus meie Kogukonna suuniseid.
Aruandeperioodi jooksul oli Rikkuva vaatamise määr (VVR) 0,01 protsenti, mis tähendab, et igast 10 000 Snapchati Snapi ja Loo vaatamisest 1 sisaldas sisu, mis rikkus meie põhimõtteid. Teatatud sisu jõustamiseks kulunud aja mediaan oli ~10 minutit.
Ülevaade sisu ja konto rikkumiste kohta
Ajavahemikul 1. juulist kuni 31. detsembrini 2023 jõustas Snap ülemaailmselt 5 376 714 sisu vastu, millest meile teatati ja mis rikkus meie Kogukonna suuniseid.
Aruandeperioodi jooksul oli Rikkuva vaatamise määr (VVR) 0,01 protsenti, mis tähendab, et igast 10 000 Snapchati Snapi ja Loo vaatamisest 1 sisaldas sisu, mis rikkus meie põhimõtteid. Teatatud sisu jõustamiseks kulunud aja mediaan oli ~10 minutit.
Sisu ja konto rikkumiste analüüs
Meie üldine aruandlus- ja jõustamismäär jäi eelmise kuue kuuga üsna sarnaseks. Selles tsüklis nägime ligikaudu 10% kasvu kogu sisu ja kontoaruannete osas.
Sel perioodil algas Iisraeli ja Hamasi vaheline konflikt ja selle tulemusena nägime vägivaldse sisu suurenemist. Vihakõnega seotud aruanded kokku kasvasid ~61%, samas kui vihakõne sisu jõustamine kokku kasvas ~97% ja unikaalsete kontode jõustamine ~124%. Terrorismi ja vägivaldse ekstremismi aruanded ja jõustamised on samuti suurenenud, kuigi need moodustavad <0,1% kõigist meie platvormi sisu jõustamistest. Meie usalduse ja turvalisuse meeskonnad on jätkuvalt valvsad ülemaailmsete konfliktide korral, et aidata Snapchati turvalisust hoida. Samuti oleme laiendanud oma läbipaistvusaruannet, et lisada rohkem teavet globaalsel ja riiklikul tasandil, mis käsitleb meie terrorismi ja vägivaldse ekstremismi poliitika rikkumiste kohta esitatud aruannete koguarvu, jõustunud sisu ja jõustunud unikaalseid kontosid.
Ülevaade sisu ja konto rikkumiste kohta
Ajavahemikul 1. juulist kuni 31. detsembrini 2023 jõustas Snap ülemaailmselt 5 376 714 sisu vastu, millest meile teatati ja mis rikkus meie Kogukonna suuniseid.
Aruandeperioodi jooksul oli Rikkuva vaatamise määr (VVR) 0,01 protsenti, mis tähendab, et igast 10 000 Snapchati Snapi ja Loo vaatamisest 1 sisaldas sisu, mis rikkus meie põhimõtteid. Teatatud sisu jõustamiseks kulunud aja mediaan oli ~10 minutit.
Võitlus laste seksuaalse ärakasutamise ja kuritarvitamise vastu
Meie kogukonna liikmete, eriti alaealiste seksuaalne ekspluateerimine on ebaseaduslik, kohutav ja meie Kogukonna suunistega keelatud. Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) ennetamine, avastamine ja likvideerimine meie platvormil on Snapi jaoks esmatähtis ning me arendame pidevalt oma võimalusi nende ja teiste kuritegude vastu võitlemiseks.
Me kasutame aktiivseid tehnoloogilisi tuvastusvahendeid, nagu näiteks PhotoDNA robustne räsisobitus ja Google'i laste seksuaalse kuritarvitamise piltide (CSAI) sobitus, et tuvastada vastavalt teadaolevad ebaseaduslikud pildid ja videod laste seksuaalsest kuritarvitamisest ning teavitada neist USA kadunud ja ekspluateeritud laste riiklikku keskust (NCMEC), nagu seadusega nõutud. Seejärel kooskõlastab omakorda NCMEC vastavalt vajadusele siseriiklike või rahvusvaheliste õiguskaitseorganitega.
2023. aasta teisel poolel avastasime ennetavalt ja võtsime kasutusele meetmeid 59%-l kõigist teatatud laste seksuaalse ekspluateerimise ja kuritarvitamise rikkumistest. See kajastab 39%-list vähenemist võrreldes eelmise perioodiga, mis tuleneb Snapchati aruandlusvõimaluste täiustamisest, mis suurendab meie nähtavust Snapchatis saadetud potentsiaalsete CSEA-de kohta.
*Märkige, et iga NCMEC-ile tehtud esitus võib sisaldada mitut sisu. NCMEC-ile esitatud üksikute meediamaterjalide hulk on võrdne kogu meie rakendatud sisuga. Samuti oleme sellest arvust välja jätnud NCMEC-ile esitatud esitused.
Enesevigastuse ja enesetapu sisu
Me hoolime sügavalt Snapchati kasutajate vaimsest tervisest ja heaolust, mis on jätkuvalt aluseks meie otsustele ehitada Snapchat teistmoodi üles. Me usume, et Snapchat kui platvorm, mis on mõeldud tõeliste sõprade vaheliseks suhtluseks, võib mängida ainulaadset rolli sõprade abistamisel rasketel aegadel.
Kui meie usaldus- ja turvameeskond saab teada, et Snapchatter on hädas, saavad nad edastada enesevigastuse ennetamise ja toetamise vahendid ning vajaduse korral teavitada hädaabitöötajaid. Ressursid, mida me jagame, on saadaval meie ülemaailmses ohutusressursside nimekirjas ja need on avalikult kättesaadavad kõigile Snapchatteritele.
Kaebused
Oma eelmises aruandes tutvustasime kaebusi käsitlevaid näitajaid, kus me tõstsime esile, mitu korda kasutajad palusid meil oma esialgse modereerimisotsuse nende konto vastu uuesti läbi vaadata. Käesolevas aruandes oleme laiendanud oma kaebusi, et hõlmata kõiki meie poliitikakategooriaid seoses kontotasandi rikkumistega.
* Lapse seksuaalse ekspluateerimisega seotud sisu või tegevuse leviku peatamine on esmatähtis. Snap pühendab sellele märkimisväärseid ressursse ja on sellise käitumise suhtes nulltolerantne. CSE kaebuste läbivaatamiseks on vajalik erikoolitust ja nende läbivaatamisega tegeleb sisu graafilise olemuse tõttu piiratud arv töötajaid. 2023. aasta sügisel rakendas Snap poliitikamuudatusi, mis mõjutasid teatavate CSE jõustamiste järjepidevust; me oleme need ebakõlad kõrvaldanud agentide ümberõppe ja kvaliteedi tagamisega. Eeldame, et Snapi järgmisest läbipaistvusaruandest selgub, milliseid edusamme on tehtud CSE kaebustele reageerimise aja ja esialgsete täitetoimingute täpsuse parandamisel.
Piirkondade ja riikide ülevaade
Selles jaotises antakse ülevaade meie usaldus- ja ohutusmeeskondade tegevusest meie kogukonna suuniste jõustamiseks erinevates geograafilistes piirkondades, nii ennetavalt kui ta vastusena rakendusesisestele teadetele meie kogukonna suuniste rikkumiste kohta. Meie kogukonna suunised kehtivad kogu Snapchati sisule ja kõikidele Snapchati kasutajatele üle maailma olenemata asukohast.
Teave üksikute riikide, sealhulgas kõigi ELi liikmesriikide kohta on allalaaditav lisatud CSV-faili kaudu.
Võitlus laste seksuaalse ärakasutamise ja kuritarvitamise vastu
Meie kogukonna liikmete, eriti alaealiste seksuaalne ekspluateerimine on ebaseaduslik, kohutav ja meie Kogukonna suunistega keelatud. Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) ennetamine, avastamine ja likvideerimine meie platvormil on Snapi jaoks esmatähtis ning me arendame pidevalt oma võimalusi nende ja teiste kuritegude vastu võitlemiseks.
Me kasutame aktiivseid tehnoloogilisi tuvastusvahendeid, nagu näiteks PhotoDNA robustne räsisobitus ja Google'i laste seksuaalse kuritarvitamise piltide (CSAI) sobitus, et tuvastada vastavalt teadaolevad ebaseaduslikud pildid ja videod laste seksuaalsest kuritarvitamisest ning teavitada neist USA kadunud ja ekspluateeritud laste riiklikku keskust (NCMEC), nagu seadusega nõutud. Seejärel kooskõlastab omakorda NCMEC vastavalt vajadusele siseriiklike või rahvusvaheliste õiguskaitseorganitega.
2023. aasta teisel poolel avastasime ennetavalt ja võtsime kasutusele meetmeid 59%-l kõigist teatatud laste seksuaalse ekspluateerimise ja kuritarvitamise rikkumistest. See kajastab 39%-list vähenemist võrreldes eelmise perioodiga, mis tuleneb Snapchati aruandlusvõimaluste täiustamisest, mis suurendab meie nähtavust Snapchatis saadetud potentsiaalsete CSEA-de kohta.
Võitlus laste seksuaalse ärakasutamise ja kuritarvitamise vastu
Meie kogukonna liikmete, eriti alaealiste seksuaalne ekspluateerimine on ebaseaduslik, kohutav ja meie Kogukonna suunistega keelatud. Lapse seksuaalse ärakasutamise ja kuritarvitamise (CSEA) ennetamine, avastamine ja likvideerimine meie platvormil on Snapi jaoks esmatähtis ning me arendame pidevalt oma võimalusi nende ja teiste kuritegude vastu võitlemiseks.
Me kasutame aktiivseid tehnoloogilisi tuvastusvahendeid, nagu näiteks PhotoDNA robustne räsisobitus ja Google'i laste seksuaalse kuritarvitamise piltide (CSAI) sobitus, et tuvastada vastavalt teadaolevad ebaseaduslikud pildid ja videod laste seksuaalsest kuritarvitamisest ning teavitada neist USA kadunud ja ekspluateeritud laste riiklikku keskust (NCMEC), nagu seadusega nõutud. Seejärel kooskõlastab omakorda NCMEC vastavalt vajadusele siseriiklike või rahvusvaheliste õiguskaitseorganitega.
2023. aasta teisel poolel avastasime ennetavalt ja võtsime kasutusele meetmeid 59%-l kõigist teatatud laste seksuaalse ekspluateerimise ja kuritarvitamise rikkumistest. See kajastab 39%-list vähenemist võrreldes eelmise perioodiga, mis tuleneb Snapchati aruandlusvõimaluste täiustamisest, mis suurendab meie nähtavust Snapchatis saadetud potentsiaalsete CSEA-de kohta.
Reklaamide modereerimine
Snap on võtnud endale kohustuse tagada, et kõik reklaamid oleksid täielikult kooskõlas meie reklaamipoliitikaga. Me usume vastutustundlikku ja lugupidavasse lähenemisse reklaamides, luues kõigile meie kasutajatele turvalise ja meeldiva kogemuse. Allpool oleme lisanud ülevaate meie Snapchati tasuliste reklaamide modereerimisest. Pange tähele, et Snapchati reklaame võib eemaldada erinevatel põhjustel, nagu on kirjeldatud Snapi reklaamipoliitikas, sealhulgas eksitava sisu, täiskasvanutele mõeldud sisu, vägivaldse või häiriva sisu, vihakõne ja intellektuaalomandi rikkumise tõttu. Lisaks leiate nüüd Snapchati reklaamide galerii selle läbipaistvusaruande navigatsiooniribalt.

























