Snap Values
Pārredzamības atskaite
2024. gada 1. janvāris – 2024. gada 30. jūnijs

Izdota:

2024. gada 5. decembris

Atjaunināta:

2024. gada 5. decembris

Mēs publicējam šo pārredzamības atskaiti divas reizes gadā, lai sniegtu ieskatu par Snapchat centieniem drošības jomā. Mēs esam apņēmušies turpināt to darīt, kā arī nepārtraukti cenšamies padarīt šīs atskaites visaptverošākas un informatīvākas daudzajām ieinteresētajām pusēm, kurām patiesi rūp mūsu satura moderācija, tiesībaizsardzības prakse un Snapchat kopienas drošība un labbūtība. 

Šī Pārredzamības atskaite attiecas uz 2024. gada pirmo pusi (1. janvāris – 30. jūnijs). Tāpat kā mūsu iepriekšējās atskaitēs mēs kopīgojam datus par lietotnē ietvertā satura globālo apjomu un konta līmeņa pārskatiem, ko mūsu Uzticamības un Drošības komandas ir saņēmušas un piemērojušas noteiktas Kopienas noteikumu pārkāpumu kategorijās; kā mēs atbildējām uz tiesībaizsardzības iestāžu un valdību pieprasījumiem; kā arī informāciju par to, kā esam reaģējuši uz autortiesību un preču zīmju autorstiesību pārkāpumu paziņojumiem. Mēs arī sniedzam valstīm specifiskus ieskatus šīs lapas apakšdaļā esošajos failos.

Pastāvīgi cenšoties uzlabot mūsu pārredzamības atskaites, mēs arī ieviešam jaunus datus, izceļot mūsu proaktīvos centienus noteikt plašāku mūsu Kopienas noteikumu pārkāpumu klāstu un novērst tos. Mēs esam iekļāvuši šos datus atskaitē gan gobālā, gan valsts līmenī, un turpināsim šādi rīkoties arī turpmāk. Mēs arī esam izlabojuši ar apzīmējumu saistītu kļūdu mūsu iepriekšējās atskaitēs, kur iepriekš izmantojām frāzi “Satura piespiedu mainīšanas gadījumu kopskaits”, aizstājot to ar frāzi “Izpildes darbību kopskaits”, lai atspoguļotu faktu, ka attiecīgajās kolonnās sniegtie dati ietver gan satura līmeņa, gan kontu līmeņa izpildes darbības.

Papildinformāciju par mūsu politikām potenciālo tiešsaistes kaitējumu apkarošanai un plāniem turpināt attīstīt mūsu ziņošanas prakses, lūdzu, skatiet mūsu jaunākajā Drošības un Ietekmes emuārā saistībā ar šo Pārredzamības atskaiti. Lai atrastu papildu resursus par drošību un privātumu Snapchat platformā , skatiet cilni Par pārredzamības atskaitēm šīs lapas apakšdaļā.

Lūdzu, ņemiet vērā, ka jaunākā šīs Pārredzamības atskaites versija ir atrodama angļu valodā.

Pārskats par mūsu Uzticības un Drošības komandu darbībām Kopienas noteikumu īstenošanai

Mūsu Uzticības un Drošības komandas īsteno Kopienas noteikumus gan proaktīvi (ar automatizētu rīku palīdzību), gan reaktīvi (reaģējot uz ziņojumiem par pārkāpumiem), kā tālāk aprakstīts šī pārskata sadaļās. Šajā pārskata ciklā (2024. gada 1. puse) mūsu Uzticības un Drošības komandas veica tālāk norādītās izpildes darbības:

Satura pārskats un Pārkāpumi kontā

No 1. jūlija līdz 2023. gada 31. decembrim Snap visā pasaulē vērsās pret 5 376 714 satura darbiem, par kuriem mums tika ziņots un kuri pārkāpa mūsu Kopienas pamatnostādnes.

Pārskata periodā pārkāpumu rādītājs (VVR) bija 0,01%, kas nozīmē, ka no katriem 10 000 Snap un Story skatījumu Snapchat vietnē 1 saturēja saturu, kas bija pretrunā mūsu noteikumiem. Vidējais paziņotā satura ieviešanas laiks bija ~ 10 minūtes.

Satura pārskats un Pārkāpumi kontā

No 1. jūlija līdz 2023. gada 31. decembrim Snap visā pasaulē vērsās pret 5 376 714 satura darbiem, par kuriem mums tika ziņots un kuri pārkāpa mūsu Kopienas pamatnostādnes.

Pārskata periodā pārkāpumu rādītājs (VVR) bija 0,01%, kas nozīmē, ka no katriem 10 000 Snap un Story skatījumu Snapchat vietnē 1 saturēja saturu, kas bija pretrunā mūsu noteikumiem. Vidējais paziņotā satura ieviešanas laiks bija ~ 10 minūtes.

Satura pārskats un Pārkāpumi kontā

No 1. jūlija līdz 2023. gada 31. decembrim Snap visā pasaulē vērsās pret 5 376 714 satura darbiem, par kuriem mums tika ziņots un kuri pārkāpa mūsu Kopienas pamatnostādnes.

Pārskata periodā pārkāpumu rādītājs (VVR) bija 0,01%, kas nozīmē, ka no katriem 10 000 Snap un Story skatījumu Snapchat vietnē 1 saturēja saturu, kas bija pretrunā mūsu noteikumiem. Vidējais paziņotā satura ieviešanas laiks bija ~ 10 minūtes.

Satura analīze un pārkāpumi kontā

Mūsu kopējie ziņošanas un izpildes rādītāji saglabājās diezgan līdzīgi kā iepriekšējos sešos mēnešos. Šajā ciklā par aptuveni 10 % palielinājies kopējais satura un kontu skaits.

Šajā laikā sākās Izraēlas un Hamas konflikts, un tā rezultātā pieauga vardarbīga satura izplatība. Kopējais ar naida runu saistīto ziņojumu skaits palielinājās par ~61%, savukārt kopējais ar naida runu saistīto satura piemērošanas gadījumu skaits palielinājās par ~97% un unikālo kontu piemērošanas gadījumu skaits palielinājās par ~124%. Ir palielinājies arī ziņojumu par terorismu un vardarbīgu ekstrēmismu un to izpildes gadījumu skaits, lai gan tie veido mazāk nekā 0,1 % no kopējā satura izpildes gadījumu skaita mūsu platformā. Mūsu uzticības un drošības komandas turpina saglabāt modrību, kad rodas globāli konflikti, lai palīdzētu nodrošināt Snapchat drošību. Esam arī paplašinājuši savu pārredzamības ziņojumu, iekļaujot plašāku informāciju globālā un valstu līmenī par kopējiem ziņojumiem, īstenoto saturu un unikālajiem kontiem, kas īstenoti par mūsu Terorisma un vardarbīga ekstrēmisma politikas pārkāpumiem.

Satura pārskats un Pārkāpumi kontā

No 1. jūlija līdz 2023. gada 31. decembrim Snap visā pasaulē vērsās pret 5 376 714 satura darbiem, par kuriem mums tika ziņots un kuri pārkāpa mūsu Kopienas pamatnostādnes.

Pārskata periodā pārkāpumu rādītājs (VVR) bija 0,01%, kas nozīmē, ka no katriem 10 000 Snap un Story skatījumu Snapchat vietnē 1 saturēja saturu, kas bija pretrunā mūsu noteikumiem. Vidējais paziņotā satura ieviešanas laiks bija ~ 10 minūtes.

Bērnu seksuālas ekspluatācijas un izmantošanas apkarošana

Jebkura mūsu kopienas locekļa, īpaši nepilngadīgo, seksuāla ekspluatācija ir nelikumīga, pretīga un to aizliedz mūsu Kopienas noteikumi. Bērnu seksuālas ekspluatācijas un izmantošanas attēlu (CSEA) iekļūšanas novēršana, atklāšāna un izskaušana mūsu platformā ir augstākā Snap prioritāte, un mēs nepārtraukti uzlabojam savas spējas apkarot šādus un citus noziegumus.

Mēs izmantojam aktīvās tehnoloģijas atklāšanas rīkus, piemēram, PhotoDNA spēcīgu jaucēju savietošanu un Google Bērnu seksuālas izmantošanas attēlu (CSAI) savietošanu, lai attiecīgi identificētu pazīstamus nelegālus bērnu seksuālas izmantošanas attēlus un video un ziņotu par tiem ASV Nacionālajam pazudušu un ekspluatētu bērnu centram (NCMEC), kā to prasa likums. Savukārt NCMEC tad pēc nepieciešamības koordinē darbību ar pašmāju un starptautiskām tiesībsargājošajām iestādēm.

2023. gada otrajā pusgadā mēs proaktīvi atklājām un rīkojāmies ar 59 % no visiem paziņotajiem bērnu seksuālās izmantošanas un seksuālās vardarbības pārkāpumiem. Tas atspoguļo 39% kopējo samazinājumu salīdzinājumā ar iepriekšējo periodu, jo tika uzlabotas Snapchat lietotāju ziņošanas iespējas, palielinot mūsu redzamību par potenciālajiem CSEA sūtījumiem Snapchat tīklā.

*Ņemiet vērā, ka katrā iesniegumā NCMEC var būt iekļautas vairākas satura vienības. Kopējais NCMEC iesniegto atsevišķo mēdiju vienību skaits ir vienāds ar kopējo saturu, attiecībā uz kuru mēs esam veikuši pasākumus. No šī skaitļa esam izslēguši arī NCMEC iesniegtos atsauktos iesniegumus.

Paškaitējuma un Pašnāvības saturs

Mums patiešām rūp Snapchat lietotāju garīgā veselība un labklājība, kas ir nodrošinājis un turpina nodrošināt pamatu mūsu lēmumiem veidot Snapchat citādi. Mēs uzskatām, ka Snapchat, kā saziņai starp īstiem draugiem un to starpā paredzētai platformai, var būt unikāla loma dot iespēju draugiem palīdzēt viens otram grūtos brīžos.

Ja mūsu uzticības un drošības komanda uzzina par Snapchatter grūtībās nonākušu lietotāju, tā var nosūtīt pašskaitējuma profilakses un atbalsta resursus un vajadzības gadījumā informēt neatliekamās palīdzības darbiniekus. Resursi, kādus kopīgojam, ir pieejami mūsu vispasaules drošības resursu sarakstā, un tie ir publiski pieejami visiem Snapchat lietotājiem.

Apelācijās

Iepriekšējā ziņojumā mēs ieviesām pārsūdzību metriku, kurā norādījām, cik reizes lietotāji mums lūdza pārskatīt sākotnējo lēmumu par viņu konta aizstāvēšanu. Šajā ziņojumā mēs esam paplašinājuši mūsu aicinājumus, lai aptvertu visas mūsu politikas kategorijas konta līmenī.

* Galvenā prioritāte ir apturēt ar bērnu seksuālu izmantošanu saistīta satura vai darbību izplatīšanos. Snap velta nozīmīgus resursus šim mērķim un īsteno absolūtas neiecietības politiku attiecībā uz šādu rīcību.  Lai pārskatītu ar bērnu seksuālu izmantošanu (CSE) saistītas pārsūdzības, ir nepieciešama īpaša apmācība, un pastāv ierobežota aģentu grupa, kas strādā ar šīm pārbaudēm satura grafiskā rakstura dēļ.  2023. gada rudenī Snap ieviesa politikas izmaiņas, kas ietekmēja noteiktu CSE izpildes darbību konsekvenci, un mēs esam novērsuši šīs neatbilstības, veicot aģentu pārkvalifikāciju un kvalitātes nodrošināšanu.  Mēs sagaidām, ka nākamajā Snap pārredzamības atskaitē tiks atklāts progress attiecībā uz samazinātu reaģēšanas laiku darbā ar CSE pārsūdzībām un uzlabotu sākotnējo izpildes darbību precizitāti. 

Reģionu un Valstu pārskats

Šajā sadaļā ir sniegts pārskats par mūsu Uzticības un Drošības komandu darbībām, lai īstenotu mūsu Kopienas noteikumus gan proaktīvi, gan reaģējot uz lietotnē sniegtajiem ziņojumiem par pārkāpumiem atlasītos ģeogrāfiskajos reģionos. Mūsu Kopienas noteikumi attiecas uz visu Snapchat esošo saturu un visiem Snapchat lietotājiem visā pasaulē neatkarīgi no atrašanās vietas.

Informācija par atsevišķām valstīm, tostarp visām ES dalībvalstīm, ir pieejama lejupielādei, izmantojot pievienoto CSV failu.

Pārskats par mūsu Uzticības un Drošības komandu darbībām Kopienas noteikumu īstenošanai 

Bērnu seksuālas ekspluatācijas un izmantošanas apkarošana

Jebkura mūsu kopienas locekļa, īpaši nepilngadīgo, seksuāla ekspluatācija ir nelikumīga, pretīga un to aizliedz mūsu Kopienas noteikumi. Bērnu seksuālas ekspluatācijas un izmantošanas attēlu (CSEA) iekļūšanas novēršana, atklāšāna un izskaušana mūsu platformā ir augstākā Snap prioritāte, un mēs nepārtraukti uzlabojam savas spējas apkarot šādus un citus noziegumus.

Mēs izmantojam aktīvās tehnoloģijas atklāšanas rīkus, piemēram, PhotoDNA spēcīgu jaucēju savietošanu un Google Bērnu seksuālas izmantošanas attēlu (CSAI) savietošanu, lai attiecīgi identificētu pazīstamus nelegālus bērnu seksuālas izmantošanas attēlus un video un ziņotu par tiem ASV Nacionālajam pazudušu un ekspluatētu bērnu centram (NCMEC), kā to prasa likums. Savukārt NCMEC tad pēc nepieciešamības koordinē darbību ar pašmāju un starptautiskām tiesībsargājošajām iestādēm.

2023. gada otrajā pusgadā mēs proaktīvi atklājām un rīkojāmies ar 59 % no visiem paziņotajiem bērnu seksuālās izmantošanas un seksuālās vardarbības pārkāpumiem. Tas atspoguļo 39% kopējo samazinājumu salīdzinājumā ar iepriekšējo periodu, jo tika uzlabotas Snapchat lietotāju ziņošanas iespējas, palielinot mūsu redzamību par potenciālajiem CSEA sūtījumiem Snapchat tīklā.

Bērnu seksuālas ekspluatācijas un izmantošanas apkarošana

Jebkura mūsu kopienas locekļa, īpaši nepilngadīgo, seksuāla ekspluatācija ir nelikumīga, pretīga un to aizliedz mūsu Kopienas noteikumi. Bērnu seksuālas ekspluatācijas un izmantošanas attēlu (CSEA) iekļūšanas novēršana, atklāšāna un izskaušana mūsu platformā ir augstākā Snap prioritāte, un mēs nepārtraukti uzlabojam savas spējas apkarot šādus un citus noziegumus.

Mēs izmantojam aktīvās tehnoloģijas atklāšanas rīkus, piemēram, PhotoDNA spēcīgu jaucēju savietošanu un Google Bērnu seksuālas izmantošanas attēlu (CSAI) savietošanu, lai attiecīgi identificētu pazīstamus nelegālus bērnu seksuālas izmantošanas attēlus un video un ziņotu par tiem ASV Nacionālajam pazudušu un ekspluatētu bērnu centram (NCMEC), kā to prasa likums. Savukārt NCMEC tad pēc nepieciešamības koordinē darbību ar pašmāju un starptautiskām tiesībsargājošajām iestādēm.

2023. gada otrajā pusgadā mēs proaktīvi atklājām un rīkojāmies ar 59 % no visiem paziņotajiem bērnu seksuālās izmantošanas un seksuālās vardarbības pārkāpumiem. Tas atspoguļo 39% kopējo samazinājumu salīdzinājumā ar iepriekšējo periodu, jo tika uzlabotas Snapchat lietotāju ziņošanas iespējas, palielinot mūsu redzamību par potenciālajiem CSEA sūtījumiem Snapchat tīklā.

Reklāmu moderācija

Snap ir apņēmusies nodrošināt, lai visas reklāmas pilnībā atbilstu mūsu reklāmas politikai. Mēs ticam atbildīgai un cieņpilnai pieejai reklāmai, radot drošu un baudāmu pieredzi visiem mūsu lietotājiem. Zemāk mēs esam iekļāvuši ieskatu mūsu veiktajā maksas reklāmu moderēšanā Snapchat tīklā. Ņemiet vērā, ka Snapchat esošas reklāmas var tikt izņemtas dažādu iemeslu dēļ, kā izklāstīts Snap Reklāmas politikā, ieskaitot maldinošu saturu, pieaugušajiem paredzētu saturu, vardarbīgu vai kaitējošu saturu, naida runu un intelektuālā īpašuma autortiesību pārkāpumu. Turklāt Snapchat Reklāmu galeriju tagad varat atrastšīs pārredzamības atskaites navigācijas joslā.