Eiropas Savienība
2023. gada 1. jūlijs — 2023. gada 31. decembris

Izdota:

2024. gada 25. aprīlis

Atjaunināta:

2024. gada 25. aprīlis

Laipni lūdzam Eiropas Savienības (ES) pārskatāmības lapā, kurā publicējam ES specifisku informāciju, kā paredzēts ES Digitālo pakalpojumu likumā (DSA), Audiovizuālo mediju pakalpojumu direktīvā (AVMSD) and Nīderlandes mediju likumā (DMA). Lūdzu, ievērojiet, ka jaunākā šīs Pārredzamības atskaites redakcija ir atrodama en-US vietnē.

Juridiskais pārstāvis

Snap Group Limited ir iecēlusi Snap B.V. par savu Juridisko pārstāvi DSA vajadzībām. Jūs varat sazināties ar pārstāvi pa adresi dsa-enquiries [at] snapchat.com saistībā ar DSA, vsp-enquiries [at] snapchat.com saistībā ar AVMSD un DMA, izmantojot mūsu atbalsta vietni [šeit] vai izmantojot šādu adresi:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Ja esat tiesībaizsardzības iestāde, lūdzu, izpildiet šeit norādītās darbības. Saziņai ar mums izmantojiet nīderlandiešu vai angļu valodu.

Regulatīvās iestādes

DSA darbību regulē Eiropas Komisija un Nīderlandes Patērētāju un tirgu iestāde (ACM). AVMSD un DMA darbību regulē Nīderlandes plašsaziņas līdzekļu iestāde (CvdM).

DSA Pārredzamības atskaite

Saskaņā ar DSA 15., 24. un 42. pantu Snap uzņēmumam ir jāpublicē ziņojumi, kuros ietverta noteikta informācija par Snap satura moderēšanu attiecībā uz Snapchat pakalpojumiem, kas tiek uzskatīti par "tiešsaistes platformām", t. i., Spotlight, For You, Publiskie profili, Kartes, Objektīvi un Reklāma. Šis ziņojums jāpublicē ik pēc sešiem mēnešiem, sākot no 2023. gada 25. oktobra.

Divas reizes gadā Snap publicē pārskatāmības ziņojumus, lai sniegtu ieskatu par Snap drošības pasākumiem un mūsu platformā ziņotā satura veidu un apjomu. Mūsu jaunāko ziņojumu par 2023. gada 2. pusgadu (no 1. jūlija līdz 31. decembrim) var atrast šeit. Metrikas, kas attiecas uz Digitālo pakalpojumu likumu, ir atrodamas šajā tīmekļa vietnē.

Vidējais aktīvo saņēmēju skaits mēnesī 
(DSA 24.2. un 42.3 pants)

2023. gada 31. decembrī ES ir vidēji 90,9 miljoni mūsu Snapchat lietotnes mēneša aktīvo saņēmēju (“AMAR”). Tas nozīmē, ka vidēji pēdējo 6 mēnešu laikā vismaz vienu reizi attiecīgā mēneša laikā Snapchat lietotni ES ir atvēruši 90.9 miljoni reģistrētu lietotāju.

Šis skaitlis sadalās pa dalībvalstīm šādi:

Šie skaitļi tika aprēķināti, lai atbilstu spēkā esošajiem DSA noteikumiem, un uz tiem var paļauties tikai DSA vajadzībām. Mēs laika gaitā esam mainījuši to, kā aprēķinām šo skaitli, tostarp arī reaģējot uz mainīgo iekšējo politiku, regulatora norādēm un tehnoloģiju, un skaitļus nav paredzēts salīdzināt starp periodiem. Tas var atšķirties arī no aprēķiniem, kas izmantoti citiem aktīvo lietotāju skaitļiem, kurus mēs publicējam citiem mērķiem.


Dalībvalstu iestāžu pieprasījumi
(DSA 15. panta 1. daļas (a) apakšpunkts)

Noņemšanas pieprasījumi 

Šajā laika periodā mēs neesam saņēmuši nevienu pieprasījumu no ES dalībvalstīm saskaņā ar DSA 9. pantu. 

Informācijas pieprasījumi 

Šajā laika periodā mēs esam saņēmuši šādus informācijas pieprasījumus no ES dalībvalstīm saskaņā ar DSA 10. pantu:

Vidējais laiks iestāžu informēšanai par informācijas pieprasījumu saņemšanu ir 0 minūtes — mēs sniedzam automātisku atbildi, kas apstiprina saņemšanu. Vidējais laiks informācijas pieprasījumu izpildei ir aptuveni 10 dienas. Šajā periodā ir ietverts laiks no brīža, kad Snap saņem informācijas pieprasījumu, līdz brīdim, kad Snap uzskata, ka pieprasījums ir pilnībā izpildīts. Dažos gadījumos šī procesa ilgums daļēji ir atkarīgs no tā, cik ātri likumsargi atbild uz visiem Snap lūgumiem sniegt precīzāku informāciju, kas nepieciešama, lai apstrādātu attiecīgo iestāžu pieprasījumu.

Satura moderācija 


Visam Snapchat saturam ir jāatbilst mūsu Kopienas noteikumiem un Pakalpojumu sniegšanas noteikumiem, kā arī jāatbalsta papildu noteikumi, vadlīnijas un skaidrojumi. Proaktīvi atklāšanas mehānismi un ziņojumi par nelikumīgu vai pārkāpjošu saturu vai kontiem liek veikt pārskatīšanu, un tad mūsu rīku sistēmas apstrādā pieprasījumu, apkopo attiecīgos metadatus un novirza attiecīgo saturu mūsu moderatoru komandai, izmantojot strukturētu lietotāja saskarni, kas ir izstrādāta, lai atvieglotu efektīvas un lietderīgas pārskatīšanas darbības. Ja mūsu moderatoru komandas, pārbaudot ar cilvēku vai automatizētiem līdzekļiem, konstatē, ka lietotājs ir pārkāpis mūsu Noteikumus, mēs varam dzēst pārkāpuma saturu vai kontu, pārtraukt vai ierobežot attiecīgā konta redzamību un/vai paziņot tiesībaizsardzības iestādēm, kā paskaidrots mūsu Snapchat moderēšanas, izpildes un apelāciju skaidrotājā. Lietotāji, kuru kontus mūsu drošības komanda ir bloķējusi par Kopienas noteikumu pārkāpumiem, var iesniegt bloķētā konta pārsūdzību, un lietotāji var pārsūdzēt noteiktus satura izpildes pasākumus.

Paziņojumi par saturu un kontiem (DSA 15. panta 1. daļas (b) apakšpunkts)

Snap ir ieviesis mehānismus, kas ļauj lietotājiem un citām personām paziņot Snap par saturu un kontiem, kas platformā pārkāpj mūsu Kopienas noteikumus un Pakalpojumu sniegšanas noteikumus, tostarp par tiem kontiem, kurus tie uzskata par nelikumīgiem saskaņā ar DSA 16. pantu.  Šie paziņošanas mehānismi ir pieejami lietotnē (t.i., tieši no attiecīgā satura) un mūsu tīmekļa vietnē.

Attiecīgajā periodā mēs saņēmām šādus ar saturu un kontiem saistītus paziņojumus ES:

2023. gada 2. pusē mēs apstrādājām 664 896 paziņojumus, izmantojot vienīgi automatizētus līdzekļus. Tas viss tika īstenots saskaņā ar mūsu Kopienas noteikumiem, jo mūsu Kopienas noteikumos ir norādes par nelikumīgu saturu. 

Papildus lietotāju radītajam saturam un kontiem mēs moderējam reklāmas, ja tās pārkāpj mūsu platformas politikas. Tālāk ir norādīts to reklāmu kopskaits, par kurām tika ziņots un kuras tika noņemtas ES. 

Uzticamu signalizētāju ziņojumi (15. panta 1. daļas (b) apakšpunkts)

Mūsu jaunākās pārredzamības atskaites (2023. gada 2. puse) periodā nebija oficiāli ieceltu uzticamu signalizētāju saskaņā ar DSA. Tā rezultātā šādu uzticamo signalizētāju iesniegto paziņojumu skaits šajā periodā bija nulle (0).

Proaktīva satura moderācija (15. panta 1. daļas (c) apakšpunkts)

Attiecīgajā periodā Snap, pēc savas iniciatīvas iesaistoties satura moderācijā, veica izpilddarbības attiecībā pret šādu saturu un kontiem ES:

Visos Snap patstāvīgās iniciatīvas moderācijas pasākumos tika izmantots manuāls darbs vai automatizācija. Uz mūsu atvertā satura virsmām saturam parasti tiek veikta gan automātiskā regulēšana, gan cilvēku pārskatīšana, pirms tas ir piemērots izplatīšanai plašai auditorijai. Attiecībā uz automatizētajiem rīkiem tie ietver:

  • Proaktīva nelegāla un pārkāpumus radoša satura atklāšana, izmantojot mašīnmācīšanos;

  • Fragmentu atbilstību meklēšanas rīki (piemēram, PhotoDNA un Google CSAI Match);

  • Aizskarošas valodas noteikšana, lai noraidītu saturu, pamatojoties uz noteiktu un regulāri atjauninātu aizskarošu atslēgvārdu, tostarp emocijzīmju, sarakstu.


Pārsūdzība (15. panta 1. daļas (d) apakšpunkts)

Attiecīgajā periodā Snap apstrādāja šādas ar saturu un kontiem saistītas pārsūdzības ES, izmantojot savas iekšējās sūdzību apstrādes sistēmas:


* Bērnu seksuālas izmantošanas apturēšana ir galvenā prioritāte. Snap velta nozīmīgus resursus šim procesam un īsteno absolūtas neiecietības politiku attiecībā uz šādu rīcību.  Lai pārskatītu ar bērnu seksuālu izmantošanu (CSE) saistītas pārsūdzības, ir nepieciešama īpaša apmācība, un pastāv ierobežota aģentu grupa, kas strādā ar šīm pārbaudēm satura grafiskā rakstura dēļ.  2023. gada rudenī Snap ieviesa politikas izmaiņas, kas ietekmēja noteiktu CSE izpildes darbību konsekvenci, un mēs esam novērsuši šīs neatbilstības, veicot aģentu pārkvalifikāciju un stingru kvalitātes nodrošināšanu.  Mēs sagaidām, ka nākamajā pārredzamības atskaitē tiks atklāts progress attiecībā uz samazinātu reaģēšanas laiku darbā ar CSE pārsūdzībām un uzlabotu sākotnējo izpildes darbību precizitāti. 

Automatizēti līdzekļi satura moderācijai (15. panta 1. daļas (e) apakšpunkts)

Uz mūsu atvertā satura virsmām saturam parasti tiek veikta gan automātiskā regulēšana, gan cilvēku pārskatīšana, pirms tas ir piemērots izplatīšanai plašai auditorijai. Attiecībā uz automatizētajiem rīkiem tie ietver:

  • Proaktīva nelegāla un pārkāpumus radoša satura atklāšana, izmantojot mašīnmācīšanos;

  • Hash salīdzināšanas rīki (piemēram, PhotoDNA un Google CSAI Match);

  • Aizskarošas valodas noteikšana, lai noraidītu saturu, pamatojoties uz noteiktu un regulāri atjauninātu aizskarošu atslēgvārdu, tostarp emocijzīmju, sarakstu.


Automatizēto moderācijas tehnoloģiju precizitāte attiecībā uz visiem kaitīgajiem faktoriem bija aptuveni 96,61%, bet kļūdu īpatsvars — aptuveni 3,39%.


Satura moderācijas drošības pasākumi (15. panta 1. daļas (e) apakšpunkts)

Mēs apzināmies, ka ar satura moderāciju ir saistīti riski, tostarp izteikšanās brīvības risks un konstrukcija, ko var izraisīt automatizēta un cilvēka moderatora sajaukums, kā arī aizskaroši ziņojumu, tai skaitā tādi, ko sniegušas valdības, politiski veidojumi vai labi organizētas privātpersonas. Snapchat kopumā nav vieta politiskam vai aktīvistu saturam, īpaši mūsu publiskajā telpā. 


Tomēr, lai pasargātos no šiem riskiem, Snap uzņēmumā ir ieviestas pārbaudes un apmācība, kā arī pastāv stigras, konsekventas procedūras ziņojumu par nelikumīgu vai vardarbīgu saturu apstrādei, ieskaitot ziņojumus no tiesībsargājošajām un valsts iestādēm. Mēs nepārtraukti izvērtējam un uzlabojam savus satura moderācijas algoritmus. Kamēr iespējamu kaitējumu izteikšanās brīvībai ir grūti konstatēt, mums nav zināms par jebkādām nozīmīgām problēmām, kā arī mēs nodrošinām veidus, kā mūsu lietotājiem ziņot par kļūdām, ja tādas atgadās. 


Mūsu politikas un sitēmas veicina konsekventu un taisnīgu pasākumu veikšanu, un, kā aprakstīts iepriekš, nodrošina Snapchat lietotājiem iespēju jēgpilni apstrīdēt piespiedu pasākumu rezultātus, izmantojot paziņošanas un pārsūdzēšanas procesus, kuru mērķis ir aizsargāt mūsu kopienas intereses, vienlaicīgi aizsargājot atsevišķu Snapchat lietotāju tiesības.

Mēs nepārtraukti cenšamies uzlabot savas piespiedu pasākumu politikas un procesus, kā arī esam spēruši lielus soļus potenciāli kaitīga un nelikumīga satura un darbību apkarošanā Snapchat lietotnē. Tas atspoguļojas augšupejošā tendencē mūsu atskaišu un izpildes rādītājos, kas redzami jaunākajā Pārredzamības atskaitē, un samazinātā kopējā pārkāpumu daudzumā Snapchat lietotnē.


Ārpustiesas strīdu izšķiršana (24. panta 1. daļas (a) apakšpunkts)

Mūsu jaunākās Pārredzamības atskaites (2023. gada 2. puse) periodā nebija oficiāli ieceltu uzticamu signalizētāju saskaņā ar DSA. Līdz ar to šādās instancēs iesniegto strīdu skaits šajā laika posmā bija nulle (0), un mēs nespējam nodrošināt rezultātus, vidējo izpildes ilgumu strīdu izšķiršanai un to strīdu daļu, kuros īstenojām institūcijas lēmumus. 



Kontu apturēšana (24. panta 1. daļas (b) apakšpunkts)

2023. gada 2. pusē mēs neveicām nekādu kontu apturēšanu saskaņā ar 23. pantu. Snap uzticamības un drošības komandai ir izstrādātas procedūras, lai ierobežotu iespēju lietotāju kontiem bieži iesniegt acīmredzami nepamatotus paziņojumus vai sūdzības. Šīs procedūras ietver dublējošu ziņojumu izveides ierobežošanu un e-pasta filtru izmantošanu, lai neļautu lietotājiem, kas bieži iesnieguši acīmredzami nepamatotus ziņojumus, turpināt to darīt. Snap veic atbilstošus izpildes pasākumus pret kontiem, kā paskaidrots mūsu Snapchat moderācijas, izpildes un pārsūdzību skaidrojumā, un informācija par Snap kontu piespiedu izpildi ir atrodama mūsu Pārredzamības atskaitē (2023. gada 2. puse). Šādus pasākumus turpināsim pārskatīt un atkārtot.


Moderatoru resursi, Kompetence un Atbalsts (42. panta 2. daļa)

Mūsu satura moderēšanas komanda darbojas visā pasaulē, tādējādi palīdzot nodrošināt Snapchat lietotāju drošību 24 stundas diennaktī, 7 dienas nedēļā. Zemāk ir norādīts mūsu moderatoru cilvēkresursu sadalījums pa moderatoru valodu specialitātēm (ņemiet vērā, ka daži moderatori specializējas vairākās valodās) no 2023. gada 31. decembra:

Augstāk esošajā tabulā tiekļauti visi moderatori, kuri atbalsta ES dalībvalstu valodas, uz 2023. gada 31. decembri. Situācijās, kad mums nepieciešams papildu valodas atbalsts, mēs izmantojam tulkošanas pakalpojumus.

Moderatori tiek pieņemti darbā, izmantojot standarta amata aprakstu, kurā ietverta prasība attiecībā uz valodu (atkarībā no nepieciešamības). Prasība attiecībā uz valodu nosaka, ka pretendentam jāspēj pierādīt valodas pārzināšanu rakstiski un mutvārdos un jābūt vismaz viena gada darba pieredzei zemā amatā. Lai kandidatūra tiktu izskatīta, pretendentiem jāatbilst izglītības un pieredzes prasībām. Pretendentiem arī jāparāda izpratni par aktuālajiem notikumiem valstī vai reģionā, ar kura satura moderāciju viņi nodarbosies.

Mūsu moderācijas komanda pielieto mūsu politikas un īstenošanas pasākumus, lai palīdzētu aizsargāt mūsu Snapchat kopienu. Apmācība tiek veikta vairākas nedēļas, kuru laikā jaunie komandas locekļi tiek apmācīti par Snapchat politikām, rīkiem un jautājumu virzīšanas kārtību. Pabeidzot apmācību, katram moderatoram ir jānokārto sertifikācijas eksāmens, pirms viņam tiek ļauts izskatīt saturu. Mūsu moderācijas komanda regulāri piedalās zināšanu atsvaidzināšanas apmācībā atbilstoši to darbplūsmām, īpaši kad mēs saskaramies ar lietām, kas tuvas politikas robežām un atkarīgas no konteksta. Mēs īstenojam arī prasmju uzlabošanas programmas, sertificēšanas nodarbības un aptaujas, lai nodrošinātu, ka visi moderatori pārzina un ievēro jaunākās aktualizētās politikas. Visbeidzot, ja, pamatojoties uz aktuālajiem notikumiem, parādās steidzamas tendences, mēs ātri izplatām politiku skaidrojumus, lai komandas spētu reaģēt atbilstoši Snap politikām.

Mēs nodrošinām savai satura moderācijas komandai – Snap “digitālajiem pirmajiem reaģētājiem” – ievērojamu atbalstu un resursus, tostarp labjūtības atbalstu darbā un vieglu piekļuvi garīgās veselības pakalpojumiem. 

Bērnu seksuālas ekspluatācijas un izmantošanas (CSEA) plašsaziņas līdzekļu pārlūkošanas ziņojums


Pamats

Jebkura mūsu kopienas locekļa, īpaši nepilngadīgo, seksuāla ekspluatācija ir nelikumīga, pretīga un to aizliedz mūsu Kopienas noteikumi. Bērnu seksuālas ekspluatācijas un izmantošanas attēlu (CSEA) iekļūšanas novēršana, atklāšāna un izskaušana mūsu platformā ir augstākā Snap prioritāte, un mēs nepārtraukti uzlabojam savas spējas apkarot šādus un citus noziegumus.


Mēs izmantojam PhotoDNA spēcīgu jaucēju savietošanu un Google Bērnu seksuālas izmantošanas attēlu (CSAI) savietošanu, lai attiecīgi identificētu pazīstamus nelegālus bērnu seksuālas izmantošanas attēlus un video un ziņotu par tiem ASV Nacionālajam pazudušu un ekspluatētu bērnu centram (NCMEC), kā to prasa likums. Savukārt NCMEC tad pēc nepieciešamības koordinē darbību ar pašmāju un starptautiskām tiesībsargājošajām iestādēm.


Ziņojums

Zemāk norādītie dati ir balstīti uz ar lietotāja kameru uzņemtā un Snapchat augšupielādētā satura proaktīvu skenēšanu, izmantojot PhotoDNA un/vai CSAI Match.

Bērnu seksuālas izmantošanas apturēšana ir galvenā prioritāte. Snap velta nozīmīgus resursus šim procesam un īsteno absolūtas neiecietības politiku attiecībā uz šādu rīcību.  Lai pārskatītu ar bērnu seksuālu izmantošanu (CSE) saistītas pārsūdzības, ir nepieciešama īpaša apmācība, un pastāv ierobežota aģentu grupa, kas strādā ar šīm pārbaudēm satura grafiskā rakstura dēļ.  2023. gada rudenī Snap ieviesa politikas izmaiņas, kas ietekmēja noteiktu CSE izpildes darbību konsekvenci, un mēs esam novērsuši šīs neatbilstības, veicot aģentu pārkvalifikāciju un stingru kvalitātes nodrošināšanu.  Mēs sagaidām, ka nākamajā pārredzamības atskaitē tiks atklāts progress attiecībā uz samazinātu reaģēšanas laiku darbā ar CSE pārsūdzībām un uzlabotu sākotnējo izpildes darbību precizitāti.  

Satura moderācijas drošības pasākumi

CSEA plašsaziņas līdzekļu pārlūkošanai piemērotie drošības līdzekļi ir izklāstīti iepriekš sadaļā "Satura moderācijas drošības pasākumi" zem mūsu DSA ziņojuma.


Bērnu seksuālas ekspluatācijas un izmantošanas (CSEA) plašsaziņas līdzekļu pārlūkošanas ziņojums


Pamats

Jebkura mūsu kopienas locekļa, īpaši nepilngadīgo, seksuāla ekspluatācija ir nelikumīga, pretīga un to aizliedz mūsu Kopienas noteikumi. Bērnu seksuālas ekspluatācijas un izmantošanas attēlu (CSEA) iekļūšanas novēršana, atklāšāna un izskaušana mūsu platformā ir augstākā Snap prioritāte, un mēs nepārtraukti uzlabojam savas spējas apkarot šādus un citus noziegumus.


Mēs izmantojam PhotoDNA spēcīgu jaucēju savietošanu un Google Bērnu seksuālas izmantošanas attēlu (CSAI) savietošanu, lai attiecīgi identificētu pazīstamus nelegālus bērnu seksuālas izmantošanas attēlus un video un ziņotu par tiem ASV Nacionālajam pazudušu un ekspluatētu bērnu centram (NCMEC), kā to prasa likums. Savukārt NCMEC tad pēc nepieciešamības koordinē darbību ar pašmāju un starptautiskām tiesībsargājošajām iestādēm.


Ziņojums

Zemāk norādītie dati ir balstīti uz ar lietotāja kameru uzņemtā un Snapchat augšupielādētā satura proaktīvu skenēšanu, izmantojot PhotoDNA un/vai CSAI Match.

Bērnu seksuālas izmantošanas apturēšana ir galvenā prioritāte. Snap velta nozīmīgus resursus šim procesam un īsteno absolūtas neiecietības politiku attiecībā uz šādu rīcību.  Lai pārskatītu ar bērnu seksuālu izmantošanu (CSE) saistītas pārsūdzības, ir nepieciešama īpaša apmācība, un pastāv ierobežota aģentu grupa, kas strādā ar šīm pārbaudēm satura grafiskā rakstura dēļ.  2023. gada rudenī Snap ieviesa politikas izmaiņas, kas ietekmēja noteiktu CSE izpildes darbību konsekvenci, un mēs esam novērsuši šīs neatbilstības, veicot aģentu pārkvalifikāciju un stingru kvalitātes nodrošināšanu.  Mēs sagaidām, ka nākamajā pārredzamības atskaitē tiks atklāts progress attiecībā uz samazinātu reaģēšanas laiku darbā ar CSE pārsūdzībām un uzlabotu sākotnējo izpildes darbību precizitāti.  

Satura moderācijas drošības pasākumi

CSEA plašsaziņas līdzekļu pārlūkošanai piemērotie drošības līdzekļi ir izklāstīti iepriekš sadaļā "Satura moderācijas drošības pasākumi" zem mūsu DSA ziņojuma.


Bērnu seksuālas izmantošanas apturēšana ir galvenā prioritāte. Snap velta nozīmīgus resursus šim procesam un īsteno absolūtas neiecietības politiku attiecībā uz šādu rīcību.  Lai pārskatītu ar bērnu seksuālu izmantošanu (CSE) saistītas pārsūdzības, ir nepieciešama īpaša apmācība, un pastāv ierobežota aģentu grupa, kas strādā ar šīm pārbaudēm satura grafiskā rakstura dēļ.  2023. gada rudenī Snap ieviesa politikas izmaiņas, kas ietekmēja noteiktu CSE izpildes darbību konsekvenci, un mēs esam novērsuši šīs neatbilstības, veicot aģentu pārkvalifikāciju un stingru kvalitātes nodrošināšanu.  Mēs sagaidām, ka nākamajā pārredzamības atskaitē tiks atklāts progress attiecībā uz samazinātu reaģēšanas laiku darbā ar CSE pārsūdzībām un uzlabotu sākotnējo izpildes darbību precizitāti.  

Satura moderācijas drošības pasākumi

CSEA plašsaziņas līdzekļu pārlūkošanai piemērotie drošības līdzekļi ir izklāstīti iepriekš sadaļā "Satura moderācijas drošības pasākumi" zem mūsu DSA ziņojuma.


Šis skaitlis sadalās pa dalībvalstīm šādi:

Šis skaitlis sadalās pa dalībvalstīm šādi: