Euroopan unioni
1. heinäkuuta 2023 – 31. joulukuuta 2023

Julkaistu:

25. huhtikuuta 2024

Päivitetty:

25. huhtikuuta 2024

Tervetuloa Euroopan unionin (EU) tietojen läpinäkyvyyttä käsittelevälle sivustolle, jossa julkaisemme digitaalisia palveluja koskevan lain (DSA), audiovisuaalisia mediapalveluja koskevan lain (AVMSD) ja Alankomaiden medialain (DMA) edellyttämät EU:ta koskevat tiedot. Huomaathan, että näiden avoimuusraporttien ajantasaisin versio löytyy en-US-paikallisella kielellä.

Oikeudellinen edustaja 

Snap Group Limited on nimittänyt Snap B.V.:n oikeudelliseksi edustajakseen digitaalipalvelulain määrittämässä tarkoituksessa. Voit ottaa yhteyttä edustajaan seuraavilla tavoilla: DSA:ta koskien dsa-enquiries [at] snapchat.com ja AVMSD:tä tai DMA:ta koskien vsp-enquiries [at] snapchat.com; tukisivustollamme [täällä]; tai osoitteessa:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Alankomaat

Jos olet lainvalvontaviranomainen, noudata tässä kuvattuja ohjeita. Kumminkoithan hollanniksi tai englanniksi, kun otat yhteyttä meihin.

Sääntelyviranomaiset

Digitaalipalvelulain osalta meitä säätelevät Euroopan komissio ja Alankomaiden kuluttajien ja markkinoiden viranomainen ACM. AVMSD:n ja DMA:n osalta toimintaamme säätelee Alankomaiden mediaviranomainen (CvdM)

Digitaalipalvelulain läpinäkyvyysraportti

Snap on digitaalipalvelulain 15, 24 ja 42 artiklan nojalla velvollinen julkaisemaan raportteja, jotka sisältävät määrättyjä tietoja Snapin sisällön moderoinnista Snapchatin palveluissa, joita pidetään "verkkoalustoina" eli valokeilassa, sinulle-sivulla, julkisissa profiileissa, kartoissa, tehosteissa ja mainonnassa. Raportteja on julkaistava kuuden kuukauden välein 25.10.2023 alkaen.

Snap julkaisee läpinäkyvyysraportteja kahdesti vuodessa tarjotakseen tietoja Snapin turvallisuustoimista sekä alustalla ilmoitetun sisällön luonteesta ja määrästä. Viimeisin raporttimme H2 2023 (heinäkuu 1- joulukuu 31) löytyy täältä. Digitaalisia palveluja koskevaan lakiin liittyvät mittarit löytyvät tältä sivulta.

Keskimääräiset kuukausittaiset aktiiviset vastaanottajat 
(DSA 24.2 ja 42.3 artikla)

31. joulukuuta 2023 mennessä Snapchat-sovelluksellamme oli EU:ssa keskimäärin 90,9 miljoonaa kuukausittaista aktiivista käyttäjää ("AMAR"). Tämä tarkoittaa, että viimeisten kuuden kuukauden aikana keskimäärin 90,9 miljoonaa rekisteröityä käyttäjää EU:ssa on avannut Snapchat-sovelluksen vähintään kerran kuukaudessa.

Tämä luku jakautuu jäsenvaltioittain seuraavasti:

Nämä luvut on laskettu vastaamaan nykyisiä digitaalipalvelulain sääntöjä, ja niitä pitäisi käyttää vain tämän lain tarkoituksiin. Olemme muuttaneet laskentatapojamme ajan mittaan muun muassa vastauksena muuttuviin sisäisiin toimintatapoihin, sääntelyviranomaisten ohjeisiin ja teknologiaan, eikä lukuja ole tarkoitettu vertailtaviksi eri ajanjaksojen välillä. Tämä voi myös poiketa laskutavoista, joita käytämme muihin aktiivisten käyttäjien lukuihin, joita julkaisemme muissa käyttötarkoituksissa.


Jäsenvaltioiden viranomainen pyytää
(DSA:n 15 artiklan 1 kohdan a alakohta)

Poistopyynnöt 

Tänä aikana olemme saaneet EU:n jäsenvaltioilta 0 DSA:n 9 artiklan mukaista poistopyyntöä. 

Tietopyynnöt 

Tänä aikana olemme saaneet EU:n jäsenvaltioilta seuraavat DSA:n 10 artiklan mukaiset tiedot:

Keskimääräinen aika, jonka kuluessa viranomaisille ilmoitetaan tietopyyntöjen vastaanottamisesta, on 0 minuuttia — lähetämme automaattisen vastauksen, jossa vahvistamme pyynnön vastaanottamisen. Tietopyyntöjen keskimääräinen käsittelyaika on ~10 päivää. Tämä mittari heijastaa ajanjaksoa siitä, kun Snap saa tietopyynnön, siihen, kun Snap uskoo pyynnön olevan täysin ratkaistu. Joissakin tapauksissa tämän prosessin kesto riippuu osittain siitä, kuinka nopeasti lainvalvontaviranomaiset vastaavat Snapin pyyntöihin selvityspyyntöihin, jotka ovat tarpeen pyynnön käsittelemiseksi.

Sisällön moderointi 


Kaiken Snapchatissa olevan sisällön on noudatettava yhteisön sääntöjämme ja palveluehtojamme sekä niitä tukevia ehtoja, ohjeita ja selityksiä. Ennakoivat havaitsemismekanismit ja raportit laittomasta tai loukkaavasta sisällöstä tai tileistä johtavat tarkastukseen, jolloin järjestelmämme käsittelevät pyynnön, keräävät asiaankuuluvia metatietoja ja reitittävät olennaisen sisällön moderointitiimille järjestelmällisen käyttöliittymän kautta, jonka tarkoitus on mahdollistaa tehokkaat tarkastustoiminnot. Kun valvontatiimimme päättävät joko ihmisen tekemän tai automaattisen tarkastuksen kautta, että käyttäjä on rikkonut ehtojamme, voimme poistaa loukkaavan sisällön tai tilin, lopettaa kyseisen tilin näkyvyyden tai rajoittaa sitä ja/tai ilmoittaa siitä lainvalvontaviranomaisille Snapchatin moderointi-, täytäntöönpano- ja valitusselityksien mukaisesti.  Käyttäjät, joiden tili on lukittu turvallisuustiimimme toimesta yhteisön sääntöjen rikkomusten vuoksi, voivat tehdä lukitun tilin valituksen, ja käyttäjät voivat valittaa tietyistä sisältöön liittyvistä täytäntöönpanotoimista.

Sisältöön ja tiliin liittyvät ilmoitukset (DSA:n 15 artiklan 1 kohdan b alakohta)

Snap on ottanut käyttöön mekanismeja, joiden avulla käyttäjät ja muut kuin käyttäjät voivat ilmoittaa Snapille sisällöstä ja tileistä, jotka rikkovat yhteisömme sääntöjä ja käyttöehtoja alustalla, mukaan lukien sisällöt ja tilit, joita pidetään laittomina DSA:n 16 artiklan mukaisesti.  Nämä raportointimekanismit ovat käytettävissä itse sovelluksessa (eli suoraan sisällöstä) ja verkkosivustollamme.

Saimme kyseisenä ajanjaksona EU:ssa seuraavat sisältö- ja tili-ilmoitukset:

Vuoden 23 jälkipuoliskolla käsittelimme 664 896 ilmoitusta pelkästään automatisoidusti. Kaikkia näitä valvottiin yhteisön sääntöjen mukaisesti, koska yhteisön säännöissä määritellään laiton sisältö. 

Käyttäjien tuottaman sisällön ja tilien lisäksi moderoimme mainoksia, jos ne rikkovat alustamme käytäntöjä. Alla on kaikki mainokset, jotka on ilmoitettu ja poistettu EU:ssa. 

Luotettujen ilmoittajien ilmoitukset (15 artiklan 1 kohdan b alakohta)

Viimeisimmän läpinäkyvyysraporttimme aikana (vuoden 2023 loppupuolisko) ei ollut yhtään DSA:n nojalla virallisesti nimitettyä luotettua ilmoittajaa. Näin ollen tällaisten luotettujen ilmoittajien lähettämien ilmoitusten määrä oli nolla (0) tällä ajanjaksolla.

Ennakoiva sisällön moderointi (15 artiklan 1 kohdan c alakohta)

Kyseisenä ajanjaksona Snap poisti EU:ssa seuraavat sisällöt ja tilit otettuaan omasta aloitteestaan käyttöön sisällön moderoinnin:

Kaikissa Snapin oma-aloitteisissa moderointitoimissa hyödynnettiin ihmisiä tai automaatiota. Julkisen sisällön alustoillamme sisältö käy yleensä läpi sekä automaattisen moderoinnin että ihmisen tekemän tarkastuksen ennen kuin se voidaan jakaa laajalle yleisölle. Automatisoituihin työkaluihin kuuluu:

  • laittoman ja loukkaavan sisällön ennakoiva havaitseminen koneoppimisen avulla;

  • Hash-työkalut (kuten PhotoDNA ja Googlen CSAI Match);

  • loukkaavan kielen havaitseminen torjuu sisältöä yksilöidyn ja säännöllisesti päivitetyn loukkaavien avainsanojen ja emojien luettelon perusteella.


Muutoksenhaku (15 artiklan 1 kohdan d alakohta)

Kyseisenä ajanjaksona Snap käsitteli sisäisten valitusjärjestelmiensä kautta seuraavat sisältö- ja tilivalitukset EU:ssa:


* Lasten seksuaalisen hyväksikäytön estäminen on ensisijaista. Snap ohjaa tähän tarkoitukseen huomattavia resursseja ja sillä on nollatoleranssi tällaiseen käytökseen.  Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko.  Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella.  Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta. 

Automatisoidut sisällön moderointimenetelmät (artikla 15.1(e))

Julkisen sisällön alustoillamme sisältö käy yleensä läpi sekä automaattisen moderoinnin että ihmisen tekemän tarkastuksen ennen kuin se voidaan jakaa laajalle yleisölle. Automatisoituihin työkaluihin kuuluu:

  • laittoman ja loukkaavan sisällön ennakoiva havaitseminen koneoppimisen avulla;

  • hash-matching-työkalut (kuten PhotoDNA ja Googlen CSAI-työkalu);

  • loukkaavan kielen havaitseminen torjuu sisältöä yksilöidyn ja säännöllisesti päivitetyn loukkaavien avainsanojen ja emojien luettelon perusteella.


Automatisoitujen moderointiteknologioiden tarkkuus kaikista haitoista oli noin 96,61 % ja virheprosentti oli noin 3,39 %.


Sisällön moderoinnin suojatoimenpiteet (artikla 15.1(e))

Ymmärrämme, että sisällön valvontaan liittyy riskejä, mukaan lukien ilmaisun- ja kokoontumisvapautta koskevat riskit, jotka voivat johtua automatisoidusta ja inhimillisestä valvojan puolueellisuudesta ja esimerkiksi viranomaisten, poliittisten kannattajakuntien tai järjestäytyneiden henkilöiden väärinkäytetyistä raporteista. Snapchat ei yleisesti ole poliittisen tai aktivistisen sisällön julkaisupaikka, etenkään julkisissa tiloissamme. 


Näiltä riskeiltä suojautumiseksi Snapilla on käytössään testaus- ja koulutustoimia sekä vankat ja johdonmukaiset menettelyt laittoman tai loukkaavan sisällön, mukaan lukien lainvalvontaviranomaisilta ja muilta viranomaisilta saatujen ilmoitusten, käsittelemiseksi. Arvioimme ja kehitämme jatkuvasti sisällönvalvonta-algoritmejamme. Vaikka sananvapauteen kohdistuvia mahdollisia haittoja on vaikea havaita, emme ole saaneet tietoomme merkittäviä ongelmia ja tarjoamme käyttäjillemme keinot ilmoittaa virheistä, jos niitä tapahtuu. 


Käytäntömme ja järjestelmämme edistävät johdonmukaista ja oikeudenmukaista täytäntöönpanoa ja, kuten yllä on kuvattu, tarjoamme Snapchattaajille mahdollisuuden riitauttaa täytäntöönpanotulokset tarkoituksenmukaisella tavalla ilmoitus- ja valitusprosessien avulla, joiden tarkoituksena on turvata yhteisömme edut suojellen samalla yksittäisen Snapchattaajan oikeuksia.

Pyrimme jatkuvasti parantamaan täytäntöönpanokäytäntöjämme ja prosessejamme, ja olemme edistyneet merkittävästi Snapchatin mahdollisesti haitallisen ja laittoman sisällön ja toiminnan torjunnassa. Tämä näkyy viimeisimmässä läpinäkyvyysraportissamme esitettyjen raportointi- ja täytäntöönpanolukujen nousuna ja Snapchatin rikkomusten yleisyyden vähenemisenä.


Tuomioistuimen ulkopuoliset sovintoratkaisut (artikla 24.1(a))

Viimeisimmän läpinäkyvyysraporttimme aikana (vuoden 2023 loppupuolisko) ei nimitetty virallisesti DSA:n nojalla yhtään tuomioistuimen ulkopuolista riitojenratkaisuelintä. Näin ollen tällä ajanjaksolla tällaisille toimielimille ohjattujen riitojen määrä oli nolla (0), emmekä pysty toimittamaan tuloksia, sovintoratkaisujen keskimääräisiä läpimenoaikoja tai niiden riitojen osuutta, joissa toimielimen päätökset pantiin täytäntöön. 



Tilien jäädytykset (artikla 24.1(b))

Vuoden 2023 loppupuoliskolla emme jäädyttäneet yhtään tiliä artiklan 23 mukaisesti. Snapin Trust & Safety -tiimillä on käytössään toimia, jotka rajoittavat ilmeisen perusteettomia ilmoituksia tai valituksia usein lähettävien käyttäjätilien lähetysmahdollisuutta. Näihin toimenpiteisiin kuuluu toistuvasti samojen ilmoitusten luomisen rajoittaminen ja sähköpostisuodattimien käyttö, jotka estävät ilmeisen perusteettomia ilmoituksia usein lähettäneitä käyttäjiä jatkamasta ilmoitusten tekemistä. Snap ryhtyy tarvittaviin täytäntöönpanotoimiin tilejä koskien Snapchatin valvonta-, täytäntöönpano- ja valitusselityksissä kuvatulla tavalla. Lisätietoa Snapin tilitoimien täytäntöönpanon tasosta löytyy läpinäkyvyysraportistamme (vuoden 2023 loppupuolisko). Tällaisia toimenpiteitä kehitetään ja toistetaan myös jatkossa.


Moderaattorien resurssit, asiantuntemus ja tuki (artikla 42.2)

Sisällön moderointitiimimme toimii eri puolilla maailmaa, minkä ansiosta voimme pitää Snapchattaajat turvassa vuorokauden ympäri. Alla on kuvaus ihmisten tekemän moderoinnin resursseistamme moderaattoreiden kieliosaamisen mukaan (huomaa, että osa moderaattoreista on erikoistunut useisiin kieliin) 31. joulukuuta 2023:

Yllä oleva taulukko sisältää kaikki moderaattorit, jotka tukevat EU:n jäsenvaltioiden kieliä 31. joulukuuta 2023 mennessä. Tilanteissa, joissa tarvitsemme lisää kielitukea, käytämme käännöspalveluita.

Valvojat rekrytoidaan standardinmukaisella työnkuvalla, joka sisältää kielivaatimuksen (tarpeen mukaan). Kielivaatimuksen mukaan ehdokkaan tulee pystyä osoittamaan kirjallinen ja suullinen kielitaitonsa ja hänellä tulee olla vähintään vuoden työkokemus perustason tehtävistä. Ehdokkaiden on myös täytettävä koulutus- ja taustavaatimukset, jotta heitä voidaan harkita tehtävään. Ehdokkaiden on myös osoitettava ymmärtävänsä tukemansa sisällönvalvontamaan tai -alueen ajankohtaisia tapahtumia.

Valvontatiimimme noudattaa käytäntöjämme ja täytäntöönpanotoimiamme suojatakseen Snapchat-yhteisöä. Uusia tiimin jäseniä koulutetaan usean viikon ajan Snapin käytännöistä, työkaluista ja eskalaatiomenettelyistä. Koulutuksen jälkeen jokaisen valvojan on läpäistävä pätevyyskoe ennen kuin he saavat luvan valvoa sisältöä. Valvontatiimimme osallistuu säännöllisesti asiaankuuluviin työnkulkuihin liittyviin kertauskoulutuksiin, etenkin kun kohtaamme käytäntöjen rajapinnassa olevia ja tilanneriippuvaisia tapauksia. Järjestämme myös koulutusohjelmia, sertifiointitapahtumia ja pistokokeita varmistaaksemme, että kaikki valvojat ovat ajan tasalla ja noudattavat kaikkia päivitettyjä käytäntöjä. Kun äkillisiä sisältötrendejä ilmaantuu ajankohtaisten tapahtumien seurauksena, julkaisemme nopeasti selvennyksiä käytäntöihin, jotta tiimit voivat toimia Snapin käytäntöjen mukaisesti.

Tarjoamme sisällönvalvontatiimillemme – Snapin ”digitaalisille ensiaputoimijoille” – merkittävää tukea ja resursseja, mukaan lukien hyvinvointitukea työhön ja helpon pääsyn mielenterveyspalveluihin. 

Lapsen seksuaalinen hyväksikäyttö ja seksuaalinen riisto (CSEA) - Media Scanning Report


Tausta

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.


Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.


Raportti

Alla olevat tiedot perustuvat PhotoDNA:n ja/tai CSAI Matchin avulla suoritetun ennakoivan skannauksen tuloksiin käyttäjän kameran Snapchatiin lataamasta mediasta.

Lasten seksuaalisen hyväksikäytön estäminen on ensisijaista. Snap ohjaa tähän tarkoitukseen huomattavia resursseja ja sillä on nollatoleranssi tällaiseen käytökseen.  Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko.  Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella.  Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta.  

Sisällön moderoinnin suojatoimet

CSEA:n mediaskannaukseen sovellettavat suojatoimet on esitetty edellä DSA-raportin kohdassa "Content Moderation Safeguards".


Lapsen seksuaalinen hyväksikäyttö ja seksuaalinen riisto (CSEA) - Media Scanning Report


Tausta

Jokaisen yhteisömme jäsenen, erityisesti alaikäisen jäsenen, seksuaalinen hyväksikäyttö on laitonta, vastenmielistä ja yhteisön sääntöjemme vastaista. Lapsien seksuaalisen hyväksikäytön ehkäiseminen, tunnistaminen ja torjuminen (CSEAI) on Snapille ensisijaisen tärkeää, ja kehitämme jatkuvasti valmiuksiamme näiden ja muiden rikosten torjumiseksi.


Me käyttämme aktiivisen teknologian havaitsemiskeinoja, kuten PhotoDNA:n hash-matching-tunnistusta ja Googlen Lasten seksuaalisen hyväksikäytön kuvamateriaalitunnistusta (Child Sexual Abuse Imagery, CSAI), joiden avulla voidaan tunnistaa tiedetysti laittomat CSAM-kuvat ja -videot ja ilmoittaa niistä Yhdysvaltojen kansalliseen kadonneiden ja hyväksikäytettyjen lasten keskukseen (NCMEC), kuten laki edellyttää. Sen jälkeen NCMEC puolestaan toimii yhdessä kansallisten ja kansainvälisten viranomaisten kanssa tilanteen mukaan.


Raportti

Alla olevat tiedot perustuvat PhotoDNA:n ja/tai CSAI Matchin avulla suoritetun ennakoivan skannauksen tuloksiin käyttäjän kameran Snapchatiin lataamasta mediasta.

Lasten seksuaalisen hyväksikäytön estäminen on ensisijaista. Snap ohjaa tähän tarkoitukseen huomattavia resursseja ja sillä on nollatoleranssi tällaiseen käytökseen.  Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko.  Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella.  Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta.  

Sisällön moderoinnin suojatoimet

CSEA:n mediaskannaukseen sovellettavat suojatoimet on esitetty edellä DSA-raportin kohdassa "Content Moderation Safeguards".


Lasten seksuaalisen hyväksikäytön estäminen on ensisijaista. Snap ohjaa tähän tarkoitukseen huomattavia resursseja ja sillä on nollatoleranssi tällaiseen käytökseen.  Lasten seksuaalista hyväksikäyttöä koskevien valitusten tarkistaminen edellyttää erityiskoulutusta ja sisällön graafisen luonteen vuoksi niitä käsittelee rajoitettu valvojajoukko.  Syksyllä 2023 Snap toteutti käytäntömuutoksia, jotka vaikuttivat tiettyjen lasten seksuaalista hyväksikäyttöä koskevien toimenpiteiden täytäntöönpanon johdonmukaisuuteen. Olemme korjanneet epäjohdonmukaisuudet valvojien jatkokoulutuksella ja tiukalla laadunvarmistuksella.  Odotamme, että seuraava läpinäkyvyysraportti osoittaa kehityksen kohti parempia vastausaikoja ja ensimmäisten täytäntöönpanotoimien tarkkuutta lasten seksuaalista hyväksikäyttöä koskevien valitusten osalta.  

Sisällön moderoinnin suojatoimet

CSEA:n mediaskannaukseen sovellettavat suojatoimet on esitetty edellä DSA-raportin kohdassa "Content Moderation Safeguards".


Tämä luku jakautuu jäsenvaltioittain seuraavasti:

Tämä luku jakautuu jäsenvaltioittain seuraavasti: