Welkom op onze transparantiepagina voor de Europese Unie (EU), waar we EU-specifieke informatie publiceren zoals vereist door de Verordening digitale diensten (DSA), de Richtlijn audiovisuele mediadiensten (AVMSD), de Nederlandse Mediawet (DMA) en de Richtlijn terroristische online-inhoud (TCO). Houd er rekening mee dat de meest recente versie van dit transparantieverslag te vinden is in de landinstelling en-US.
Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger voor doeleinden met betrekking tot de Verordening digitale diensten (DSA). Je kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor de AVMSD en DMA en tco-enquiries [at] snapchat.com, voor de TCO, via onze Ondersteuningssite [hier], of met:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland
Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.
Gebruik Engels of Nederlands wanneer je contact met ons opneemt.
De regelgevende instanties voor de DSA zijn de Europese Commissie en de Nederlandse Autoriteit Consument & Markt (ACM). De regelgevende instantie voor de AVMSD en de DMA is het Nederlandse Commissariaat voor de Media (CvdM). De regelgevende instantie voor de TCO is de Nederlandse Autoriteit online Terroristisch en Kinderpornografisch Materiaal (ATKM).
Gepubliceerd: 28 februari 2025
Laatst bijgewerkt: 23 april 2025 (versie 2.0)
Rapportageperiode: 1 juli 2024 – 31 december 2024
We publiceren dit rapport in overeenstemming met de vereisten voor transparantierapportage in artikel 15, 24 en 42 van de Verordening digitale diensten van de Europese Unie (Verordening (EU) 2022/2065, 'DSA'). Tenzij anders aangegeven, heeft de informatie in dit rapport betrekking op de rapportageperiode van 1 juli 2024 tot 31 december 2024 (H2 2024).
Per 1 januari 2025 hebben we gemiddeld 93,7 miljoen actieve afnemers per maand ('AMAR') van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in de zes maanden vóór 31 december 2024 minstens één keer per maand is geopend door gemiddeld 93,7 miljoen geregistreerde gebruikers in de EU.
Dit zijn de cijfers per lidstaat:
Deze cijfers zijn berekend om aan de huidige DSA-vereisten te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. In de loop van de tijd hebben we de manier waarop we deze cijfers berekenen aangepast, onder meer als gevolg van veranderingen in intern beleid, regelgeving en technologie. Het is niet de bedoeling dat de cijfers van verschillende periodes met elkaar worden vergeleken. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.
Tijdens deze rapportageperiode (H2 2024) hebben we nul (0) opdrachten van EU-lidstaten ontvangen om specifieke illegale content aan te pakken, waaronder die zijn uitgegeven in overeenstemming met artikel 9 van de DSA.
Omdat dit aantal nul (0) is, kunnen we geen informatie verstrekken over de categorieën illegale content, de lidstaten die opdrachten hebben gegeven, of de mediane tijden om ontvangst te bevestigen of aan de opdracht te voldoen.
Tijdens deze rapportageperiode (H2 2024) hebben we de volgende opdrachten van EU-lidstaten ontvangen om gebruikersgegevens te verstrekken, waaronder die zijn uitgegeven in overeenstemming met artikel 10 van de DSA:
De mediane tijd voor het versturen van een ontvangstbevestiging aan relevante autoriteiten die ons de opdracht geven informatie te verstrekken, bedroeg nul minuten: wij geven een automatische ontvangstbevestiging.
De mediane tijd om te voldoen aan deze opdrachten om informatie te verstrekken, was ongeveer twaalf dagen. Deze statistiek geeft de periode weer van het moment waarom Snap een opdracht ontvangt tot het moment waarop Snap eraan heeft voldaan. Dit kan in individuele gevallen afhangen van de snelheid waarmee de betreffende lidstaat reageert op verzoeken om verduidelijking van Snap zodat wij aan de opdracht kunnen voldoen.
Let op: wij geven geen details over de categorieën illegale content waarop de opdrachten betrekking hebben, omdat wij over het algemeen niet over deze informatie beschikken.
Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden. Bepaalde content moet ook voldoen aan aanvullende richtlijnen en beleid. Content die bijvoorbeeld door algoritmische aanbeveling in onze openbare uitzendkanalen aan een breder publiek beschikbaar wordt gesteld, moet voldoen aan de aanvullende, hogere normen in onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen, en advertenties moeten voldoen aan ons Advertentiebeleid.
Wij handhaven dit beleid met behulp van technologie en menselijke moderatie. We bieden gebruikers en niet-gebruikers ook mechanismen om schendingen te melden, waaronder illegale content en activiteiten, rechtstreeks in de app of op onze website. We maken ook gebruik van proactieve gevaarherkenningstechnologie. Proactieve detectiemechanismen en meldingen leiden tot verdere evaluatie. Hierbij kunnen geautomatiseerde tools en menselijke moderators gepaste maatregelen nemen, in overeenstemming met ons beleid.
Hieronder staat meer informatie over onze contentmoderatie in H2 2024.
Snap heeft in overeenstemming met artikel 16 van de DSA mechanismen ingesteld waarmee gebruikers en niet-gebruikers Snap op de hoogte kunnen stellen van specifieke informatie op Snapchat die zij als illegaal beschouwen. Zij kunnen dat doen door specifieke content of accounts te rapporteren, rechtstreeks in de Snapchat-app of op onze website.
Bij het indienen van kennisgevingen in de app of op onze website kunnen ze een specifieke rapportagereden selecteren uit een menu, op basis van de categorieën schendingen van onze Communityrichtlijnen (bijv. haatzaaiende uitspraken of drugs). Onze Communityrichtlijnen verbieden content en activiteiten die illegaal zijn in de EU. Onze rapportageredenen komen daarom grotendeels overeen met specifieke categorieën van illegale content in de EU. Voor zover iemand in de EU echter van mening is dat de gerapporteerde content of het account illegaal is om redenen die niet in het menu worden vermeld, kan hij of zij dit rapporteren als 'andere illegale content' en uitleggen waarom hij of zij de content als illegaal beschouwt.
Tijdens de rapportageperiode (H2 2024) hebben we in de EU de volgende kennisgevingen ontvangen in overeenstemming met artikel 16 van de DSA:
Hieronder geven we een overzicht van de verwerking van deze kennisgevingen – door menselijke moderatie of enkel geautomatiseerd:
Als wij na controle vaststellen dat gerapporteerde content of een account in strijd is met onze Communityrichtlijnen (bijvoorbeeld omdat het illegaal is), kunnen wij (i) de content verwijderen, (ii) de betreffende accounthouder een formele waarschuwing geven, en / of (iii) het betreffende account blokkeren, zoals wordt uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening.
In H2 2024 hebben we de volgende handhavingsmaatregelen genomen na kennisgevingen die in overeenstemming met artikel 16 van de DSA in de EU zijn ingediend:
In H1 2025 zijn alle handhavingsmaatregelen na meldingen over 'andere illegale content' genomen op grond van onze Communityrichtlijnen, omdat deze de relevante content of activiteit verboden. We hebben deze handhavingen dus gecategoriseerd onder de relevante categorie schendingen van de Communityrichtlijnen in de bovenstaande tabel.
Naast de bovenstaande handhavingsmaatregelen kunnen we ook actie tegen content ondernemen op grond van ander toepasselijk beleid en richtlijnen van Snap:
Als we vaststellen dat gerapporteerde content op onze openbare uitzendkanalen niet aan de criteria in onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen, kunnen we de content afwijzen voor algoritmische aanbeveling of de verspreiding ervan beperken om bepaalde doelgroepen uit te sluiten (als de content aan onze criteria voldoet maar gevoelig of suggestief is).
In H2 2024 hebben we de volgende acties ondernomen met betrekking tot content op de openbare uitzendingkanalen van Snapchat die aan ons in de EU zijn gemeld, in overeenstemming met onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen:
Als we vaststellen dat een gerapporteerde advertentie in strijd is met ons Advertentiebeleid, kunnen we deze na controle verwijderen.
In H2 2024 hebben we de volgende acties ondernomen met betrekking tot advertenties die in de EU aan ons werden gerapporteerd:
Snap beoordeelt niet alleen kennisgevingen die op grond van artikel 16 van de DSA zijn ingediend, maar voert ook uit eigen initiatief contentmoderatie uit. Hieronder geven we informatie over de contentmoderatie op eigen initiatief van Snap, waaronder het gebruik van geautomatiseerde tools, de maatregelen die zijn genomen om training en ondersteuning te bieden aan personen belast met contentmoderatie, en het aantal en soorten beperkingen die zijn opgelegd als gevolg van die proactieve contentmoderatie.
Gebruik van geautomatiseerde tools in de moderatie op eigen initiatief van Snap
We gebruiken geautomatiseerde tools om proactief schendingen van onze voorwaarden en beleid te detecteren en, in sommige gevallen, daartegen op te treden. Deze tools omvatten hash-matchingtools (waaronder PhotoDNA en Google CSAI Match), Google Content Safety API, Abusive Language Detection-modellen (die content detecteren en afwijzen op basis van een vooraf vastgestelde en regelmatig bijgewerkte lijst met schadelijke trefwoorden en emoji's), en technologieën die gebruikmaken van kunstmatige intelligentie, machine learning en large language models. Onze geautomatiseerde tools zijn ontworpen voor de detectie van schendingen van onze Communityrichtlijnen (die onder andere illegale content verbieden) en, indien van toepassing, onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen en het Advertentiebeleid.
In H2 2024 hebben we al onze proactieve detectie uitgevoerd met geautomatiseerde tools. Wanneer onze geautomatiseerde tools een mogelijke schending van ons beleid detecteren, nemen ze automatisch actie in overeenstemming met ons beleid, of verwijzen ze de mogelijke schending door voor menselijke beoordeling. Het aantal en de soorten beperkingen die als gevolg van dit proces zijn opgelegd, worden hieronder beschreven.
Aantal en soorten beperkingen op eigen initiatief van Snap
In H2 2024 nam Snap de volgende handhavingsmaatregelen na proactieve detectie van schendingen van onze Communityrichtlijnen (waaronder illegale content en activiteiten volgens de wetgeving van de EU en lidstaten):
Daarnaast hebben we in H1 2024 met betrekking tot content op onze openbare uitzendkanalen de volgende acties ondernomen na onze proactieve detectie, met behulp van geautomatiseerde tools, van schendingen van onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen:
* Zoals vermeld in onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen kunnen accounts die deze richtlijnen meermaals of ernstig schenden tijdelijk of permanent worden uitgesloten van aanbevelingen op onze openbare uitzendkanalen. We passen deze maatregel toe bij onze proactieve moderatie.
In H2 2024 hebben we verder de volgende maatregelen genomen nadat we op Snapchat door geautomatiseerde tools proactief schendingen van ons Advertentiebeleid hadden gevonden:
Training en ondersteuning voor personen belast met contentmoderatie
Onze contentmoderatieteams passen ons contentmoderatiebeleid toe om onze Snapchat-community te beschermen. Ze worden getraind over een periode van meerdere weken, waarbij nieuwe teamleden worden opgeleid over het beleid, de tools en de escalatieprocedures van Snap. Onze moderatieteams nemen regelmatig deel aan relevante opfriscursussen voor hun workflows, vooral wanneer we grensgevallen of contextafhankelijke gevallen tegenkomen. We hebben ook programma's om vaardigheden te verbeteren, certificeringssessies en quizzen om alle moderators op de hoogte te houden van en in overeenstemming laten handelen met het bijgewerkte beleid. Tot slot verspreiden we snel beleidsverduidelijkingen als er dringende contenttrends opduiken, zodat teams daarop in overeenstemming met het beleid van Snap kunnen reageren.
We bieden onze contentmoderatieteams aanzienlijke ondersteuning en hulpbronnen, waaronder ondersteuning voor welzijn op de werkplek en eenvoudige toegang tot mentale gezondheidszorg.
Gebruikers van wie de accounts door onze veiligheidsteams zijn geblokkeerd vanwege schendingen van de Communityrichtlijnen (waaronder illegale content en activiteiten) kunnen beroep indienen tegen een geblokkeerd account. Gebruikers kunnen ook beroep indienen tegen bepaalde contentmoderatiebeslissingen.
Tijdens de rapportageperiode (H2 2024) heeft Snap de volgende beroepen verwerkt (waaronder beroepen tegen zowel accountblokkeringen en moderatiebeslissingen tegen content) die zijn ingediend via haar interne klachtensysteem in de EU:
Kwalitatieve beschrijving en doeleinden
Zoals hierboven in deel 3, onder b, is uiteengezet, gebruiken we geautomatiseerde tools om schendingen van onze voorwaarden en beleid op onze openbare contentkanalen proactief te herkennen en in sommige gevallen te handhaven. Deze tools omvatten hash-matchingtools (waaronder PhotoDNA en Google CSAI Match), Google Content Safety API, Abusive Language Detection-modellen (die content detecteren en afwijzen op basis van een vooraf vastgestelde en regelmatig bijgewerkte lijst met schadelijke trefwoorden en emoji's), en technologieën die gebruikmaken van kunstmatige intelligentie, machine learning en large language models. Onze geautomatiseerde tools zijn ontworpen voor de detectie van schendingen van onze Communityrichtlijnen (die onder andere illegale content verbieden) en, indien van toepassing, onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen en het Advertentiebeleid.
Wanneer onze geautomatiseerde tools een mogelijke schending van ons beleid detecteren, nemen ze automatisch actie in overeenstemming met ons beleid, of verwijzen ze de mogelijke schending door voor menselijke beoordeling. .
Nauwkeurigheidsindicatoren en mogelijk foutenpercentage, per lidstaat
We volgen de nauwkeurigheidsindicatoren en het mogelijke foutenpercentage van onze geautomatiseerde moderatietools door onze menselijke moderatieteams steekproefsgewijs taken van onze geautomatiseerde tools op onze publieke platformen te laten herzien. Het nauwkeurigheidspercentage is het percentage taken uit deze steekproef waarvan de moderatiemaatregelen na herziening door menselijke moderators zijn bevestigd. Het foutenpercentage is het verschil tussen 100% en het hierboven beschreven nauwkeurigheidspercentage.
We houden de nauwkeurigheid en het mogelijke foutenpercentage van twee brede categorieën geautomatiseerde moderatietools bij, namelijk:
Geautomatiseerde tools die schendingen van onze Communityrichtlijnen detecteren en/of handhaven, waarbij handhavingsmaatregelen tegen het account van een gebruiker kunnen worden genomen (zoals waarschuwingen aan of vergrendelingen van het account). Op basis van steekproeven was het nauwkeurigheidspercentage van deze geautomatiseerde tools in H2 2024 ongeveer 95% en het foutenpercentage ongeveer 5%.
Geautomatiseerde tool die content op onze openbare uitzendkanalen controleren en/of handhaven op basis van onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen. Op basis van steekproeven was het nauwkeurigheidspercentage van deze geautomatiseerde tools in H2 2024 ongeveer 85% en het foutenpercentage ongeveer 15%.
Op basis van steekproeven was het gecombineerde nauwkeurigheidspercentage van de geautomatiseerde tools in beide hierboven beschreven categorieën in H2 2024 ongeveer 89% en het foutenpercentage ongeveer 11%.
We houden over het algemeen geen gegevens bij over de taal van content die we op Snapchat modereren en kunnen dus geen overzicht per officiële taal van de lidstaten geven met betrekking tot de nauwkeurigheids- en foutenpercentages van onze geautomatiseerde moderatietools. In plaats daarvan geven we hieronder een overzicht van onze gecombineerde nauwkeurigheids- en foutenpercentages voor automatisch gemodereerde content (met betrekking tot zowel onze Communityrichtlijnen als onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen) uit elke lidstaat.
Veiligheidsmaatregelen
We zijn ons bewust van de mogelijke impact van geautomatiseerde moderatietools op fundamentele rechten en we nemen veiligheidsmaatregelen om die impact te minimaliseren.
Onze geautomatiseerde contentmoderatietools worden vóór gebruik getest. De machines worden offline getest op prestaties en via A/B-tests geïmplementeerd om te zorgen dat ze goed werken voordat ze volledig in productie worden genomen. We voeren vóór de lancering kwaliteitsborgingsbeoordelingen (QA) uit, en lanceringsbeoordelingen en voortdurende QA-controles tijdens de gedeeltelijke (gefaseerde) uitrol.
Na de lancering van onze geautomatiseerde tools evalueren we hun prestaties en nauwkeurigheid voortdurend en passen we ze indien nodig aan. Dit proces omvat een steekproefsgewijze herbeoordeling van geautomatiseerde taken door onze menselijke moderators om vast te stellen welke modellen moeten worden aangepast om de nauwkeurigheid te verbeteren. We monitoren ook hoe vaak specifieke gevaren op Snapchat voorkomen via willekeurige dagelijkse steekproeven van openbaren content. Deze informatie gebruiken we om verdere verbeterpunten vast te stellen.
Ons beleid en onze systemen bevorderen consistente en eerlijke handhaving, zoals door onze geautomatiseerde tools, en bieden Snapchatters de mogelijkheid om handhavingsmaatregelen te betwisten via kennisgevings- en beroepsprocedures. Deze procedures zijn gericht op zowel het waarborgen van de belangen van onze community als het beschermen van individuele Snapchatters.
Wij streven ernaar om de nauwkeurigheid van onze geautomatiseerde contentmoderatietools voortdurend te verbeteren en ons beleid consistent en eerlijk te handhaven.
Voor de rapportageperiode (H2 2024) verstrekken we de volgende gegevens over geschillen met Snap die aan de organen voor buitengerechtelijke geschillenbeslechting, zoals bedoeld in artikel 21 van de DSA, zijn voorgelegd:
De bovenstaande tabel geeft de status op 31 december 2024 weer van geschillen die in de rapportageperiode (H2 2024) zijn voorgelegd aan gecertificeerde organen voor buitengerechtelijke geschillenbeslechting, zoals bedoeld in artikel 21 van de DSA. Op 31 december 2024 waren er in H2 2024 20 geschillen aan dergelijke organen voorgelegd, waarvan er 15 nog in behandeling waren en 5 waren opgelost voordat een beslissing werd genomen.
In de bovenstaande tabel zijn geen klachten opgenomen die zijn voorgelegd aan een gecertificeerd orgaan, zoals bedoeld in artikel 21, maar door het orgaan als niet-ontvankelijk zijn verklaard voordat ze aan Snap werden verzonden. We kunnen niet bevestigen hoeveel geschillen binnen deze categorie vallen, omdat niet alle gecertificeerde organen Snap op de hoogte stellen van dergelijke geschillen. We zijn echter op de hoogte van zes klachten onder deze categorie in H2 2024.
Schorsingen op grond van artikel 23, lid 1: schorsing van accounts die vaak kennelijk illegale content bevatten
Zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening, worden accounts waarvan we vaststellen dat ze voornamelijk in strijd met onze Communityrichtlijnen worden gebruikt (waaronder door kennelijk illegale content te verstrekken) en accounts die ernstig gevaar veroorzaken, meteen uitgeschakeld. Voor alle andere schendingen van onze Communityrichtlijnen past Snap een proces van handhaving toe dat drie fasen omvat:
Stap één: de strijdige content wordt verwijderd.
Stap twee: de gebruiker ontvangt een melding dat hij of zij onze Communityrichtlijnen heeft overtreden, dat de content is verwijderd, en dat herhaalde schendingen zullen leiden tot verdere handhavingsmaatregelen, waaronder het uitschakelen van het account.
Stap drie: ons team registreert een waarschuwing tegen het account van de gebruiker.
Hierboven, in afdeling 3(a) en 3(b) staat informatie over het aantal waarschuwingen en blokkeringen van accounts in de EU in H2 2024.
Schorsing op grond van artikel 23, lid 2: schorsing van de verwerking van kennisgevingen en klachten van personen, entiteiten en klagers die vaak kennisgevingen of klachten indienen die kennelijk ongegrond zijn
Op basis van onze interne definitie van 'kennelijk ongegronde' kennisgevingen en klachten, en onze interne drempels voor wat wij beschouwen als het vaak indienen van dergelijke kennisgevingen en klachten, is het aantal schorsingen van het verwerken van kennisgevingen en klachten in H2 2024 op grond van artikel 23, lid 2, van de DSA als volgt:
Onze contentmoderatieteams zijn 24/7 en over de hele wereld actief, zodat we onze community veilig kunnen houden. Hieronder staat een gedetailleerd overzicht van onze menselijke moderatiebronnen per taal van de moderators (houd er rekening mee dat sommige moderators gespecialiseerd zijn in meerdere talen) vanaf 31 december 2024:
De bovenstaande tabel bevat alle menselijke bronnen voor contentmoderatie die officiële talen van de EU-lidstaten ondersteunen, op 31 december 2024. In situaties waarin we extra taalondersteuning nodig hebben, gebruiken we vertaaldiensten.
Moderators worden aangenomen op basis van een standaard functiebeschrijving met taalvereiste (afhankelijk van de behoefte). Bij het taalvereiste wordt omschreven dat de kandidaat in die taal vloeiend moet kunnen schrijven en spreken. Op startniveau moeten kandidaten minstens één jaar werkervaring hebben. Kandidaten moeten voldoen aan de opleidings- en achtergrondvereisten om in aanmerking te worden genomen. Kandidaten moeten ook aantonen dat ze de actuele ontwikkelingen begrijpen voor het land of de regio van de contentmoderatie waarin ze werkzaam zullen zijn.
Zie hierboven voor informatie over de training en ondersteuning die Snap aan contentmoderators biedt, wat afzonderlijk vereist is onder artikel 15, lid 1, onder c, van de DSA en dus is opgenomen in afdeling 3(b), in de laatste subafdeling: 'Training en ondersteuning voor personen belast met contentmoderatie'.
Gepubliceerd: 31 januari 2025
Laatst bijgewerkt: 31 januari 2025
Dit rapport heeft betrekking op de periode van 1 januari 2024 tot 31 december 2024.
Achtergrond
Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEA) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdaden te bestrijden.
We maken onder meer gebruik van technologieën als (a) de robuuste hash-matching van PhotoDNA en de Child Sexual Abuse Imagery (CSAI) Match van Google om bekende illegale afbeeldingen en video's van CSEA te identificeren; en (b) de Content Safety API van Google om nieuwe, nooit eerder gehasht CSEA-beeldmateriaal te identificeren. We melden CSEA-beeldmateriaal aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), conform onze wettelijke verplichtingen. Het NCMEC werkt samen met wetshandhavers in de VS en andere landen, indien dat nodig is.
Rapport
Het onderstaande schema bevat gegevens over proactieve detectie en de daaruit voortvloeiende handhaving tegen EU-gebruikers inzake CSEA-beeldmateriaal in 2024. (Opmerking: Sommige handhavingsmaatregelen ten gevolge van het proactief scannen in 2024 kunnen nog onderwerp van een actieve beroepsprocedure zijn geweest bij het samenstellen van dit rapport. Deze maatregelen zijn niet opgenomen in de onderstaande cijfers met betrekking tot beroepen en herstellingen.)
*Onder deze categorie rapporteren we handhavingsmaatregelen inzake schendingen van de Communityrichtlijnen van Snap die seksuele uitbuiting van kinderen verbieden. Proactief gedetecteerde content die wordt gehandhaafd voor andere schendingen van de Communityrichtlijnen van Snap, wordt hier niet gerapporteerd.
**Handhavingsmaatregelen kunnen worden opgeheven als we vaststellen dat deze onjuist waren op basis van ons geldende beleid op het moment van handhaving, of als we vaststellen dat de handhaving terecht was, maar het geldende beleid op het moment van de beoordeling in beroep is gewijzigd.
Veiligheidsmaatregelen voor contentmoderatie
De veiligheidsmaatregelen met betrekking tot CSEA-mediascanning worden vermeld in het bovenstaande DSA-transparantieverslag.
Gepubliceerd: 28 februari 2025
Laatst bijgewerkt: 28 februari 2025
Rapportageperiode: 1 januari 2024 – 31 december 2024
Dit transparantieverslag wordt gepubliceerd in overeenstemming met artikel 7, lid 2 en lid 3 van Verordening 2021/784 van het Europees Parlement en de Raad van de EU, en betreft de verspreiding van online terroristische content (de Verordening). Het beslaat de rapportageperiode 1 januari – 31 december 2024.
Artikel 7, lid 3, onder a: informatie over de maatregelen van de serviceprovider met betrekking tot de identificatie en verwijdering van of het ontnemen van toegang tot terroristische content
Artikel 7, lid 3, onder b: informatie over de maatregelen van de serviceprovider met betrekking tot de aanpak van het online verschijnen van materiaal dat eerder is verwijderd of waarvan de toegang is ontnomen omdat het als terroristische content werd beschouwd, in het bijzonder wanneer er geautomatiseerde tools zijn gebruikt
Snapchat heeft een zeer lage hoeveelheid terroristische content en heeft in 2024 geen verwijderingsopdrachten op grond van de Verordening ontvangen.
Terroristen, terroristische organisaties en gewelddadige extremisten mogen Snapchat niet gebruiken. Content die terrorisme of andere gewelddadige, strafbare feiten verdedigen, promoten, verheerlijken of bevorderen, is verboden onder onze Communityrichtlijnen. Gebruikers kunnen content die in strijd is met onze Communityrichtlijnen rapporteren in het rapportagemenu in onze app of op onze ondersteuningssite. We gebruiken ook proactieve herkenning om strijdige content op openbare kanalen als Spotlight en Verkennen te identificeren.
Hoe wij ook op de hoogte kunnen komen van strijdige content, onze veiligheidsteams beoordelen door automatische en menselijke moderatie snel alle geïdentificeerde content en nemen handhavingsbeslissingen. Handhaving kan bestaan uit het verwijderen van de content, het waarschuwen of deactiveren van het betreffende account, en indien nodig het rapporteren van het account aan wetshandhavers. Om te voorkomen dat terroristische of andere gewelddadige extremistische content opnieuw op Snapchat verschijnt, werken we niet alleen samen met wetshandhavers, maar nemen we ook stappen om het apparaat van het betreffende account te blokkeren en te voorkomen dat de gebruiker een ander Snapchat-account kan aanmaken.
Aanvullende details over onze maatregelen voor het identificeren en verwijderen van terroristische content zijn te vinden in onze uitleg over hatelijke content, terrorisme en gewelddadig extremisme en onze uitleg over moderatie, handhaving en beroepsprocedures op Snapchat.
Artikel 7, lid 3, onder c: het aantal terroristische contentitems dat is verwijderd of waartoe de toegang is geblokkeerd na verwijderingsopdrachten of specifieke maatregelen, en het aantal verwijderingsopdrachten waarvan de content niet is verwijderd of waartoe de toegang niet is geblokkeerd overeenkomstig artikel 3, lid 7, eerste alinea, en artikel 3, lid 8, eerste alinea, met de redenen daarvoor
Tijdens de rapportageperiode heeft Snap geen verwijderingsopdrachten ontvangen en hoefden we geen specifieke maatregelen op grond van artikel 5 van de Verordening te nemen. Daarom hoefden we op grond van de Verordening geen handhavingsmaatregelen te treffen.
De volgende tabel beschrijft handhavingsmaatregelen op basis van gebruikersmeldingen en proactieve herkenning van content en accounts, zowel in de EU als elders in de wereld, die in strijd waren met onze Communityrichtlijnen met betrekking tot terrorisme en gewelddadige extremistische content.
Artikel 7, lid 3, onder d: het aantal klachten dat de serviceprovider in overeenstemming met artikel 10 in behandeling heeft genomen en het resultaat ervan
Artikel 7, lid 3, onder g: het aantal gevallen waarin de serviceprovider content of de toegang ertoe heeft hersteld na een klacht van de contentprovider
Omdat we tijdens de rapportageperiode op grond van de Verordening geen handhavingsmaatregelen hoefden te verrichten, hebben we geen klachten op grond van artikel 10 van de Verordening ontvangen en geen herstellingen verricht.
De volgende tabel bevat informatie over beroepen en herstellingen, zowel in de EU als elders in de wereld, met betrekking tot terroristische en gewelddadige extremistische content onder onze Communityrichtlijnen.
Artikel 7, lid 3, onder e: het aantal bestuursrechtelijke of beroepsprocedures door de serviceprovider en het resultaat ervan
Artikel 7, lid 3, onder f: het aantal gevallen waarin de serviceprovider als gevolg van een bestuursrechtelijke of beroepsprocedure content of de toegang ertoe moest herstellen
Aangezien er tijdens de rapportageperiode geen handhavingsmaatregelen vereist waren op grond van de Verordening, hebben we geen bijbehorende bestuursrechtelijke of beroepsprocedures gevoerd en waren we niet genoodzaakt als gevolg daarvan content te herstellen.
Dit verslag is opgesteld om te voldoen aan de verplichtingen van Snap op grond van artikel 34 en 35 van Verordening (EU) 2022/2065 en bevat de resultaten van onze analyse van systeemrisico's die voortvloeien uit het ontwerp, de functie en het gebruik van de online platforms van Snapchat, samen met de methodologie die wordt gebruikt om die risico's te onderzoeken en de beperkende maatregelen die zijn ingesteld om die risico's aan te pakken.
DSA-verslag risico- en beperkingsonderzoek | Snapchat | augustus 2023 (pdf)
Deze verslagen zijn opgesteld om te voldoen aan de verplichtingen van Snap op grond van artikel 37 van Verordening (EU) 2022/2065 en bevatten: (i) de resultaten van de onafhankelijke audit van de naleving door Snap van de verplichtingen van hoofdstuk III van Verordening (EU) 2022/2065 en (ii) de maatregelen die zijn genomen om de operationele aanbevelingen van die onafhankelijke audit uit te voeren.
Onafhankelijk DSA-auditverslag | Snapchat | augustus 2024 (pdf)
Implementatieverslag DSA-audit | Snapchat | september 2024 (pdf)
VSP-gedragscode EU
Snap is een 'videoplatformdienst' ('VSP') op grond van artikel 1, lid 1, onder aa) AVMSD. Deze Gedragscode is opgesteld om te beschrijven hoe Snap voldoet aan haar verplichtingen als VSP onder de Nederlandse Mediawet ('MW') en richtlijn (EU) 2010/13 (zoals gewijzigd door richtlijn (EU) 2018/1808 ['Richtlijn audiovisuele mediadiensten' of 'AVMSD']). De Gedragscode geldt in de Europese Unie en de Europese Economische Ruimte.
VSP-gedragscode EU | Snapchat | maart 2025 (pdf)
Bulgaars | Kroatisch | Tsjechisch | Deens | Nederlands | Ests | Fins | Frans | Duits | Grieks | Hongaars | Iers | Italiaans | Lets | Litouws | Maltees | Pools | Portugees | Roemeens | Slowaaks | Sloveens | Spaans | Zweeds