25 oktober 2024
17 december 2024
Welkom op onze transparantiepagina voor de Europese Unie (EU), waar we specifieke informatie over de EU publiceren zoals vereist door de wet inzake digitale diensten (DSA), de richtlijn audiovisuele mediadiensten (AVMSD), de Nederlandse Mediawet (DMA) en de uitvoeringswet verordening terroristische online-inhoud (TOI). Houd er rekening mee dat de meest recente versie van dit transparantieverslag te vinden is in de lokale en-US.
Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger voor doeleinden met betrekking tot de wet inzake digitale diensten (DSA). U kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor de AVMSD en DMA en tco-enquiries [at] snapchat.com, voor de TOI via onze Ondersteuningssite [hier], of op:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland
Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.
Gebruik Engels of Nederlands wanneer je contact met ons opneemt.
Voor de DSA-wetgeving worden we gereguleerd door de Europese Commissie en de Nederlandse Autoriteit voor Consument en Markt (ACM). Voor AVMSD en de DMA worden we gereguleerd door het Nederlandse Commissariaat voor de Media (CvdM). Voor de TOI worden we gereguleerd door de Nederlandse Autoriteit voor het voorkomen van Online Terroristisch en Kinderpornografisch Materiaal (ATKM).
Laatst bijgewerkt: 25 oktober 2024
We publiceren dit verslag met betrekking tot onze contentmoderatie op Snapchat in overeenstemming met de transparantie-rapportagevereisten in de artikelen 15, 24 en 42 van de Digital Services Act van de Europese Unie (Verordening (EU) 2022/2065) ('DSA'). Tenzij anders vermeld, is de informatie in dit verslag bestemd voor de rapportageperiode van 1 januari 2024 tot 30 juni 2024 (H1 2024) en heeft het betrekking op contentmoderatie op de functies van Snapchat die door de DSA worden gereguleerd.
We streven er voortdurend naar onze rapportering te verbeteren. Voor deze rapportageperiode (H1 2024) hebben we de structuur van ons verslag gewijzigd me nieuwe en meer gedifferentieerde tabellen om beter inzicht te krijgen in onze contentmoderatie.
Per 1 oktober 2024 hebben we gemiddeld 92,9 miljoen maandelijkse actieve ontvangers ('AMAR') van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 92,9 miljoen geregistreerde gebruikers in de EU in de 6 maanden vóór 30 september 2024.
Dit cijfer kan als volgt over de Lidstaten worden uitgesplitst:
Deze cijfers zijn berekend om aan de huidige DSA-vereisten te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. In de loop van de tijd hebben we de manier waarop we dit cijfer berekenen aangepast, dit onder meer als gevolg van veranderend intern beleid en de begeleiding en technologie van de toezichthouder. Het is niet de bedoeling dat de cijfers van verschillende periodes met elkaar worden vergeleken. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.
Tijdens deze rapportageperiode (H1 2024) hebben we nul (0) opdrachten van EU-lidstaten ontvangen om specifieke illegale content aan te pakken, waaronder die zijn uitgegeven in overeenstemming met artikel 9 van de DSA.
Omdat dit aantal nul (0) is, kunnen we geen informatie verstrekken over de categorieën illegale content of lidstaten die opdrachten hebben gegeven, of de mediane tijden om ontvangst te bevestigen of aan de opdracht te voldoen.
Tijdens deze rapportageperiode (H1 2024) hebben we de volgende opdrachten van EU-lidstaten ontvangen om gebruikersgegevens te verstrekken, waaronder die zijn uitgegeven in overeenstemming met artikel 10 van de DSA:
De mediane tijd om de relevante autoriteiten op de hoogte te stellen van het ontvangen van opdrachten om informatie te verstrekken, bedroeg 0 minuten – wij geven een automatische ontvangstbevestiging.
De mediane tijd om te voldoen aan deze opdrachten om informatie te verstrekken, was ongeveer zeven dagen. Deze statistiek geeft de periode weer van het moment waarom Snap een verzoek ontvangt tot het moment waarop Snap het in behandeling heeft genomen en eraan heeft voldaan. Dit kan in individuele gevallen afhangen van de snelheid waarmee de betreffende lidstaat reageert op verzoeken om verduidelijking van Snap zodat wij aan de opdracht kunnen voldoen.
Let op, wij geven geen details over de categorieën illegale content waarop de opdrachten betrekking hebben, omdat wij over het algemeen niet over deze informatie beschikken.
Alle inhoud op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden. Bepaalde content moet ook voldoen aan aanvullende richtlijnen en beleid. Content die bijvoorbeeld voor algoritmische aanbeveling aan een breder publiek wordt ingediend in onze openbare uitzendingen moet voldoen aan de aanvullende, hogere normen in onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen, en advertenties moeten voldoen aan ons Advertentiebeleid.
Wij handhaven dit beleid met behulp van technologie en menselijke moderatie. Wij bieden Snapchatters ook mechanismen om schendingen te melden, waaronder illegale content en activiteiten, rechtstreeks in de app of op onze website. Proactieve detectiemechanismen en meldingen leiden tot moderatie. Geautomatiseerde tools en menselijke moderators nemen vervolgens passende maatregelen in overeenstemming met ons beleid.
Hieronder vind je meer informatie over onze contentmoderatie op onze openbare kanalen in H1 2024.
Snap heeft in overeenstemming met artikel 16 van de DSA mechanismen ingesteld die gebruikers en niet-gebruikers in staat stelt om Snap op de hoogte te stellen van specifieke informatie op Snapchat die zij als illegaal beschouwen. Zij kunnen dat doen door specifieke content of accounts te rapporteren, rechtstreeks in de Snapchat-app of op onze website.
Tijdens de rapportageperiode (H1 2024) hebben we de volgende kennisgevingen ontvangen in overeenstemming met artikel 16 van de DSA in de EU:
Hieronder geven we een overzicht van hoe deze kennisgevingen zijn verwerkt – door menselijke moderatie of enkel geautomatiseerd.
Bij het indienen van kennisgevingen in de app of op onze website kunnen verslaggevers een specifieke rapportagereden selecteren uit een menu met opties op basis van de categorieën van schendingen van onze Communityrichtlijnen (bijv. haatzaaiende uitspraken, gebruik of verkoop van drugs). Onze Communityrichtlijnen verbieden content en activiteiten die illegaal zijn in de EU. Onze rapportageredenen komen daarom grotendeels overeen met specifieke categorieën van illegale content in de EU. Voor zover een verslaggever in de EU echter van mening is dat de gerapporteerde content of het account om niet-genoemde redenen illegaal is, kan hij of zij dit melden als 'andere illegale content' en krijgt hij of zij de kans om uit te leggen waarom het illegaal is.
Als wij na controle vaststellen dat gerapporteerde content of een account in strijd is met onze Communityrichtlijnen (bijvoorbeeld omdat het illegaal is), kunnen wij (i) de content verwijderen, (ii) de betreffende accounthouder een formele waarschuwing geven, en / of (iii) het betreffende account blokkeren, zoals wordt uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening.
In H1 2024 hebben we de volgende handhavingsmaatregelen genomen na kennisgevingen die in overeenstemming met artikel 16 van de DSA in de EU zijn ingediend:
In H1 2024 zijn alle meldingen over 'andere illegale content' die we hebben aangepakt volgens onze Communityrichtlijnen gehandhaafd omdat onze Communityrichtlijnen de relevante content of activiteit verboden. We hebben deze handhavingen dus gecategoriseerd onder de relevante categorie schendingen van de Communityrichtlijnen in de bovenstaande tabel.
Naast de bovenstaande handhavingen kunnen we actie ondernemen, ondernemen we na melding misschien actie tegen content in overeenstemming met andere toepasselijk beleid en richtlijnen van Snap:
Met betrekking tot content op onze openbare uitzendkanalen: als we vaststellen dat de gerapporteerde content niet aan de hogere normen van onze Contentrichtlijnen om in aanmerking te komen voor aanbeveling voldoet, kunnen we de content weigeren voor algoritmische aanbeveling (als de content niet aan onze geschiktheidscriteria voldoet), of we kunnen de distributie van de content beperken om gevoelige doelgroepen uit te sluiten (als de content aan onze geschiktheidscriteria voor aanbeveling voldoet, maar anderszins gevoelig of suggestief is).
In H1 2024 hebben we de volgende acties ondernomen met betrekking tot content op de openbare uitzendingkanalen van Snapchat die aan ons in de EU zijn gemeld, in overeenstemming met onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen:
Als we vaststellen dat een gerapporteerde advertentie in strijd is met ons Advertentiebeleid, kunnen we deze na controle verwijderen.
In H1 2024 hebben we de volgende acties ondernomen met betrekking tot gerapporteerde advertenties in de EU:
Naast het controleren van kennisgevingen die zijn ingediend in overeenstemming met artikel 16 van de DSA, modereert Snap op eigen initiatief content op de openbare kanalen van Snapchat (zoals Spotlight, Verkennen). Hieronder geven we informatie over de contentmoderatie op eigen initiatief van Snap, waaronder het gebruik van geautomatiseerde tools, de maatregelen die zijn genomen om training en ondersteuning te bieden aan personen belast met contentmoderatie, en het aantal en soorten beperkingen die zijn opgelegd als gevolg van die proactieve contentmoderatie.
Gebruik van geautomatiseerde tools in de moderatie op eigen initiatief van Snap
We gebruiken geautomatiseerde tools om schendingen van onze voorwaarden en beleid op onze openbare contentkanalen proactief te herkennen en in sommige gevallen te handhaven. Dit omvat hashmatching-tools (waaronder PhotoDNA en Google CSAI Match), Abusive Language Detection (die content detecteren en weigeren op basis van een geïdentificeerde en regelmatig bijgewerkte lijst van beledigende zoekwoorden en emoji's) en kunstmatige intelligentie / machine learning-technologie. Onze geautomatiseerde tools zijn ontworpen om schendingen van onze Communityrichtlijnen (die onder andere illegale content verbieden) en, indien van toepassing, onze Contentrichtlijnen voor de geschiktheid en het Advertentiebeleid op te sporen.
In H1 2024 hebben we al onze proactieve detectie uitgevoerd met geautomatiseerde tools. Wanneer onze geautomatiseerde tools een mogelijke schending van ons beleid detecteren, nemen ze automatisch actie in overeenstemming met ons beleid, of ze maken een taak voor menselijke controle. Het aantal en soorten beperkingen die als gevolg van dit proces worden opgelegd, worden hieronder beschreven.
Aantal en soorten beperkingen op eigen initiatief van Snap
In H1 2024 heeft Snap de volgende handhavingsmaatregelen genomen na proactieve detectie door geautomatiseerde tools van schendingen van onze Communityrichtlijnen (waaronder schendingen van illegale content en activiteiten onder de wetgeving van de EU en lidstaten):
Daarnaast hebben we in H1 2024 met betrekking tot content op onze openbare uitzendkanalen de volgende acties ondernomen na op Snapchat proactief schendingen te herkennen van onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen, door gebruik te maken van geautomatiseerde tools:
* Zoals vermeld in onze Contentrichtlijnen om in aanmerking te komen voor aanbevelingen kunnen accounts die deze richtlijnen meermaals of ernstig schenden tijdelijk of permanent worden uitgesloten van aanbevelingen op onze openbare uitzendkanalen. We passen deze maatregel toe bij onze proactieve moderatie.
In H1 2024 hebben we verder de volgende maatregelen genomen nadat we op Snapchat door geautomatiseerde tools schendingen van ons Advertentiebeleid proactief hadden herkend:
Maatregelen om personen die belast zijn met contentmoderatie te trainen en helpen
Onze contentmoderatieteams passen ons contentmoderatiebeleid toe om onze Snapchat-community te beschermen. Ze worden getraind over een periode van meerdere weken, waarin nieuwe teamleden worden opgeleid over het beleid, de tools en de escalatieprocedures van Snap. Onze moderatieteams nemen regelmatig deel aan opfriscursussen die relevant zijn voor hun workflows, vooral wanneer we gevallen op de beleidsgrens of contextafhankelijke gevallen tegenkomen. We voeren ook programma's uit voor de verbetering van vaardigheden, certificeringssessies en quizzen uit om ervoor te zorgen dat alle moderators actuele informatie hebben en in overeenstemming zijn met alle bijgewerkte beleidslijnen. Tot slot: als er dringende trends in content opduiken op basis van actuele gebeurtenissen, verspreiden we snel beleidsverduidelijkingen zodat teams kunnen reageren volgens het beleid van Snap.
Wij bieden onze contentmoderatieteams aanzienlijke ondersteuning en informatiebronnen, waaronder ondersteuning voor welzijn op de werkplek en eenvoudige toegang tot mentale gezondheidszorg.
Gebruikers van wie de accounts door onze veiligheidsteams zijn geblokkeerd vanwege schendingen van de Communityrichtlijnen (waaronder illegale content en activiteiten) kunnen beroep indienen tegen een geblokkeerd account. Gebruikers kunnen ook bezwaar maken tegen bepaalde contentmoderatiebeslissingen.
Tijdens de rapportageperiode (H1 2024) heeft Snap de volgende beroepen verwerkt (waaronder beroepen tegen zowel accountblokkeringen en moderatiebeslissingen tegen content) die zijn ingediend via haar interne klachtensysteem in de EU:
Kwalitatieve beschrijving en doeleinden
Zoals hierboven in artikel 3, onder b, is uiteengezet, gebruiken we geautomatiseerde tools om schendingen van onze voorwaarden en beleid op onze openbare contentkanalen proactief te herkennen en in sommige gevallen te handhaven. Dit omvat hashmatching-tools (waaronder PhotoDNA en Google CSAI Match), Abuse Language Detection (die content detecteren en weigeren op basis van een geïdentificeerde en regelmatig bijgewerkte lijst van beledigende zoekwoorden en emoji's) en kunstmatige intelligentie / machine learning-technologie. Onze geautomatiseerde tools zijn ontworpen om schendingen van onze Communityrichtlijnen (die onder andere illegale content verbieden) en, indien van toepassing, onze Contentrichtlijnen voor de geschiktheid en het Advertentiebeleid op te sporen.
Wanneer onze geautomatiseerde tools een mogelijke schending van ons beleid detecteren, nemen ze automatisch actie in overeenstemming met ons beleid, of ze maken een taak voor menselijke controle.
Indicatoren van nauwkeurigheid en mogelijk foutenpercentage, per lidstaat
We controleren de nauwkeurigheid van onze geautomatiseerde moderatietools door willekeurige voorbeelden van taken die door onze geautomatiseerde tools op onze openbare kanalen worden verwerkt te selecteren en deze door onze menselijke moderatieteams opnieuw te laten bekijken. Het nauwkeurigheidspercentage is het percentage taken uit deze willekeurige voorbeelden die door onze menselijke moderators zijn bevestigd bij een nieuwe controle. Het foutenpercentage is het verschil tussen 100% en het nauwkeurigheidspercentage zoals hierboven beschreven.
Op basis van steekproeven in H1 2024 waren de indicatoren van de nauwkeurigheid en het mogelijke foutenpercentage van de geautomatiseerde methoden voor alle categorieën van schendingen ongeveer 93% en het foutenpercentage ongeveer 7%.
We houden over het algemeen geen gegevens bij over de taal van content die we op Snapchat modereren en kunnen dus geen overzicht per officiële taal van de lidstaten geven van de nauwkeurigheids- en foutenpercentages van onze geautomatiseerde moderatietools. In plaats daarvan geven we hieronder een overzicht van onze nauwkeurigheids- en foutenpercentages voor automatisch gemodereerde content uit elke lidstaat.
Veiligheidsmaatregelen
We zijn ons bewust van de mogelijke impact van geautomatiseerde moderatietools op fundamentele rechten en we nemen veiligheidsmaatregelen om die impact te minimaliseren.
Onze geautomatiseerde contentmoderatietools worden getest voordat ze op Snapchat worden geïmplementeerd. De machines worden offline getest op prestaties en via A/B-tests geïmplementeerd om te zorgen dat ze goed werken voordat ze volledig in productie worden genomen. We voeren kwaliteitsborgingsreviews (QA) vóór de lancering, lanceringsreviews en voortdurende QA-controles uit tijdens een gedeeltelijke (gefaseerde) uitrol.
Na de lancering van onze geautomatiseerde tools evalueren we hun prestaties en nauwkeurigheid voortdurend en passen we deze indien nodig aan. Dit proces omvat een nieuwe review van voorbeelden van geautomatiseerde taken door onze menselijke moderators om voorbeelden te identificeren die moeten worden aangepast om de nauwkeurigheid te verbeteren. We monitoren ook hoeveel specifieke gevaren op Snapchat voorkomen via willekeurige dagelijkse steekproeven van openbaren verhalen en gebruiken deze informatie om te bepalen waar verdere verbetering noodzakelijk is.
Ons beleid en onze systemen bevorderen consistente en eerlijke handhaving, zoals door onze geautomatiseerde tools, en bieden Snapchatters de mogelijkheid om tegen de handhaving in beroep te gaan via kennisgevings- en bezwaarprocedures die gericht zijn op zowel het waarborgen van de belangen van onze community als het beschermen van individuele Snapchatters.
Wij streven ernaar om onze geautomatiseerde contentmoderatietools voortdurend te verbeteren om de nauwkeurigheid ervan te verbeteren en de consistente en eerlijke handhaving van ons beleid te ondersteunen.
Voor de rapportageperiode (H1 2024) was het aantal geschillen dat werd voorgelegd aan formeel gecertificeerde buitengerechtelijke instanties voor geschilbeslechting in overeenstemming met artikel 21 van de DSA, nul (0), en we kunnen geen overzicht van de resultaten, mediane tijden of het aantal geschillen geven waarbij Snap de beslissingen van een buitengerechtelijke instantie heeft geïmplementeerd.
Let op dat we in H1 2024 twee (2) kennisgevingen van geschillen hebben ontvangen die zijn ingediend bij een instantie die certificatie zoekt voor buitengerechtelijke geschilbeslechting onder artikel 21 van de DSA. We hebben deze geschillen niet in het bovenstaande opgenomen, omdat de instantie die deze kennisgevingen heeft verzonden niet in staat was op verzoek haar certificeringsstatus te verifiëren.
Opschorting op grond van artikel 23.1: opschorting van accounts die vaak kennelijk illegale content bevatten
Zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep, worden accounts waarvan we vaststellen dat ze in strijd zijn met onze Communityrichtlijnen (waaronder door kennelijk illegale content te verstrekken) en worden accounts die ernstig gevaar veroorzaken, meteen uitgeschakeld. Voor alle andere schendingen van onze Communityrichtlijnen past Snap een proces van handhaving toe dat drie fasen omvat:
Stap één: de schendende content wordt verwijderd.
Stap twee: de Snapchatter ontvangt een melding die aangeeft dat hij onze Communityrichtlijnen heeft geschonden, dat zijn content is verwijderd en dat herhaalde schendingen zullen leiden tot meer handhavingsacties, inclusief het uitschakelen van zijn account.
Stap drie: ons team registreert een veroordeling op het account van de Snapchatter.
Informatie over het aantal veroordelingen (waarschuwingen) en blokkeringen in H1 2024 op accounts in de EU met betrekking tot content of activiteiten op de openbare kanalen van Snapchat is hierboven te vinden in sectie 3(a) en 3(b).
Opschorting op grond van artikel 23.2: opschorting van de verwerking van kennisgevingen en klachten van personen, entiteiten en klagers die vaak kennisgevingen of klachten indienen die kennelijk ongegrond zijn
Toepassing van onze interne definitie van 'kennelijk ongegronde' kennisgevingen en klachten, en onze interne drempels voor wat wij beschouwen als het frequent indienen van dergelijke kennisgevingen en klachten, het aantal opschortingen van het verwerken van kennisgevingen en klachten in H1 2024 op grond van artikel 23.2 van de DSA, is als volgt:
Onze contentmoderatieteams zijn wereldwijd actief en helpen Snapchatters 24/7 veilig te houden. Hieronder vind je de specificatie van ons menselijk moderatiepersoneel per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen) vanaf 30 juni 2024:
De bovenstaande tabel bevat alle menselijke informatiebronnen voor contentmoderatie die officiële talen van de EU-lidstaten vanaf 30 juni 2024 ondersteunen. In situaties waarin we extra taalondersteuning nodig hebben, gebruiken we vertaaldiensten.
Moderators worden aangeworven met behulp van een standaard functiebeschrijving die een taalvereiste bevat (afhankelijk van de behoefte). De taalvereiste stelt dat de kandidaat een vloeiende beheersing in woord en geschrift van de taal moet kunnen aantonen en minstens één jaar werkervaring heeft voor de instapfunctie. Kandidaten moeten voldoen aan de educatieve en achtergrondvereisten om in aanmerking te worden genomen. Kandidaten moeten ook aantonen dat ze de actuele ontwikkelingen begrijpen voor het land of de regio van de contentmoderatie die ze zullen ondersteunen.
Zie hierboven voor informatie over de training en ondersteuning die Snap aan contentmoderators biedt, wat afzonderlijk vereist is onder artikel 15, lid 1, onder c van de DSA en dus is opgenomen in artikel 3, onder b, in de laatste subsectie met als onderwerp: 'Maatregelen om training en ondersteuning te bieden aan personen belast met contentmoderatie'
Achtergrond
Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.
We gebruiken PhotoDNA robuuste hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en ze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.
Verslag
De onderstaande gegevens zijn gebaseerd op het resultaat van proactief scannen met behulp van PhotoDNA en/of CSAI Match van media die door de camera's van een gebruiker zijn geüpload naar Snapchat.
Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag. Er is speciale training vereist om CSE-meldingen te mogen beoordelen en er is een beperkt team beschikbaar dat deze beoordelingen verwerkt, omdat de inhoud aanstootgevend kan zijn. Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen. We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.
Veiligheidsmaatregelen voor contentmoderatie
De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.
Publicatie: 17 juni 2024
Laatst bijgewerkt: 17 juni 2024
Dit transparantieverslag wordt gepubliceerd in overeenstemming met artikel 7, lid 2 en lid 3 van Verordening 2021/784 van het Europees Parlement en de Raad van de EU, en betreft de verspreiding van online terroristische content (de Verordening). Het betreft de rapportageperiode van 1 januari tot 31 december 2023.
Artikel 7, lid 3, onder a: informatie over de maatregelen van de serviceprovider met betrekking tot de identificatie en verwijdering van of het ontnemen van toegang tot terroristische content
Artikel 7, lid 3, onder b: informatie over de maatregelen van de serviceprovider met betrekking tot de aanpak van het online verschijnen van materiaal dat eerder is verwijderd of waarvan de toegang is ontnomen omdat het als terroristische content werd beschouwd, in het bijzonder wanneer er geautomatiseerde tools zijn gebruikt
Terroristen, terroristische organisaties en gewelddadige extremisten mogen Snapchat niet gebruiken. Content die terrorisme of andere gewelddadige, strafbare feiten verdedigen, promoten, verheerlijken of bevorderen, is verboden onder onze Communityrichtlijnen. Gebruikers kunnen content die in strijd is met onze Communityrichtlijnen rapporteren in het rapportagemenu in onze app of op onze ondersteuningssite. We gebruiken ook proactieve herkenning om strijdige content op openbare kanalen als Spotlight en Verkennen te identificeren.
Hoe wij ook op de hoogte kunnen komen van contentschendingen, onze teams voor Vertrouwen en veiligheid beoordelen door automatische en menselijke moderatie snel alle geïdentificeerde content en nemen handhavingsbeslissingen. Handhaving kan bestaan uit het verwijderen van de content, het waarschuwen of blokkeren van het betreffende account, en indien nodig het rapporteren van het account aan wetshandhavers. Om te voorkomen dat terroristische of andere gewelddadige extremistische content opnieuw op Snapchat verschijnen, werken we niet alleen samen met wetshandhavers, maar nemen we ook stappen om het apparaat van het betreffende account te blokkeren en te voorkomen dat de gebruiker een ander Snapchat-account kan maken.
Aanvullende details over onze maatregelen voor het identificeren en verwijderen van terroristische content zijn te vinden in onze uitleg over hatelijke content, terrorisme en gewelddadig extremisme en onze uitleg over moderatie, handhaving en beroepsprocedures op Snapchat.
Artikel 7, lid 3, onder c: het aantal terroristische contentitems die zijn verwijderd of waartoe de toegang is geblokkeerd na verwijderingsopdrachten of specifieke maatregelen, en het aantal verwijderingsopdrachten waarvan de content niet is verwijderd of waartoe de toegang niet is geblokkeerd overeenkomstig artikel 3, lid 7, eerste alinea, en artikel 3, lid 8, eerste alinea, met de redenen daarvoor
Tijdens de rapportageperiode heeft Snap geen verwijderingsopdrachten ontvangen en hoefden we geen specifieke maatregelen op grond van artikel 5 van de Verordening te nemen. Daarom waren we op grond van de Verordening niet verplicht om handhavingsmaatregelen te treffen.
De volgende tabel beschrijft handhavingsmaatregelen op basis van gebruikersrapporten en proactieve herkenning van content en accounts, zowel in de EU en elders in de wereld, die in strijd waren met onze Communityrichtlijnen met betrekking tot terrorisme en gewelddadig extremisme
Artikel 7, lid 3, onder d: het aantal klachten dat de serviceprovider in overeenstemming met artikel 10 in behandeling heeft genomen en het resultaat ervan
Artikel 7, lid 3, onder g: het aantal gevallen waarin de serviceproviders content of de toegang ertoe heeft hersteld na een klacht van de contentprovider
Omdat we tijdens de rapportageperiode op grond van de Verordening geen handhavingsmaatregelen hoefden te verrichten, hebben we geen klachten op grond van artikel 10 van de Verordening ontvangen en geen herstellingen verricht.
De volgende tabel bevat informatie over beroepen en herstellingen, zowel in de EU als elders in de wereld, met betrekking tot terroristische en gewelddadige extremistische content onder onze Communityrichtlijnen.
Artikel 7(3)(e): het aantal bestuursrechtelijke of beroepsprocedures door de serviceprovider en het resultaat ervan
Artikel 7(3)(f): het aantal gevallen waarin de serviceprovider als gevolg van een bestuursrechtelijke of beroepsprocedure content of de toegang ertoe moest herstellen
Aangezien er tijdens de rapportageperiode geen handhavingsmaatregelen vereist waren op grond van de verordening, hadden we geen bijbehorende bestuursrechtelijke of beroepsprocedures en waren we niet genoodzaakt als gevolg daarvan content te herstellen
Dit verslag is opgesteld om te voldoen aan de verplichtingen van Snap op grond van artikel 34 en 35 van Verordening (EU) 2022/2065 en bevat de resultaten van onze analyse van systeemrisico's die voortvloeien uit het ontwerp, de functie en het gebruik van de online platforms van Snapchat, samen met de methodologie die wordt gebruikt om die risico's te onderzoeken en de beperkende maatregelen die zijn ingesteld om die risico's aan te pakken.
DSA-rapport over risico- en beperkingsonderzoeken | Snapchat | augustus 2023 (PDF)
Deze verslagen zijn opgesteld om te voldoen aan de verplichtingen van Snap op grond van artikel 37 van Verordening (EU) 2022/2065 en bevatten: (i) de resultaten van de onafhankelijke audit van de naleving door Snap van de verplichtingen van hoofdstuk III van Verordening (EU) 2022/2065 en (ii) de maatregelen die zijn genomen om de operationele aanbevelingen van die onafhankelijke audit uit te voeren.
Onafhankelijk DSA-auditverslag van | Snapchat | augustus 2024 (PDF)
DSA-auditimplementatieverslag | Snapchat | september 2024 (PDF)
EU VSP-gedragscode
Snap is een aanbieder van video-sharing-platformdiensten ("VSP") op grond van artikel 1, lid 1, onder aa) AVMSD. Deze gedragscode (“code”) is opgesteld om te beschrijven hoe Snap voldoet aan zijn verplichtingen als een VSP onder de Nederlandse Mediawet (“DMA”) en richtlijn (EU) 2010/13 (zoals gewijzigd door richtlijn (EU) 2018/1808 (de “richtlijn audiovisuele mediadiensten” of “AVMSD”)). De Code is van toepassing in de Europese Unie en de Europese Economische Ruimte.