Europese Unie
1 juli 2023 t/m 31 december 2023

Gepubliceerd:

25 april, 2024

Bijgewerkt:

25 april, 2024

Welkom op onze transparantiepagina voor de Europese Unie (EU), waar we specifieke informatie over de EU publiceren zoals vereist door de wet inzake digitale diensten (DSA), de richtlijn audiovisuele mediadiensten (AVMSD), de Nederlandse Mediawet (DMA) en de uitvoeringswet verordening terroristische online-inhoud (TOI). Houd er rekening mee dat de meest recente versie van dit transparantieverslag te vinden is in de lokale en-US.

Wettelijke vertegenwoordiger 

Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger voor doeleinden met betrekking tot de wet inzake digitale diensten (DSA). U kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor de AVMSD en DMA en tco-enquiries [at] snapchat.com, voor de TOI via onze Ondersteuningssite [hier], of op:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.

Gebruik Engels of Nederlands wanneer je contact met ons opneemt.

Regelgevende instanties

Voor de DSA-wetgeving worden we gereguleerd door de Europese Commissie en de Nederlandse Autoriteit voor Consument en Markt (ACM). Voor AVMSD en de DMA worden we gereguleerd door het Nederlandse Commissariaat voor de Media (CvdM). Voor de TOI worden we gereguleerd door de Nederlandse Autoriteit voor het voorkomen van Online Terroristisch en Kinderpornografisch Materiaal (ATKM).

DSA-transparantieverslag

Artikelen 15, 24 en 42 van de DSA vereisen Snap om verslagen te publiceren met voorgeschreven informatie over de contentmoderatie van Snap voor de services van Snapchat die worden beschouwd als 'online platforms', d.w.z. Spotlight, For You, openbare profielen, kaarten, Lenzen en Adverteren. Vanaf 25 oktober 2023 moet dit verslag elke 6 maanden worden gepubliceerd.

Snap publiceert twee keer per jaar een transparantieverslag om inzicht te geven in de veiligheidsinspanningen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd. Ons meest recente verslag voor H2 2023 (1 juli - 31 december) is hier te vinden (met updates voor onze gemiddelde maandelijkse cijfers voor actieve ontvangers vanaf 1 augustus 2024 - zie onderaan deze pagina). Statistieken die specifiek zijn voor de wet inzake digitale diensten, zijn te vinden op deze pagina.

Gemiddeld maandelijkse actieve ontvangers
(DSA-artikel 24, lid 2 en 42, lid 3)

Op 31 december 2023 hebben we gemiddeld 90,9 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 90,9 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden.

Dit cijfer kan als volgt over de Lidstaten worden uitgesplitst:

Deze cijfers zijn berekend om aan de huidige DSA-regelgeving te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. In de loop van de tijd hebben we de manier waarop we dit cijfer berekenen aangepast, dit onder meer als gevolg van veranderend intern beleid en de begeleiding en technologie van de toezichthouder. Het is niet de bedoeling dat de cijfers van verschillende periodes met elkaar worden vergeleken. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.


Verzoeken van de overheid van de lidstaten
(DSA artikel 15, lid 1, onder a))

Verzoek om arrestatie

We hebben in deze periode, op grond van artikel 9 van de DSA, 0 verzoeken om arrestatie ontvangen van de EU-lidstaten. 

Verzoek om informatie 

We hebben in deze periode, op grond van artikel 10 van de DSA, de volgende verzoeken om informatie ontvangen van de EU-lidstaten:

De gemiddelde doorlooptijd om autoriteiten op de hoogte te stellen van een ingekomen informatieverzoek is 0 minuten. We sturen een geautomatiseerde ontvangstbevestiging. De mediane doorlooptijd die nodig is om informatieverzoeken in te willigen is ~10 dagen. Deze statistiek geeft de periode weer vanaf het moment dat Snap een verzoek ontvangt tot het moment waarop Snap ervan overtuigd is dat volledig aan het verzoek is voldaan. Hoe lang het hele proces duurt, is in sommige gevallen gedeeltelijk afhankelijk van de snelheid waarmee wetshandhavers reageren op een informatieverzoek van Snap.

Contentmoderatie


Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden, evenals aan ondersteunende voorwaarden, richtlijnen en uitleg. Proactieve opsporingsmechanismen en meldingen van illegale of schendende content of accounts vragen om een controle. Op dat moment verwerken onze toolingsystemen het verzoek, verzamelen relevante metadata en sturen de relevante content via een gestructureerde gebruikersinterface, die is ontworpen om effectieve en efficiënte controle-activiteiten te faciliteren, naar ons moderatieteam. Wanneer onze moderatieteams ofwel door menselijke of geautomatiseerde controle vaststellen dat een gebruiker onze Voorwaarden heeft geschonden, kunnen we de aanstootgevende content of het account verwijderen, de zichtbaarheid van het bewuste account beëindigen of beperken en/of de wetshandhavende instanties op de hoogte stellen, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep.  Gebruikers van wie accounts door ons veiligheidsteam worden geblokkeerd vanwege schendingen van de Communityrichtlijnen kunnen beroep indienen tegen een geblokkeerd account en gebruikers kunnen beroep indienen tegen bepaalde contentsbeperkingen.

Kennisgevingen over content en accounts (DSA-artikel 15, lid 1, onder b))

Snap heeft mechanismen ingesteld om gebruikers en niet-gebruikers in staat te stellen Snap op de hoogte te stellen van content en accounts die onze Communityrichtlijnen en Servicevoorwaarden op het platform schenden, inclusief die welke ze als illegaal beschouwen op grond van DSA-artikel 16. Deze meldingsmechanismen zijn beschikbaar in de app (d.w.z. rechtstreeks vanuit de content) en op onze website.

Tijdens de genoemde periode hebben we in de EU de volgende kennisgevingen over content en accounts ontvangen:

In H2'23 hebben we uitsluitend met automatisering 664.896 kennisgevingen verwerkt. Al deze kennisgevingen handelden over het in strijd zijn met onze Communityrichtlijnen omdat onze Communityrichtlijnen ook illegale content insluiten. 

Naast content en accounts van gebruikers modereren we ook advertenties als ze ons platformbeleid schenden. Hieronder staat het totaal van de advertenties die in de EU zijn gemeld en verwijderd. 

Kennisgevingen van vertrouwde rapporteurs (artikel 15, lid 1, onder b))

Er waren via de DSA, voor de duur van ons meest recente transparantieverslag (H2 2023), geen formeel aangewezen vertrouwde rapporteurs (Trusted Flaggers). Als gevolg daarvan was het aantal kennisgevingen dat door dergelijke vertrouwde rapporteurs werd ingediend in deze periode nul (0).

Proactieve contentmoderatie (artikel 15, lid 1, onder c))

Na op eigen initiatief content te hebben gemodereerd, heeft Snap tijdens de genoemde periode de volgende content en accounts in de EU verkregen.

Alle inspanningen wat betreft moderatie die Snap op eigen initiatief heeft ondernomen zijn ofwel door mensen of met behulp van automatisering gedaan. Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.


Verzoeken (artikel 15, lid 1, onder d))

Snap heeft in de betreffende periode in de EU de volgende aanklachten over content en accounts via zijn interne klachtenverwerkingssystemen:


* Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag. Er is speciale training vereist om CSE-meldingen te mogen beoordelen en er is een beperkt team beschikbaar dat deze beoordelingen verwerkt, omdat de inhoud aanstootgevend kan zijn. In het najaar van 2023 heeft Snap beleidswijzigingen geïmplementeerd die tot inconsistentie bij sommige manieren van CSE-handhaving heeft geleid. We hebben deze inconsistenties aangepakt door medewerkers opnieuw te trainen en een strenge kwaliteitsborging toe te passen. We verwachten dat het volgende transparantieverslag vooruitgang zal tonen, met snellere reactie op CSE-meldingen en een verbeterde precisie bij de bestaande handhaving.

Geautomatiseerde manieren voor contentmoderatie (artikel 15, lid 1, onder e)

Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk wordt gemaakt voor een breed publiek. De geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale of aanstootgevende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een samengestelde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.


De nauwkeurigheid van geautomatiseerde moderatietechnologieën voor elke vorm van misbruik was ongeveer 96,61% met een foutenpercentage van ongeveer 3,39%.


Veiligheidsmaatregelen voor contentmoderatie (artikel 15, lid 1, onder e)

We erkennen dat er nadelen verbonden zijn aan het modereren van content, waaronder beperking op de vrijheid van meningsuiting en vereniging als gevolg van subjectiviteit van de geautomatiseerde of de menselijke moderatoren, of valse meldingen door bijvoorbeeld overheden, politieke partijen of goed georganiseerde individuen. Snapchat biedt over het algemeen geen plek voor politieke of activistische content, vooral in onze openbare ruimtes.


Om onszelf tegen deze risico's te beschermen, gebruikt Snap tests en trainingen en robuuste, consistente procedures voor het afhandelen van meldingen van illegale of aanstootgevende content, waaronder die van wetshandhavings- en overheidsinstanties. We zijn voortdurend bezig met het evalueren en ontwikkelen van onze algoritmen voor contentmoderatie. Hoewel mogelijke inperking van de vrijheid van meningsuiting moeilijk te detecteren is, zijn we niet op de hoogte van grote problemen op dit gebied en bieden we onze gebruikers verschillende mogelijkheden om fouten te melden indien daar sprake van is.


Ons beleid en onze systemen bevorderen consistente en eerlijke handhaving en, zoals hierboven beschreven, bieden Snapchatters de mogelijkheid om tegen de handhaving in beroep te gaan via kennisgevings- en bezwaarprocedures die gericht zijn op zowel het waarborgen van de belangen van onze community als het beschermen van individuele Snapchatters.

We streven ernaar om ons handhavingsbeleid en onze processen voortdurend te verbeteren en hebben grote vooruitgang geboekt in de strijd tegen mogelijk gevaarlijke en illegale content en activiteiten op Snapchat. Dit is te zien aan de stijgende meldings- en handhavingscijfers in ons meest recente transparantieverslag en de dalende prevalentiepercentages voor overtredingen op Snapchat in het algemeen.


Buitengerechtelijke schikkingen (artikel 24, lid 1, onder a)

Voor de duur van ons meest recente transparantieverslag (H2 2023), waren er geen formeel aangewezen organen voor buitengerechtelijke geschillenbeslechting in het kader van de DSA. Als gevolg hiervan was het aantal geschillen dat aan dergelijke instanties werd voorgelegd in deze periode nul (0) en kunnen we geen uitkomsten, mediane doorlooptijden voor schikkingen en het aantal geschillen waarbij we de beslissingen van de instantie hebben geïmplementeerd delen.



Opschorting van accounts (artikel 24, lid 1, onder b)

In H2 2023 hebben we geen accountopschorting opgelegd op grond van artikel 23. Het veiligheidsteam van Snap beschikt over procedures om voor gebruikersaccounts de mogelijkheid om veelvuldig ongegronde kennisgevingen of klachten in te dienen in te perken. Deze procedures omvatten het beperken van dubbele meldingen en het gebruik van e-mailfilters om te voorkomen dat gebruikers die vaak ongegronde meldingen hebben ingediend dit blijven doen. Snap neemt passende handhavingsmaatregelen tegen accounts, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening. Informatie over het niveau van de accounthandhaving van Snap is te vinden in ons transparantieverslag (H2 2023). Dergelijke maatregelen zullen blijvend worden beoordeeld en herhaald.


Hulp, expertise en ondersteuning voor moderators (artikel 42, lid 2)

Ons contentmoderatieteam is wereldwijd actief en helpt Snapchatters 24/7 veilig te houden. Hieronder vindt u de specificatie van ons menselijk moderatiepersoneel per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen) vanaf 31 december 2023:

De bovenstaande tabel bevat alle moderators die de talen van de EU-lidstaten vanaf 31 december 2023 ondersteunen. In situaties waarin we extra taalondersteuning nodig hebben, gebruiken we vertaaldiensten.

Moderators worden aangeworven met behulp van een standaard functiebeschrijving die een taalvereiste bevat (afhankelijk van de behoefte). De taalvereiste stelt dat de kandidaat een vloeiende beheersing in woord en geschrift van de taal moet kunnen aantonen en minstens één jaar werkervaring heeft voor de instapfunctie. Kandidaten moeten voldoen aan de educatieve en achtergrondvereisten om in aanmerking te worden genomen. Kandidaten moeten ook aantonen dat ze de actuele ontwikkelingen begrijpen voor het land of de regio van de contentmoderatie die ze zullen ondersteunen.

Ons moderatieteam past ons beleid en onze handhavingsmaatregelen toe om onze Snapchat-community te helpen beschermen. Er wordt een training gegeven over een periode van meerdere weken, waarin nieuwe teamleden worden opgeleid over het beleid, de tools en de escalatieprocedures van Snap. Na de training moet elke moderator een certificeringsexamen afleggen voordat ze content mogen beoordelen. Ons moderatieteam neemt regelmatig deel aan opfriscursussen die relevant zijn voor hun workflows, vooral wanneer we geconfronteerd worden met beleidsgrens- en contextafhankelijke gevallen. We voeren ook programma's uit voor de verbetering van vaardigheden, certificeringssessies en quizzen uit om ervoor te zorgen dat alle moderators actuele informatie hebben en in overeenstemming zijn met alle bijgewerkte beleidslijnen. Tot slot: als er dringende trends in content opduiken op basis van actuele gebeurtenissen, verspreiden we snel beleidsverduidelijkingen zodat teams kunnen reageren volgens het beleid van Snap.

We bieden ons contentmoderatieteam – de “digitale eerste hulpverleners“ van Snap – aanzienlijke ondersteuning en informatiebronnen, inclusief ondersteuning voor wellness op de werkplek en eenvoudige toegang tot diensten voor mentale gezondheidszorg. 

Seksuele uitbuiting en misbruik van kinderen (CSEA) rapport over mediascanting


Achtergrond

Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.


We gebruiken PhotoDNA robuuste hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en ze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.


Verslag

De onderstaande gegevens zijn gebaseerd op het resultaat van proactief scannen met behulp van PhotoDNA en/of CSAI Match van media die door de camera's van een gebruiker zijn geüpload naar Snapchat.

Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.


Seksuele uitbuiting en misbruik van kinderen (CSEA) rapport over mediascanting


Achtergrond

Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.


We gebruiken PhotoDNA robuuste hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en ze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.


Verslag

De onderstaande gegevens zijn gebaseerd op het resultaat van proactief scannen met behulp van PhotoDNA en/of CSAI Match van media die door de camera's van een gebruiker zijn geüpload naar Snapchat.

Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.


Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.


EU DSA: Gemiddeld maandelijkse actieve ontvangers (augustus 2024)
(DSA-artikel 24, lid 2 en 42, lid 3)

Per 1 augustus 2024 hebben we gemiddeld 92,4 miljoen maandelijkse actieve ontvangers ('AMAR') van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 92,4 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden.

Dit cijfer kan als volgt over de Lidstaten worden uitgesplitst: