Europese Unie
1 juli 2023 t/m 31 december 2023

Gepubliceerd:

25 april, 2024

Bijgewerkt:

25 april, 2024

Welkom op onze transparantiepagina van de Europese Unie (EU), waar we specifieke informatie publiceren die vereist is op grond van de Wet op digitale diensten (DSA), de Richtlijn audiovisuele mediadiensten (AVMSD) en de Nederlandse Mediawet (DMA). Houd er rekening mee dat de meest recente versie van dit transparantieverslag te vinden is in de lokale en-VS.

Wettelijke vertegenwoordiger 

Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger voor doeleinden met betrekking tot de Wet op digitale diensten (DSA). U kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor AVMSD en DMA, via onze Ondersteuningssite [hier], of op:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.

Regelgevende instanties

Voor de DSA-wetgeving worden we gereguleerd door de Europese Commissie en de Nederlandse Autoriteit voor Consument en Markt (ACM). Voor AVMSD en de DMA worden we gereguleerd door de Nederlandse Mediaautoriteit (CvdM).

DSA-transparantieverslag

Artikelen 15, 24 en 42 van de DSA vereisen Snap om verslagen te publiceren met voorgeschreven informatie over de contentmoderatie van Snap voor de services van Snapchat die worden beschouwd als 'online platforms', d.w.z. Spotlight, For you, openbare profielen, kaarten, Lenzen en Adverteren. Vanaf 25 oktober 2023 moet dit verslag elke 6 maanden worden gepubliceerd.

Snap publiceert twee keer per jaar een transparantieverslag om inzicht te geven in de veiligheidsinspanningen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd. Ons recentste verslag voor H2 2023 (1 juli t/m 31 december) is hier te vinden. Statistieken die specifiek zijn voor de Wet op digitale diensten, zijn te vinden op deze pagina.

Gemiddeld maandelijkse actieve ontvangers
(DSA artikel 24, lid 2 en 42, 3)

Op 31 december 2023 hebben we gemiddeld 90,9 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 90,9 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de Lidstaten worden uitgesplitst:

Deze cijfers zijn berekend om aan de huidige DSA-regelgeving te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. In de loop van de tijd hebben we de manier waarop we dit cijfer berekenen aangepast, dit onder meer als gevolg van veranderend intern beleid en de begeleiding en technologie van de toezichthouder. Het is niet de bedoeling dat de cijfers van verschillende periodes met elkaar worden vergeleken. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.


Verzoeken van de overheid van de lidstaten
(DSA artikel 15, lid 1, onder a))

Verzoek om arrestatie

We hebben in deze periode, op grond van artikel 9 van de DSA, 0 verzoeken om arrestatie ontvangen van de EU-lidstaten. 

Verzoek om informatie 

We hebben in deze periode, op grond van artikel 10 van de DSA, de volgende verzoeken om informatie ontvangen van de EU-lidstaten:

De gemiddelde doorlooptijd om autoriteiten op de hoogte te stellen van een ingekomen informatieverzoek is 0 minuten. We sturen een geautomatiseerde ontvangstbevestiging. De mediane doorlooptijd die nodig is om informatieverzoeken in te willigen is ~10 dagen. Deze statistiek geeft de periode weer vanaf het moment dat Snap een verzoek ontvangt tot het moment waarop Snap ervan overtuigd is dat volledig aan het verzoek is voldaan. Hoe lang het hele proces duurt, is in sommige gevallen gedeeltelijk afhankelijk van de snelheid waarmee wetshandhavers reageren op een informatieverzoek van Snap.

Contentmoderatie


Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden, evenals aan ondersteunende voorwaarden, richtlijnen en uitleg. Proactieve opsporingsmechanismen en meldingen van illegale of schendende content of accounts vragen om een controle. Op dat moment verwerken onze toolingsystemen het verzoek, verzamelen relevante metadata en sturen de relevante content via een gestructureerde gebruikersinterface, die is ontworpen om effectieve en efficiënte controle-activiteiten te faciliteren, naar ons moderatieteam. Wanneer onze moderatieteams ofwel door menselijke of geautomatiseerde controle vaststellen dat een gebruiker onze Voorwaarden heeft geschonden, kunnen we de aanstootgevende content of het account verwijderen, de zichtbaarheid van het bewuste account beëindigen of beperken en/of de wetshandhavende instanties op de hoogte stellen, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep.  Gebruikers van wie accounts door ons veiligheidsteam worden geblokkeerd vanwege schendingen van de Communityrichtlijnen kunnen beroep indienen tegen een geblokkeerd account en gebruikers kunnen beroep indienen tegen bepaalde contentsbeperkingen.

Kennisgevingen over content en accounts (DSA-artikel 15, lid 1, onder b))

Snap heeft mechanismen ingesteld om gebruikers en niet-gebruikers in staat te stellen Snap op de hoogte te stellen van content en accounts die onze Communityrichtlijnen en Servicevoorwaarden op het platform schenden, inclusief die welke ze als illegaal beschouwen op grond van DSA-artikel 16. Deze meldingsmechanismen zijn beschikbaar in de app (d.w.z. rechtstreeks vanuit de content) en op onze website.

Tijdens de genoemde periode hebben we in de EU de volgende kennisgevingen over content en accounts ontvangen:

In H2'23 hebben we uitsluitend met automatisering 664.896 kennisgevingen verwerkt. Al deze kennisgevingen handelden over het in strijd zijn met onze Communityrichtlijnen omdat onze Communityrichtlijnen ook illegale content insluiten. 

Naast content en accounts van gebruikers modereren we ook advertenties als ze ons platformbeleid schenden. Hieronder staat het totaal van de advertenties die in de EU zijn gemeld en verwijderd. 

Kennisgevingen van vertrouwde rapporteurs (artikel 15, lid 1, onder b))

Er waren via de DSA, voor de duur van ons meest recente transparantieverslag (H2 2023), geen formeel aangewezen vertrouwde rapporteurs (Trusted Flaggers). Als gevolg daarvan was het aantal kennisgevingen dat door dergelijke vertrouwde rapporteurs werd ingediend in deze periode nul (0).

Proactieve contentmoderatie (artikel 15, lid 1, onder c))

Na op eigen initiatief content te hebben gemodereerd, heeft Snap tijdens de genoemde periode de volgende content en accounts in de EU verkregen.

Alle inspanningen wat betreft moderatie die Snap op eigen initiatief heeft ondernomen zijn ofwel door mensen of met behulp van automatisering gedaan. Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.


Verzoeken (artikel 15, lid 1, onder d))

Snap heeft in de betreffende periode in de EU de volgende aanklachten over content en accounts via zijn interne klachtenverwerkingssystemen:


* Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen. 

Geautomatiseerde manieren voor contentmoderatie (artikel 15, lid 1, onder d)

Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.


De nauwkeurigheid van geautomatiseerde moderatietechnologieën voor alle schade was ongeveer 96,61% en het foutenpercentage was ongeveer 3,39%.


Veiligheidsmaatregelen voor contentmoderatie (artikel 15, lid 1, onder d)

We erkennen dat er risico's verbonden zijn aan het modereren van content, waaronder risico's voor de vrijheid van meningsuiting en voor bijeenkomsten die het resultaat zijn van de vooringenomenheid van geautomatiseerde en menselijke moderatoren en misbruikmeldingen door overheden, politieke partijen of goed georganiseerde individuen. Snapchat is over het algemeen geen plaats voor politieke of activistische content, vooral in onze openbare ruimtes. 


Om onszelf tegen deze risico's te beschermen, beschikt Snap echter over tests en trainingen en beschikken we over robuuste, consistente procedures voor het afhandelen van meldingen van illegale of schendende content, waaronder die van wetshandhavings- en overheidsinstanties. We zijn voortdurend bezig met het evalueren en ontwikkelen van onze algoritmen voor contentmoderatie. Hoewel mogelijke schade met betrekking tot de vrijheid van meningsuiting moeilijk te detecteren is, zijn we ons niet bewust van belangrijke problemen en bieden we onze gebruikers mogelijkheden om fouten te melden als deze zich voordoen. 


Ons beleid en onze systemen bevorderen consistente en eerlijke handhaving en, zoals hierboven beschreven, bieden we Snapchatters de mogelijkheid om tegen de handhaving op zinvolle wijze in beroep te gaan via kennisgevings- en beroepsprocedures die gericht zijn op het beschermen van de belangen van onze community terwijl de rechten van individuele Snapchatters worden beschermd.

We streven ernaar om ons handhavingsbeleid en onze processen voortdurend te verbeteren en hebben grote vooruitgang geboekt in de strijd tegen mogelijk gevaarlijke en illegale content en activiteiten op Snapchat. Dit komt tot uiting in een stijgende trend in onze meldings- en handhavingscijfers die worden weergegeven in ons recentste transparantieverslag en in dalende prevalentiepercentages voor schendingen op Snapchat in het algemeen.


Buiten gerechtelijke schikkingen (artikel 24, lid 1, onder a))

Voor de duur van ons meest recente transparantieverslag (H2 2023), waren er geen formeel aangewezen organen voor buitengerechtelijke geschillenbeslechting in het kader van de DSA. Als gevolg hiervan was het aantal geschillen dat aan dergelijke instanties werd voorgelegd in deze periode nul (0), en we kunnen geen uitkomsten, mediane doorlooptijden voor schikkingen en het aantal geschillen delen waarbij we de beslissingen van de instantie hebben geïmplementeerd. 



Opschorting van accounts (artikel 24, lid 1, onder a))

Tijdens H2 2023 hebben we geen accountopschorting opgelegd op grond van artikel 23. Het veiligheidsteam van Snap heeft procedures om de mogelijkheid te beperken dat gebruikersaccounts vaak kennisgevingen of klachten indienen die kennelijk ongegrond zijn. Deze procedures omvatten het beperken van dubbele meldingen en het gebruik van e-mailfilters om te voorkomen dat gebruikers die vaak kennelijk ongegronde meldingen hebben ingediend, dit blijven doen. Snap neemt echter passende handhavingsmaatregelen tegen accounts, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening en informatie over het niveau van de accounthandhaving van Snap is te vinden in ons transparantieverslag (H1 2023). Dergelijke maatregelen zullen blijvend worden beoordeeld en herhaald.


Bronnen, expertise en informatiebronnen voor moderators (artikel 42, lid 2)

Ons contentmoderatieteam is wereldwijd actief, waardoor we Snapchatters 24/7 kunnen helpen veilig te houden. Hieronder vindt u de uitsplitsing vanaf 31 december 2023 voor onze menselijke moderatiebronnen per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen):

De bovenstaande tabel bevat alle moderators die de talen van de EU-lidstaten vanaf 31 december 2023 ondersteunen. In situaties waarin we extra taalondersteuning nodig hebben, gebruiken we vertaaldiensten.

Moderators worden aangeworven met behulp van een standaard functiebeschrijving die een taalvereiste bevat (afhankelijk van de behoefte). De taalvereiste stelt dat de kandidaat een vloeiende beheersing in woord en geschrift van de taal moet kunnen aantonen en minstens één jaar werkervaring heeft voor de instapfunctie. Kandidaten moeten voldoen aan de educatieve en achtergrondvereisten om in aanmerking te worden genomen. Kandidaten moeten ook aantonen dat ze de actuele ontwikkelingen begrijpen voor het land of de regio van de contentmoderatie die ze zullen ondersteunen.

Ons moderatieteam past ons beleid en onze handhavingsmaatregelen toe om onze Snapchat-community te helpen beschermen. Er wordt een training gegeven over een periode van meerdere weken, waarin nieuwe teamleden worden opgeleid over het beleid, de tools en de escalatieprocedures van Snap. Na de training moet elke moderator een certificeringsexamen afleggen voordat ze content mogen beoordelen. Ons moderatieteam neemt regelmatig deel aan opfriscursussen die relevant zijn voor hun workflows, vooral wanneer we geconfronteerd worden met beleidsgrens- en contextafhankelijke gevallen. We voeren ook programma's uit voor de verbetering van vaardigheden, certificeringssessies en quizzen uit om ervoor te zorgen dat alle moderators actuele informatie hebben en in overeenstemming zijn met alle bijgewerkte beleidslijnen. Tot slot: als er dringende trends in content opduiken op basis van actuele gebeurtenissen, verspreiden we snel beleidsverduidelijkingen zodat teams kunnen reageren volgens het beleid van Snap.

We bieden ons contentmoderatieteam – de “digitale eerste hulpverleners“ van Snap – aanzienlijke ondersteuning en informatiebronnen, inclusief ondersteuning voor wellness op de werkplek en eenvoudige toegang tot diensten voor mentale gezondheidszorg. 

Seksuele uitbuiting en misbruik van kinderen (CSEA) rapport over mediascanting


Achtergrond

Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.


We gebruiken PhotoDNA robuuste hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en ze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.


Verslag

De onderstaande gegevens zijn gebaseerd op het resultaat van proactief scannen met behulp van PhotoDNA en/of CSAI Match van media die door de camera's van een gebruiker zijn geüpload naar Snapchat.

Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.


Seksuele uitbuiting en misbruik van kinderen (CSEA) rapport over mediascanting


Achtergrond

Het seksueel uitbuiten van een lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend en verboden onder onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.


We gebruiken PhotoDNA robuuste hash-matching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en ze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals vereist door de wet. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.


Verslag

De onderstaande gegevens zijn gebaseerd op het resultaat van proactief scannen met behulp van PhotoDNA en/of CSAI Match van media die door de camera's van een gebruiker zijn geüpload naar Snapchat.

Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.


Het uitroeien van seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit onderwerp en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  Tijdens de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat het volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.  

Veiligheidsmaatregelen voor contentmoderatie

De veiligheidsmaatregelen die worden toegepast voor CSEA Media Scanning worden uiteengezet in het bovenstaande gedeelte 'Veiligheidsmaatregelen voor contentmoderatie' onder ons DSA-rapport.