Europese Unie

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Deze cijfers zijn berekend om aan de huidige DSA-regelgeving te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. We kunnen de manier waarop we dit cijfer berekenen in de loop van de tijd wijzigen, mogelijk als reactie op veranderende richtlijnen van de regelgever en technologie. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.

Wettelijke vertegenwoordiger 

Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger. U kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor AVMSD en DMA, via onze Ondersteuningssite [hier], of op:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.

Regelgevende instanties

Voor de Wet op digitale diensten (DSA) worden we gereguleerd door de Europese Commissie en de Nederlandse Autoriteit Consument & Markt (ACM). 

Voor AVMSD en de DMA worden we gereguleerd door de Nederlandse Mediaautoriteit (CvdM).

DSA-transparantieverslag

Artikelen 15, 24 en 42 van de DSA vereisen Snap om verslagen te publiceren met voorgeschreven informatie over de contentmoderatie van Snap voor de services van Snapchat die worden beschouwd als 'online platforms', d.w.z. Spotlight, For you, openbare profielen, kaarten, Lenzen en Adverteren. Vanaf 25 oktober 2023 moet dit verslag elke 6 maanden worden gepubliceerd.

Snap publiceert twee keer per jaar een transparantieverslag om inzicht te geven in de veiligheidsinspanningen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd. Ons recentste verslag voor H1 2023 (1 januari t/m 30 juni) is hier te vinden. Dat verslag bevat de volgende informatie:

  • Overheidsverzoeken, waaronder verzoeken om informatie en content te verwijderen; 

  • Contentschendingen, waaronder de actie die is genomen met betrekking tot illegale content en de mediane reactietijd; 

  • Beroepen die worden ontvangen en verwerkt via ons interne proces voor klachtafhandeling.

Die secties die relevant zijn voor de informatie zoals vereist door artikel 15, lid 1, onder a), b) en d), van de Wet op digitale diensten. Houd er rekening mee dat deze nog geen volledige dataset bevatten, omdat het laatste verslag betrekking heeft op H1 2023, dat werd gepubliceerd voordat de Wet op digitale diensten van kracht werd. 

We geven hieronder aanvullende informatie over aspecten die niet in ons transparantieverslag voor H1 2023 worden besproken:

Contentmoderatie (artikel 15, lid 1, onder c) en e), artikel 42, lid 2)

Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden, evenals aan ondersteunende voorwaarden, richtlijnen en uitleg. Proactieve opsporingsmechanismen en meldingen van illegale of schendende content of accounts vragen om een controle. Op dat moment verwerken onze toolingsystemen het verzoek, verzamelen relevante metadata en sturen de relevante content via een gestructureerde gebruikersinterface, die is ontworpen om effectieve en efficiënte controle-activiteiten te faciliteren, naar ons moderatieteam. Wanneer onze moderatieteams ofwel door menselijke of geautomatiseerde controle vaststellen dat een gebruiker onze Voorwaarden heeft geschonden, kunnen we de aanstootgevende content of het account verwijderen, de zichtbaarheid van het bewuste account beëindigen of beperken en/of de wetshandhavende instanties op de hoogte stellen, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep.  Gebruikers van wie accounts door ons veiligheidsteam worden geblokkeerd vanwege schendingen van de Communityrichtlijnen kunnen beroep indienen tegen een geblokkeerd account en gebruikers kunnen beroep indienen tegen bepaalde contentsbeperkingen.

Geautomatiseerde tools voor contentmoderatie

Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.

Voor de periode van ons recentste transparantieverslag (H1 2023) was er geen vereiste om formele indicatoren / foutpercentages voor deze geautomatiseerde systemen te verzamelen. We controleren deze systemen echter regelmatig en de beslissingen die aan de hand van de menselijke moderatie worden vastgesteld, worden regelmatig beoordeeld op nauwkeurigheid.


Menselijke moderatie

Ons contentmoderatieteam is wereldwijd actief, waardoor we Snapchatters 24/7 kunnen helpen veilig te houden. Hieronder vindt u de uitsplitsing vanaf augustus 2023 voor onze menselijke moderatiebronnen per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen):

De bovenstaande cijfers wisselen regelmatig want ze zijn onderhevig aan volumetrends of inzendingen per taal/land. In situaties waarin we extra taalondersteuning nodig hebben, gebruiken we vertaaldiensten.

Moderators worden aangeworven met behulp van een standaard functiebeschrijving die een taalvereiste bevat (afhankelijk van de behoefte). De taalvereiste stelt dat de kandidaat een vloeiende beheersing in woord en geschrift van de taal moet kunnen aantonen en minstens één jaar werkervaring heeft voor de instapfunctie. Kandidaten moeten ook voldoen aan de educatieve en achtergrondvereisten om in aanmerking te worden genomen. Kandidaten moeten ook aantonen dat ze de actuele ontwikkelingen begrijpen voor het land of de regio van de contentmoderatie die ze zullen ondersteunen. 

Ons moderatieteam past ons beleid en onze handhavingsmaatregelen toe om onze Snapchat-community te helpen beschermen. Er wordt een training gegeven over een periode van meerdere weken, waarin nieuwe teamleden worden opgeleid over het beleid, de tools en de escalatieprocedures van Snap. Na de training moet elke moderator een certificeringsexamen afleggen voordat ze content mogen beoordelen. Ons moderatieteam neemt regelmatig deel aan opfriscursussen die relevant zijn voor hun workflows, vooral wanneer we geconfronteerd worden met beleidsgrens- en contextafhankelijke gevallen. We voeren ook programma's uit voor de verbetering van vaardigheden, certificeringssessies en quizzen uit om ervoor te zorgen dat alle moderators actuele informatie hebben en in overeenstemming zijn met alle bijgewerkte beleidslijnen. Tot slot: als er dringende trends in content opduiken op basis van actuele gebeurtenissen, verspreiden we snel beleidsverduidelijkingen zodat teams kunnen reageren volgens het beleid van Snap.

We bieden ons contentmoderatieteam – de “digitale eerste hulpverleners“ van Snap – aanzienlijke ondersteuning en informatiebronnen, inclusief ondersteuning voor wellness op de werkplek en eenvoudige toegang tot diensten voor mentale gezondheidszorg. 


Veiligheidsmaatregelen voor contentmoderatie

We erkennen dat er risico's verbonden zijn aan het modereren van content, waaronder risico's voor de vrijheid van meningsuiting en voor bijeenkomsten die het resultaat zijn van de vooringenomenheid van geautomatiseerde en menselijke moderatoren en misbruikmeldingen door overheden, politieke partijen of goed georganiseerde individuen. Snapchat is over het algemeen geen plaats voor politieke of activistische content, vooral in onze openbare ruimtes. 

Om onszelf tegen deze risico's te beschermen, beschikt Snap echter over tests en trainingen en beschikken we over robuuste, consistente procedures voor het afhandelen van meldingen van illegale of schendende content, waaronder die van wetshandhavings- en overheidsinstanties. We zijn voortdurend bezig met het evalueren en ontwikkelen van onze algoritmen voor contentmoderatie. Hoewel mogelijke schade met betrekking tot de vrijheid van meningsuiting moeilijk te detecteren is, zijn we ons niet bewust van belangrijke problemen en bieden we onze gebruikers mogelijkheden om fouten te melden als deze zich voordoen. 

Ons beleid en onze systemen bevorderen consistente en eerlijke handhaving en, zoals hierboven beschreven, bieden we Snapchatters de mogelijkheid om tegen de handhaving op zinvolle wijze in beroep te gaan via kennisgevings- en beroepsprocedures die gericht zijn op het beschermen van de belangen van onze community terwijl de rechten van individuele Snapchatters worden beschermd.

We streven ernaar om ons handhavingsbeleid en onze processen voortdurend te verbeteren en hebben grote vooruitgang geboekt in de strijd tegen mogelijk gevaarlijke en illegale content en activiteiten op Snapchat. Dit komt tot uiting in een stijgende trend in onze meldings- en handhavingscijfers die worden weergegeven in ons recentste transparantieverslag en in dalende prevalentiepercentages voor schendingen op Snapchat in het algemeen. 


Kennisgevingen van vertrouwde rapporteurs (artikel 15, lid 1, onder b))

Voor de periode van ons recentste transparantieverslag (H1 2023) waren er geen formeel aangewezen vertrouwde rapporteurs onder de Wet op digitale diensten (DSA). Als gevolg hiervan was het aantal kennisgevingen dat door dergelijke vertrouwde rapporteurs werd ingediend in deze periode nul (0).


Buitengerechtelijke geschillen (artikel 24, lid 1, onder a))

Voor de periode van ons recentste transparantieverslag (H1 2023) waren er geen formeel aangewezen buitengerechtelijke instanties voor geschillenoplossing volgens de Wet op digitale diensten (DSA) Als gevolg hiervan was het aantal geschillen dat aan dergelijke instanties werd voorgelegd in deze periode nul (0).


Opschorting van accounts overeenkomstig artikel 23 (artikel 24, lid 1, onder b))

Voor de periode van ons recentste transparantieverslag (H1 2023) was er geen vereiste om accounts op te schorten op grond van artikel 23 van de Wet op digitale diensten (DSA) voor het verstrekken van overduidelijke illegale content, ongegronde kennisgevingen of ongegronde klachten. Als gevolg hiervan was het aantal dergelijke opschortingen nul (0). Snap neemt echter passende handhavingsactie tegen accounts, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroepsindiening) en informatie over het niveau van de accounthandhaving van Snap is te vinden in ons transparantieverslag (H1 2023).