Europese Unie

Welkom op de transparantiepagina van Snap in de Europese Unie. Hier publiceren we specifieke informatie over onze Europese activiteiten, zoals vereist onder de Digital Services Act (DSA), de Verordening Terroristische Online-inhoud (TCO), de Audiovisual Media Services Directive (AVMSD) en de Nederlandse Mediawet.

Juridisch vertegenwoordiger 

Snap Group Limited heeft Snap B.V. aangewezen als haar juridisch vertegenwoordiger. Je kunt contact opnemen met deze vertegenwoordiger via dsa-inquiries [at] snapchat.com voor de DSA, via XX voor de TCO en via vsp-inquiries [at] snapchat.com voor de AVMSD en Nederlandse Mediawet, hier of door te schrijven naar onderstaand adres:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Indien je een verzoek wil doen namens een opsporingsinstantie, volg dan de stappen zoals hier beschreven.

Toezichthouders

De Europese Commissie en de Autoriteit Consument en Markt houden toezicht op de DSA. De Autoriteit Online Terroristisch en Kinderpornografisch Materiaal houdt toezicht op de TCO. Het Commissariaat voor de Media houdt toezicht op de AVMSD en de Nederlandse Mediawet.


DSA-transparantieverslag

Artikelen 15, 24 en 42 van de DSA vereisen Snap om verslagen te publiceren met voorgeschreven informatie over de contentmoderatie van Snap voor de services van Snapchat die worden beschouwd als 'online platforms', d.w.z. Spotlight, For you, openbare profielen, kaarten, Lenzen en Adverteren. Vanaf 25 oktober 2023 moet dit verslag elke 6 maanden worden gepubliceerd.

Snap publiceert twee keer per jaar een transparantieverslag om inzicht te geven in de veiligheidsinspanningen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd. Ons recentste verslag voor H1 2023 (1 januari t/m 30 juni) is hier te vinden. Dat verslag bevat de volgende informatie:

  • Overheidsverzoeken, waaronder verzoeken om informatie en content te verwijderen; 

  • Contentschendingen, waaronder de actie die is genomen met betrekking tot illegale content en de mediane reactietijd; 

  • Beroepen die worden ontvangen en verwerkt via ons interne proces voor klachtafhandeling.

Die secties die relevant zijn voor de informatie zoals vereist door artikel 15, lid 1, onder a), b) en d), van de Wet op digitale diensten. Houd er rekening mee dat deze nog geen volledige dataset bevatten, omdat het laatste verslag betrekking heeft op H1 2023, dat werd gepubliceerd voordat de Wet op digitale diensten van kracht werd. 

We geven hieronder aanvullende informatie over aspecten die niet in ons transparantieverslag voor H1 2023 worden besproken:

Contentmoderatie (artikel 15, lid 1, onder c) en e), artikel 42, lid 2)

Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden, evenals aan ondersteunende voorwaarden, richtlijnen en uitleg. Proactieve opsporingsmechanismen en meldingen van illegale of schendende content of accounts vragen om een controle. Op dat moment verwerken onze toolingsystemen het verzoek, verzamelen relevante metadata en sturen de relevante content via een gestructureerde gebruikersinterface, die is ontworpen om effectieve en efficiënte controle-activiteiten te faciliteren, naar ons moderatieteam. Wanneer onze moderatieteams ofwel door menselijke of geautomatiseerde controle vaststellen dat een gebruiker onze Voorwaarden heeft geschonden, kunnen we de aanstootgevende content of het account verwijderen, de zichtbaarheid van het bewuste account beëindigen of beperken en/of de wetshandhavende instanties op de hoogte stellen, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep.  Gebruikers van wie accounts door ons veiligheidsteam worden geblokkeerd vanwege schendingen van de Communityrichtlijnen kunnen beroep indienen tegen een geblokkeerd account en gebruikers kunnen beroep indienen tegen bepaalde contentsbeperkingen.

Geautomatiseerde tools voor contentmoderatie

Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.

Voor de periode van ons recentste transparantieverslag (H1 2023) was er geen vereiste om formele indicatoren / foutpercentages voor deze geautomatiseerde systemen te verzamelen. We controleren deze systemen echter regelmatig en de beslissingen die aan de hand van de menselijke moderatie worden vastgesteld, worden regelmatig beoordeeld op nauwkeurigheid.


Menselijke moderatie

Ons contentmoderatieteam is wereldwijd actief, waardoor we Snapchatters 24/7 kunnen helpen veilig te houden. Hieronder vindt u de uitsplitsing vanaf augustus 2023 voor onze menselijke moderatiebronnen per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen):

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Deze cijfers zijn berekend om aan de huidige DSA-regelgeving te voldoen en mogen alleen worden gebruikt voor DSA-doeleinden. We kunnen de manier waarop we dit cijfer berekenen in de loop van de tijd wijzigen, mogelijk als reactie op veranderende richtlijnen van de regelgever en technologie. Dit kan ook verschillen van de berekeningen die worden gebruikt voor andere cijfers over actieve gebruikers die we voor andere doeleinden publiceren.

Wettelijke vertegenwoordiger 

Snap Group Limited heeft Snap B.V. aangewezen als wettelijke vertegenwoordiger. U kunt contact opnemen met de vertegenwoordiger via dsa-enquiries [at] snapchat.com voor de DSA, via vsp-enquiries [at] snapchat.com voor AVMSD en DMA, via onze Ondersteuningssite [hier], of op:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, Nederland

Wetshandhavende instanties kunnen de stappen volgen die hier worden beschreven.

Regelgevende instanties

Voor de Wet op digitale diensten (DSA) worden we gereguleerd door de Europese Commissie en de Nederlandse Autoriteit Consument & Markt (ACM). 

Voor AVMSD en de DMA worden we gereguleerd door de Nederlandse Mediaautoriteit (CvdM).

DSA-transparantieverslag

Artikelen 15, 24 en 42 van de DSA vereisen Snap om verslagen te publiceren met voorgeschreven informatie over de contentmoderatie van Snap voor de services van Snapchat die worden beschouwd als 'online platforms', d.w.z. Spotlight, For you, openbare profielen, kaarten, Lenzen en Adverteren. Vanaf 25 oktober 2023 moet dit verslag elke 6 maanden worden gepubliceerd.

Snap publiceert twee keer per jaar een transparantieverslag om inzicht te geven in de veiligheidsinspanningen van Snap en de aard en het volume van de content die op ons platform wordt gerapporteerd. Ons recentste verslag voor H1 2023 (1 januari t/m 30 juni) is hier te vinden. Dat verslag bevat de volgende informatie:

  • Overheidsverzoeken, waaronder verzoeken om informatie en content te verwijderen; 

  • Contentschendingen, waaronder de actie die is genomen met betrekking tot illegale content en de mediane reactietijd; 

  • Beroepen die worden ontvangen en verwerkt via ons interne proces voor klachtafhandeling.

Die secties die relevant zijn voor de informatie zoals vereist door artikel 15, lid 1, onder a), b) en d), van de Wet op digitale diensten. Houd er rekening mee dat deze nog geen volledige dataset bevatten, omdat het laatste verslag betrekking heeft op H1 2023, dat werd gepubliceerd voordat de Wet op digitale diensten van kracht werd. 

We geven hieronder aanvullende informatie over aspecten die niet in ons transparantieverslag voor H1 2023 worden besproken:

Contentmoderatie (artikel 15, lid 1, onder c) en e), artikel 42, lid 2)

Alle content op Snapchat moet voldoen aan onze Communityrichtlijnen en Servicevoorwaarden, evenals aan ondersteunende voorwaarden, richtlijnen en uitleg. Proactieve opsporingsmechanismen en meldingen van illegale of schendende content of accounts vragen om een controle. Op dat moment verwerken onze toolingsystemen het verzoek, verzamelen relevante metadata en sturen de relevante content via een gestructureerde gebruikersinterface, die is ontworpen om effectieve en efficiënte controle-activiteiten te faciliteren, naar ons moderatieteam. Wanneer onze moderatieteams ofwel door menselijke of geautomatiseerde controle vaststellen dat een gebruiker onze Voorwaarden heeft geschonden, kunnen we de aanstootgevende content of het account verwijderen, de zichtbaarheid van het bewuste account beëindigen of beperken en/of de wetshandhavende instanties op de hoogte stellen, zoals uitgelegd in onze Snapchat-verklaring voor moderatie, handhaving en beroep.  Gebruikers van wie accounts door ons veiligheidsteam worden geblokkeerd vanwege schendingen van de Communityrichtlijnen kunnen beroep indienen tegen een geblokkeerd account en gebruikers kunnen beroep indienen tegen bepaalde contentsbeperkingen.

Geautomatiseerde tools voor contentmoderatie

Op onze pagina's met Publieke inhoud wordt de content over het algemeen zowel door automatische moderatie als door mensen beoordeeld, voordat deze toegankelijk kan worden gemaakt tot een breed publiek. Deze geautomatiseerde tools omvatten:

  • Proactieve opsporing van illegale en schendende content met behulp van machine learning;

  • Hashmatching-tools (zoals PhotoDNA en de CSAI Match van Google);

  • Beledigende taal: het weigeren van content op basis van een geïdentificeerde en regelmatig bijgewerkte lijst met beledigende sleutelwoorden, inclusief emoji's.

Voor de periode van ons recentste transparantieverslag (H1 2023) was er geen vereiste om formele indicatoren / foutpercentages voor deze geautomatiseerde systemen te verzamelen. We controleren deze systemen echter regelmatig en de beslissingen die aan de hand van de menselijke moderatie worden vastgesteld, worden regelmatig beoordeeld op nauwkeurigheid.


Menselijke moderatie

Ons contentmoderatieteam is wereldwijd actief, waardoor we Snapchatters 24/7 kunnen helpen veilig te houden. Hieronder vindt u de uitsplitsing vanaf augustus 2023 voor onze menselijke moderatiebronnen per taal van de moderators (sommige moderators zijn gespecialiseerd in meerdere talen):

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst:

Gemiddeld actieve ontvangers per maand 

Op 1 augustus 2023 hebben we gemiddeld 102 miljoen actieve ontvangers (AMAR) van onze Snapchat-app in de EU. Dit betekent dat de Snapchat-app in een maand minstens één keer is geopend door gemiddeld 102 miljoen geregistreerde gebruikers in de EU in de afgelopen 6 maanden

Dit cijfer kan als volgt over de lidstaten worden uitgesplitst: