Snap Values
Transparantieverslag
1 januari 2024 – 30 juni 2024

Gepubliceerd:

5 december 2024

Bijgewerkt:

5 december 2024

We publiceren dit transparantieverslag twee keer per jaar om inzicht te geven in de veiligheidsmaatregelen van Snap. Wij vinden deze maatregelen belangrijk en streven er voortdurend naar om deze verslagen uitgebreider en informatiever te maken voor de vele belanghebbenden die veel belang hechten aan onze contentmoderatie, wetshandhavingspraktijken en de veiligheid en het welzijn van de Snapchat-community. 

Dit transparantieverslag heeft betrekking op de eerste helft van 2024 (1 januari – 30 juni). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van schendingen van onze Communityrichtlijnen waartegen onze veiligheids- en vertrouwensteams hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en hoe we hebben gereageerd op kennisgevingen van auteursrecht- en handelsmerkschendingen. We geven ook landspecifieke inzichten in de bestanden waarnaar onderaan deze pagina wordt gelinkt.

Als onderdeel van onze inzet om onze transparantieverslagen voortdurend te verbeteren, introduceren we ook nieuwe gegevens die onze proactieve maatregelen benadrukken om meer schendingen van onze Communityrichtlijnen te detecteren en daartegen op te treden. We hebben deze gegevens in dit verslag zowel op wereldwijd als landelijk niveau opgenomen en zullen dat in de toekomst blijven doen. We hebben ook een verkeerde titel in onze eerdere verslagen gecorrigeerd: waar we eerder verwezen naar 'Totaal aantal content bestraft', verwijzen we nu naar 'Totaal aantal handhavingen' omdat de gegevens in de betreffende kolommen zowel handhaving van content en accounts bevat.

Lees voor meer informatie over ons beleid ter bestrijding van mogelijk online gevaar en plannen om onze rapportagepraktijken verder te ontwikkelen, ons recente Blog over veiligheid en impact over dit transparantieverslag. Om extra veiligheids- en privacybronnen op Snapchat te vinden, zie ons tabblad Over transparantieverslagen onderaan de pagina.

Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams

Onze veiligheids- en vertrouwensteams handhaven onze Communityrichtlijnen zowel proactief (door geautomatiseerde tools) als reactief (naar aanleiding van meldingen), zoals verder wordt beschreven in de volgende onderdelen van dit verslag. In deze rapportagecycles (H1 2024) namen onze veiligheids- en vertrouwensteams de volgende handhavingsmaatregelen: 

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Analyse van content- en accountschendingen

Onze algemene meldings- en handhavingspercentages zijn vrij vergelijkbaar gebleven met de afgelopen zes maanden. In deze cyclus zagen we een stijging van ongeveer 10% in het totaal van content- en accountrapporten.

Het conflict tussen Israël en Hamas begon in deze periode en als gevolg daarvan zagen we een toename van gewelddadige content. Het totaal van de meldingen met betrekking tot haatzaaien is gestegen met ~61%, terwijl de totale contenthandhaving van haatzaaien is toegenomen met ~97% en de handhaving van unieke accounts is toegenomen met ~124%. Berichten en handhaving van terrorisme en gewelddadig extremisme zijn ook toegenomen, hoewel ze <0,1% van de totale contenthandhaving op ons platform uitmaken. Onze Vertrouwens- en veiligheidsteams blijven waakzaam terwijl wereldwijde conflicten ontstaan om Snapchat veilig te houden. We hebben ons transparantieverslag ook uitgebreid met meer informatie op mondiaal en nationaal niveau over het totaal van de meldingen, content en unieke accounts die worden gehandhaafd wegens schendingen van ons beleid inzake terrorisme en gewelddadig extremisme. 

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

*Let op: elke inzending aan NCMEC kan meerdere stukken inhoud bevatten. Het totale aantal individuele stukken media die werden ingediend bij NCMEC is gelijk aan het totale aantal gehandhaafde content. We hebben ook ingetrokken inzendingen naar het NCMEC van dit nummer uitgesloten.

Content over zelfverwonding en zelfmoord

We zijn erg bekommerd om de mentale gezondheid en het welzijn van Snapchatters, wat veel invloed heeft gehad, en dat zal ook zo blijven, op onze beslissingen hoe Snapchat opnieuw vorm te geven. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten.

Wanneer ons Vertrouwen en veiligheidsteam zich bewust wordt van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig noodhulppersoneel op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.

Beroep

In ons vorige verslag hebben we statistieken geïntroduceerd over beroepsprocedures, waarbij we het aantal keren hebben benadrukt dat gebruikers ons hebben gevraagd om onze initiële moderatiebeslissing opnieuw te bekijken tegen hun account. In dit verslag hebben we onze oproepen uitgebreid om het volledige scala van onze beleidscategorieën te rapporteren voor schendingen op accountniveau.

* Het stoppen van de verspreiding van content of activiteiten die verband houden met seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit doel en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  In de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat Snap's volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.

Regionaal en landoverzicht

Dit onderdeel is een overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams, zowel proactief als naar aanleiding van meldingen van schendingen in de app, in een aantal geografische regio's. Onze Communityrichtlijnen zijn van toepassing op alle inhoud op Snapchat en op alle Snapchatters, waar dan ook ter wereld.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.

Overzicht van de handhaving van onze Communityrichtlijnen door onze veiligheids- en vertrouwensteams 

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Hieronder hebben we inzicht gegeven in onze moderatie voor betaalde advertenties op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.