Transparantieverslag
1 juli 2023 t/m 31 december 2023

Gepubliceerd:

25 april 2024

Bijgewerkt:

25 april 2024

Om meer inzicht te geven in de veiligheidsinspanningen van Snap en in de aard en het volume van de content die op ons platform werd gemeld, publiceren we twee keer per jaar een transparantieverslag. We blijven deze verslagen uitgebreider maken en informatief maken voor de veiligheid en het welzijn van onze community en voor de vele belanghebbenden die veel waarde hechten aan onze contentmoderatie en wetshandhaving. 

Deze Transparantieverslagen bestrijken de tweede helft van 2023 (1 juli - 31 december). Net als in onze vorige verslagen delen we gegevens over het totaal aantal ontvangen meldingen over content in apps en accounts in specifieke categorieën van beleidsschendingen en waartegen we hebben opgetreden; hoe we hebben gereageerd op verzoeken van wetshandhavers en overheden; en het aantal handhavingsacties per land.

Als onderdeel van onze voortdurende inzet om onze transparantieverslagen te verbeteren, introduceren we met deze uitgave een paar nieuwe elementen. 

Ten eerste hebben we onze hoofdtabel uitgebreid met meldingen en handhaving van content en accounts die verband houden met zowel terrorisme en gewelddadig extremisme als seksuele uitbuiting en misbruik van kinderen (CSEA). In vorige verslagen hadden we accountverwijderingen gemarkeerd die waren gemaakt als reactie op die schendingen in afzonderlijke secties. We zullen onze proactieve en reactieve inspanningen tegen CSEA blijven schetsen, evenals onze verslagen aan het NCMEC, in een apart gedeelte. 

Ten tweede hebben we uitgebreide informatie verstrekt over beroepsprocedures, waarbij we het totaal van de beroepsprocedures en herstellingen hebben geschetst volgens de handhaving van de Communityrichtlijnen. 

Tot slot hebben we ons gedeelte over de Europese Unie uitgebreid, waardoor we meer inzicht hebben in de EU-activiteiten van Snap. In het bijzonder publiceren we ons meest recente DSA-transparantieverslag en extra statistieken met betrekking tot ons CSEA-mediascanning.

Lees onze recente blog over veiligheid en impact over dit transparantieverslag voor meer informatie over ons beleid ter bestrijding van online schade en onze plannen om door te gaan met onze verslaglegging. Om extra veiligheids- en privacybronnen op Snapchat te vinden, zie ons tabblad Over transparantieverslagen onderaan de pagina.

Houd er rekening mee dat de recentste versie van dit transparantieverslag in het Engels beschikbaar is.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Analyse van content- en accountschendingen

Onze algemene meldings- en handhavingspercentages zijn vrij vergelijkbaar gebleven met de afgelopen zes maanden. In deze cyclus zagen we een stijging van ongeveer 10% in het totaal van content- en accountrapporten.

Het conflict tussen Israël en Hamas begon in deze periode en als gevolg daarvan zagen we een toename van gewelddadige content. Het totaal van de meldingen met betrekking tot haatzaaien is gestegen met ~61%, terwijl de totale contenthandhaving van haatzaaien is toegenomen met ~97% en de handhaving van unieke accounts is toegenomen met ~124%. Berichten en handhaving van terrorisme en gewelddadig extremisme zijn ook toegenomen, hoewel ze <0,1% van de totale contenthandhaving op ons platform uitmaken. Onze Vertrouwens- en veiligheidsteams blijven waakzaam terwijl wereldwijde conflicten ontstaan om Snapchat veilig te houden. We hebben ons transparantieverslag ook uitgebreid met meer informatie op mondiaal en nationaal niveau over het totaal van de meldingen, content en unieke accounts die worden gehandhaafd wegens schendingen van ons beleid inzake terrorisme en gewelddadig extremisme. 

Overzicht van content- en accountovertredingen

Van 1 juli t/m 31 december 2023 heeft Snap wereldwijd gehandhaafd tegen 5.376.714 stukken content die aan ons zijn gemeld en onze Communityrichtlijnen hebben geschonden.

Tijdens de rapportageperiode zagen we een Violative View Rate (VVR) van 0,01 procent, wat betekent dat van elke 10.000 weergaven van Snap en Verhaal op Snapchat 1 content bevatte die in strijd was met ons beleid. De mediane doorlooptijd om gerapporteerde content te handhaven was ~10 minuten.

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

*Let op: elke inzending aan NCMEC kan meerdere stukken inhoud bevatten. Het totale aantal individuele stukken media die werden ingediend bij NCMEC is gelijk aan het totale aantal gehandhaafde content. We hebben ook ingetrokken inzendingen naar het NCMEC van dit nummer uitgesloten.

Content over zelfverwonding en zelfmoord

We zijn erg bekommerd om de mentale gezondheid en het welzijn van Snapchatters, wat veel invloed heeft gehad, en dat zal ook zo blijven, op onze beslissingen hoe Snapchat opnieuw vorm te geven. Snapchat is een platform dat is ontworpen voor communicatie tussen echte vrienden, en we geloven dat het een unieke rol kan spelen in het ondersteunen van vrienden om elkaar te helpen bij moeilijke momenten.

Wanneer ons Vertrouwen en veiligheidsteam zich bewust wordt van een Snapchatter die in nood is, kunnen ze zelfbeschadigingspreventie en ondersteuning doorsturen en indien nodig noodhulppersoneel op de hoogte stellen. De bronnen die we delen zijn beschikbaar op onze wereldwijde lijst met veiligheidsbronnen, en deze zijn publiekelijk beschikbaar voor alle Snapchatters.

Beroep

In ons vorige verslag hebben we statistieken geïntroduceerd over beroepsprocedures, waarbij we het aantal keren hebben benadrukt dat gebruikers ons hebben gevraagd om onze initiële moderatiebeslissing opnieuw te bekijken tegen hun account. In dit verslag hebben we onze oproepen uitgebreid om het volledige scala van onze beleidscategorieën te rapporteren voor schendingen op accountniveau.

* Het stoppen van de verspreiding van content of activiteiten die verband houden met seksuele uitbuiting van kinderen is een topprioriteit. Snap besteedt aanzienlijke middelen aan dit doel en heeft geen enkele tolerantie voor dergelijk gedrag.  Er is speciale training vereist om CSE-beroepen te bekijken en er is een beperkt team beschikbaar die deze beoordelingen verwerken vanwege de grafische aard van de content.  In de herfst van 2023 heeft Snap beleidswijzigingen geïmplementeerd die de consistentie van sommige CSE-handhavingen hebben beïnvloed. We hebben deze inconsistenties aangepakt door het opnieuw trainen van medewerkers en rigoureuze kwaliteitsverzekeringen.  We verwachten dat Snap's volgende transparantieverslag vooruitgang zal laten zien in verbeterde reactietijden met betrekking tot CSE-beroepen en het verbeteren van de precisie van de aanvankelijke handhavingen.

Regionaal en landoverzicht

In dit onderdeel wordt een overzicht gegeven van het aantal keer dat er is opgetreden op grond van onze Communityrichtlijnen in een aantal geografische gebieden. Onze richtlijnen zijn van toepassing op alle content op Snapchat en op alle Snapchatters, waar dan ook ter wereld.

Informatie voor individuele landen, inclusief alle EU-lidstaten, kan worden gedownload via het bijgevoegde CSV-bestand.

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

Bestrijding van seksuele uitbuiting en misbruik van kinderen

Seksuele uitbuiting van elk lid van onze gemeenschap, in het bijzonder minderjarigen, is illegaal, stuitend, en verboden door onze Communityrichtlijnen. Het voorkomen, detecteren en uitroeien van materiaal met seksuele uitbuiting en misbruik van kinderen (CSEAI) op ons platform is een topprioriteit voor ons. We ontwikkelen voortdurend onze mogelijkheden om deze en andere soorten misdrijven te bestrijden.

We gebruiken actieve technologische opsporingstools, zoals PhotoDNA robuuste hashmatching en Google's Child Sexual Abuse Imagery (CSAI) Match om respectievelijk bekende illegale afbeeldingen en video's van seksueel misbruik van kinderen te identificeren en deze te rapporteren aan het Amerikaanse National Center for Missing and Exploited Children (NCMEC), zoals de wet van ons vereist. Het NCMEC coördineert vervolgens, indien nodig, met de nationale of internationale rechtshandhaving.

In de tweede helft van 2023 hebben we 59% van de totale gemelde seksuele uitbuiting en misbruik van kinderen proactief opgespoord en gemeld. Dit weerspiegelt een totale daling van 39% ten opzichte van de vorige periode als gevolg van verbeteringen in de opties van Snapchatters voor het rapporteren, waardoor onze zichtbaarheid van mogelijke CSEA die op Snapchat wordt verzonden, wordt verhoogd. 

Advertentiemoderatie

Snap doet er alles aan om ervoor te zorgen dat alle advertenties volledig in overeenstemming zijn met ons advertentiebeleid. We geloven in een verantwoorde en respectvolle benadering van adverteren, zodat we al onze gebruikers een veilige en plezierige ervaring kunnen bieden. Hieronder hebben we inzicht gegeven in onze moderatie voor betaalde advertenties op Snapchat. Houd er rekening mee dat advertenties op Snapchat om verschillende redenen kunnen worden verwijderd. Dit staat beschreven in het Advertentiebeleid van Snap en omvat misleidende content, content voor volwassenen, gewelddadige of schokkende content, haatzaaien en de schending van intellectueel eigendom. Daarnaast kan de Advertentiegalerij van Snapchat nu in de navigatiebalk van dit transparantieverslag worden teruggevonden.