European Union
Hulyo 1, 2023 – Disyembre 31, 2023

Inilabas:

25 Abril, 2024

Updated:

25 Abril, 2024

Welcome sa page namin sa transparency ng European Union (EU), kung saan nagpa-publish kami ng partikular na impormasyon sa EU na kinakailangan ng EU Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD) at Dutch Media Act (DMA). Pakitandaan na ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa en-US locale.

Legal na Kinatawan 

Itinalaga ng Snap Group Limited ang Snap B.V. bilang Legal na Kinatawan nito para sa mga layunin ng DSA. Pwede kang makipag-ugnayan sa kinatawan sa dsa-enquiries [at] snapchat.com para sa DSA, sa vsp-enquiries [at] snapchat.com para sa AVMSD at DMA, sa pamamagitan ng Site ng Support namin [dito], o sa:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Kung ikaw ay isang ahensyang nagpapatupad ng batas, mangyaring sundin ang mga hakbang na nakabalangkas dito.

Mga Awtoridad sa Regulasyon

Para sa DSA, kinokontrol tayo ng European Commission, at ng Netherlands Authority for Consumers and Markets (ACM). Para sa AVMSD at sa DMA, nire-regulate kami ng Dutch Media Authority (CvdM)

Ulat sa Transparency ng DSA

Ang Snap ay kinakailangan ng Artikulo 15, 24 at 42 ng DSA na mag-publish ng mga ulat na naglalaman ng iniresetang impormasyon tungkol sa pag-moderate ng nilalaman ng Snap para sa mga serbisyo ng Snapchat na itinuturing na "mga online na platform," hal., Spotlight, Para sa Iyo, Mga Pampublikong Profile, Mapa, Lens at Advertising. Dapat na mailathala ang ulat na ito bawat 6 na buwan, mula 25 Oktubre 2023.

Naglalathala ang Snap ng mga ulat sa transparency dalawang beses sa isang taon upang magbigay ng insight sa mga pagsusumikap sa kaligtasan ng Snap at ang uri at dami ng content na iniulat sa aming platform. Ang pinakahuling report para sa H2 2023 (Hulyo 1- Disyembre 31) ay matatagpuan dito. Ang metrics na para sa Digital Services Act, ay matatagpuan sa page na ito.

Average na Buwanang Mga Aktibong Recipient
(DSA Articles 24.2 at 42.3)

Simula noong 31 Disyembre 2023, mayroon kaming 90.9 milyong average monthly active recipients ("AMAR") ng aming Snapchat app sa EU. Nangangahulugan itong, sa average sa nakalipas na 6 na buwan, 90.9 milyong nakarehistrong user sa EU ang binuksan ang Snapchat app nang hindi bababa sa isang beses sa partikular na buwan.

Idinedetalye ang figure na ito ng Member State gaya ng sumusunod:

Ang mga bilang na ito ay kinakalkula upang matugunan ang mga kasalukuyang panuntunan ng DSA at dapat lamang umasa para sa mga layunin ng DSA. Binago namin kung paano namin kinakalkula ang figure na ito sa paglipas ng panahon, kasama ang bilang tugon sa pagbabago ng panloob na patakaran, gabay at teknolohiya ng regulator, at ang mga figure ay hindi nilalayong ihambing sa pagitan ng mga yugto. Maaari rin itong mag-iba sa mga kalkulasyong ginamit para sa iba pang aktibong numero ng user na inilathala namin para sa iba pang layunin.


Mga Kahilingan sa Awtoridad ng Mga Estado ng Miyembro
(DSA Article 15.1(a))

Mga Kahilingan sa Pag-takedown 

Sa panahong ito, nakatanggap kami ng 0 kahilingan sa pag-takedown mula sa mga estadong miyembro ng EU alinsunod sa Artikulo 9 ng DSA. 

Mga Kahilingan sa Impormasyom 

Sa panahong ito, tinanggap namin ang mga sumusunod na kahilingan sa impormasyon mula sa mga estadong miyembro ng EU alinsunod sa Artikulo 10 ng DSA:

Ang median na oras ng turnaround para ipaalam sa mga awtoridad ang pagtanggap ng Mga Kahilingan sa Impormasyon ay 0 minuto — nagbibigay kami ng awtomatikong tugong nagkukumpirma ng resibo. Ang median na turnaround time para magbigay bisa sa Kalingan sa Impormasyon ay ~10 na araw. Sinasalamin ng metric na ito ang yugto ng panahon mula noong nakatanggap ang Snap ng IR hanggang sa naniniwala ang Snap na ganap nang naresolba ang request. Sa ilang mga kaso, ang tagal ng prosesong ito ay bahagyang nakasalalay sa bilis ng pagtugon ng tagapagpatupad ng batas sa anumang mga request para sa paglilinaw mula sa Snap na kinakailangan para maproseso ang kanilang request.

Pag-moderate ng Content 


Dapat sumunod ang lahat ng content sa Snapchat sa amingCommunity Guidelines at Terms of Service, pati na rin pagsuporta sa terms, guidelines at mga nagpapaliwanag. Ang mga proactive na mekanismo ng pagtuklas at mga ulat ng ilegal o lumalabag na nilalaman o mga account ay nag-uudyok ng pagsusuri, kung saan, ang aming mga tooling system ay nagpoproseso ng kahilingan, nagtitipon ng may-katuturang metadata, at nagruruta ng may-katuturang nilalaman sa aming koponan sa pag-moderate sa pamamagitan ng isang structured na user interface na idinisenyo upang mapadali epektibo at mahusay na mga operasyon sa pagsusuri. Kapag natukoy ng aming mga moderation team, alinman sa pamamagitan ng pagsusuri ng tao o awtomatikong paraan, na ang isang user ay lumabag sa aming Mga Tuntunin, maaari naming alisin ang nakakasakit na content o account, wakasan o limitahan ang visibility ng nauugnay na account, at/o abisuhan ang pagpapatupad ng batas tulad ng ipinaliwanag sa aming Snapchat Moderation, Enforcement, at Appeals Explainer. Ang mga user na ang mga account ay ni-lock ng aming team sa kaligtasan para sa mga paglabag sa Mga Alituntunin ng Komunidad ay maaaring magsumite ng naka-lock na apela sa account, at ang mga user ay maaaring mag-apela ng ilang partikular na pagpapatupad ng content.

Mga Paunawa sa Content at Account (DSA Article 15.1(b))

Naglagay ang Snap ng mga mekanismo para payagan ang mga user at hindi user na abisuhan ang Snap ng content at mga account na lumalabag sa aming Community Guidelines at Terms of Service sa platform, kabilang ang mga itinuturing nilang ilegal alinsunod sa Article 16 ng DSA.  Ang mga mekanismo ng pag-uulat na ito ay magagamit sa mismong app (ibig sabihin, direkta mula sa piraso ng content) at sa aming website.

Sa panahon ng nauugnay na panahon, natanggap namin ang sumusunod na content at mga abiso ng account sa EU:

Sa H2'23, pinangasiwaan namin ang 664,896 na abiso sa pamamagitan lang ng mga automated paraan. Ipinatupad ang lahat ng ito laban sa Community Guidelines namin dahil nakapaloob ang Community Guidelines namin sa ilegal na nilalaman. 

Bilang karagdagan sa content at mga account na na-generate ng user, mino-moderate namin ang mga advertisement kung lumalabag ang mga ito sa mga patakaran sa platform namin. Nasa ibaba ang kabuuang mga ad na iniulat at inalis sa EU. 

Mga Notice ng Mga Pinagkakatiwalaang Flagger (Article 15.1(b))

Para sa yugto ng aming pinakabagong Transparency Report (H2 2023), walang pormal na hinirang na Mga Pinagkakatiwalaang Flagger sa ilalim ng DSA. Bilang resulta, zero (0) ang bilang ng mga notice na isinumite ng naturang Mga Pinagkakatiwalaang Flagger sa panahong ito.

Maagap na Pag-moderate ng Content (Article 15.1(c))

Sa nauugnay na yugto, ipinatupad ng Snap ang sumusunod na content at mga account sa EU pagkatapos makisali sa pag-moderate ng content sa sarili nitong inisyatiba:

Lahat ng sariling inisyatiba ng Snap sa mga pagsusumikap sa pagmo-moderate ay pinakikinabangan ng mga tao o automation. Sa aming mga surface ng pampublikong content, ang content ay karaniwang dumadaan sa auto-moderation at human review bago ito maging karapat-dapat para sa pamamahagi sa malawak na audience. Tungkol sa mga automated na tool, kabilang dito ang:

  • Proactive detection ng ilegal at lumalabag na content gamit ang machine learning;

  • Mga tool sa pagtutugma ng hash (tulad ng PhotoDNA at CSAI Match ng Google);

  • Pag-detect ng Mapang-abusong Wika para tanggihan ang content batay sa natukoy at regular na na-update na listahan ng mga mapang-abusong pangunahing salita, kabilang ang mga emoji


Mga Apela (Article 15.1(d))

Sa nauugnay na yugto ng panahon, pinoproseso ng Snap ang sumusunod na content at mga apela sa account sa EU sa pamamagitan ng mga panloob na system sa paghawak ng reklamo nito:


* Pangunahing prayoridad ang pagpigil sa sekswal na pananamantala ng bata. Naglalaan ang Snap ng maraming resource para dito at hindi nito kinukunsinti ang ganoong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.

Mga automated na paraan sa pag-moderate ng content (Artikulo 15.1(d))

Sa aming mga surface ng pampublikong content, ang content ay karaniwang dumadaan sa auto-moderation at human review bago ito maging karapat-dapat para sa pamamahagi sa malawak na audience. Tungkol sa mga automated na tool, kabilang dito ang:

  • Proactive detection ng ilegal at lumalabag na content gamit ang machine learning;

  • Mga tool sa pagtutugma ng hash (tulad ng PhotoDNA at CSAI Match ng Google);

  • Abusive Language Detection upang tanggihan ang nilalaman batay sa isang natukoy at regular na na-update na listahan ng mga mapang-abusong pangunahing salita, kabilang ang mga emoji.


Ang katumpakan ng mga automated na teknolohiyang pang-moderate para sa lahat ng pinsala ay humigit-kumulang 96.61% at ang rate ng error ay humigit-kumulang 3.39%.


Mga Proteksyon sa Pag-moderate ng Content (Artikulo 15.1(d))

Kinikilala namin na may mga panganib na nauugnay sa pagmo-moderate ng content, kabilang ang mga panganib sa mga kalayaan sa pagpapahayag at pagpupulong na maaaring sanhi ng pagkiling ng automated at human moderator at mga mapang-abusong ulat kabilang ang mga pamahalaan, mga nasasakupan sa pulitika, o mga maayos na mga indibidwal. Sa pangkalahatan, ang Snapchat ay hindi isang lugar para sa content na pampulitika o aktibista, lalo na sa aming mga pampublikong espasyo. 


Gayunpaman, upang maprotektahan laban sa mga panganib na ito, ang Snap ay may pagsubok at pagsasanay sa lugar at may matatag, pare-parehong mga pamamaraan para sa paghawak ng mga ulat ng ilegal o lumalabag na content kabilang ang mula sa tagapagpatupad ng batas at mga awtoridad ng pamahalaan. Patuloy naming sinusuri at binabago ang amin mga algorithm sa pag-moderate ng content. Bagama't mahirap matukoy ang mga potensyal na pinsala sa kalayaan sa pagpapahayag, hindi namin alam ang anumang mahahalagang isyu at nagbibigay kami ng mga paraan para sa aming mga user na mag-ulat ng mga pagkakamali kung mangyari ang mga ito. 


Ang aming mga patakaran at sistema ay nagpo-promote ng pare-pareho at patas na pagpapatupad at, tulad ng inilarawan sa itaas, ay nagbibigay ng pagkakataon sa mga Snapchatters na makabuluhang i-dispute ang mga resulta ng pagpapatupad sa pamamagitan ng mga proseso ng Notice at Appeals na naglalayong pangalagaan ang mga interes ng aming komunidad habang pinoprotektahan ang mga indibidwal na karapatan ng Snapchatter.

Patuloy kaming nagsusumikap na pahusayin ang aming mga patakaran at proseso sa pagpapatupad at gumawa ng malalaking hakbang sa paglaban sa mga potensyal na nakakapinsala at ilegal na content at aktibidad sa Snapchat. Ito ay makikita sa isang tumataas na trend sa aming mga bilang ng pag-uulat at pagpapatupad na ipinapakita sa aming pinakabagong Transparency Report at pagbaba ng mga rate ng prevalence para sa mga paglabag sa Snapchat sa pangkalahatan. 


Mga Pagsasaayos sa Labas ng Hukuman (Artikulo 24.1(a))

Para sa yugto ng aming pinakabagong Transparency Report (H2 2023), walang pormal na hinirang na mga grupo sa pagsasaayos ng mga out-of-court dispute sa ilalim ng DSA. Dahil dito, ang bilang ng mga dispute na isinumite sa mga naturang grupo ay zero (0) sa yugtong ito, at hindi kami makapaghatid ng mga resulta, mga median na turnaround time para sa mga pagsasaayos, at bahagi ng mga dispute kung saan ipinatupad namin ang mga desisyon ng grupo.



Mga Pagsususpinde sa Account (Artikulo 24.1(a))

Noong H2 2023,  wala kaming anumang ipinataw na suspensyon sa account alinsunod sa Artikulo 23. May ipinapatupad na mga pamamaraan ang Trust & Safety team ng Snap upang limitahan ang posibilidad ng madalas na pagsusumite ng mga user account ng mga abiso o reklamo na halatang walang batayan. Kabilang sa mga pamamaraang ito ang paghihigpit sa duplicative na paggawa ng report at ang paggamit ng mga filter sa email upang mapigilan ang mga user na madalas na nagsusumite ng mga halatang walang batayang report na patuloy itong gawin. Nagsasagawa ang Snap ng naaangkop na aksyon sa pagpapatupad laban sa mga account gaya ng ipinaliwanag sa aming Snapchat Moderation, Enforcement, and Appeals Explainer at makikita ang impormasyon kaugnay ng antas ng pagpapatupad sa account ng Snap sa aming Transparency Report (H2 2023). Patuloy na ire-review at uulitin ang mga naturang hakbang.


Mga Moderator Resource, Expertise at Support (Artikulo 42.2)

Ang aming team sa pagmo-moderate ng nilalaman ay tumatakbo sa buong mundo, na nagbibigay-daan sa aming tumulong na panatilihing ligtas ang mga Snapchatter 24/7. Sa ibaba, makikita mo ang breakdown ng aming human moderation resources ayon sa mga specialty sa wika ng mga moderator (tandaan na ang ilang moderator ay bihasa sa maraming wika) simula 31 Disyembre 2023:

Kasama sa table sa itaas ang lahat ng mga moderator na sumusuporta sa EU member state languages mula Disyembre 31, 2023. Sa mga sitwasyon kung saan kailangan namin ng karagdagang suporta ng wika, gumagamit kami ng mga serbisyo sa pagsasalin.

Ang mga moderator ay kinukuha gamit ang isang karaniwang deskripsyon ng trabaho na may kasamang pangangailangan sa wika (depende sa pangangailangan). Ang kinakailangan sa wika ay nagsasaad na ang kandidato ay dapat na maipakita ang nakasulat at pasalitang katatasan sa wika at magkaroon ng hindi bababa sa isang taon ng karanasan sa trabaho para sa mga posisyon sa antas ng pagpasok. Ang mga kandidato ay dapat ding matugunan ang mga kinakailangan sa edukasyon at background upang maisaalang-alang. Dapat ding ipakita ng mga kandidato ang pag-unawa sa mga kasalukuyang kaganapan para sa bansa o rehiyon ng pagmo-moderate ng content na kanilang susuportahan.

Inilalapat ng aming koponan sa pag-moderate ang aming mga patakaran at mga hakbang sa pagpapatupad upang makatulong na protektahan ang aming komunidad ng Snapchat. Isinasagawa ang pagsasanay sa loob ng maraming linggo, kung saan tinuturuan ang mga bagong miyembro ng koponan ang mga patakaran, mga tool, at mga pamamaraan ng escalation ng Snap. Pagkatapos ng pagsasanay, dapat pumasa ang bawat moderator sa isang pagsusulit sa sertipikasyon bago payagang suriin ang content. Ang aming team sa pag-moderate ay palaging nakikilahok sa refresher na pagsasanay na nauugnay sa kanilang mga daloy ng trabaho, lalo na kapag nakatagpo kami ng mga kaso sa hangganan ng patakaran at nakadepende sa konteksto. Nagpapatakbo din kami ng mga programa sa pagpapahusay ng kasanayan, mga sesyon ng sertipikasyon, at mga pagsusulit upang matiyak na ang lahat ng mga moderator ay napapanahon at sumusunod sa lahat ng na-update na patakaran. Panghuli, kapag lumitaw ang mga kagyat na trend ng content batay sa mga kasalukuyang kaganapan, mabilis kaming nagpapakalat ng mga paglilinaw ng patakaran para makatugon ang mga team ayon sa mga patakaran ng Snap.

Ibinibigay namin ang aming team sa pagmo-moderate ng content – ang "mga digital na unang tumugon" ng Snap – na may makabuluhang suporta at mapagkukunan, kabilang ang on-the-job wellness na suporta at madaling pag-access sa mga serbisyo sa kalusugan ng isip. 

Media Scanning Report ng Child Sexual Exploitation and Abuse (CSEA)


Background

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.


Gumagamit kami ng PhotoDNA robust hash-matching at ng Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na mga larawan at video ng pang-aabuso sa mga bata, ayon sa pagkakabanggit, at inire-report ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.


Report

Ang data sa ibaba ay batay sa resulta ng proactive scanning gamit ang PhotoDNA at/o CSAI Match ng media na in-upload ng camera roll ng user sa Snapchat.

Pangunahing prayoridad ang pagpigil sa sekswal na pananamantala ng bata. Naglalaan ang Snap ng maraming resource para dito at hindi nito kinukunsinti ang ganoong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.  

Mga Proteksyon para sa Pag-Moderate ng Content

Ang mga proteksyon na ginamit para sa CSEA Media Scanning ay nakasaad sa itaas na bahagi na "Mga Proteksyon para sa Pagmo-moderate ng Content" sa ilalim ng aming DSA Report.


Media Scanning Report ng Child Sexual Exploitation and Abuse (CSEA)


Background

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.


Gumagamit kami ng PhotoDNA robust hash-matching at ng Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na mga larawan at video ng pang-aabuso sa mga bata, ayon sa pagkakabanggit, at inire-report ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.


Report

Ang data sa ibaba ay batay sa resulta ng proactive scanning gamit ang PhotoDNA at/o CSAI Match ng media na in-upload ng camera roll ng user sa Snapchat.

Pangunahing prayoridad ang pagpigil sa sekswal na pananamantala ng bata. Naglalaan ang Snap ng maraming resource para dito at hindi nito kinukunsinti ang ganoong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.  

Mga Proteksyon para sa Pag-Moderate ng Content

Ang mga proteksyon na ginamit para sa CSEA Media Scanning ay nakasaad sa itaas na bahagi na "Mga Proteksyon para sa Pagmo-moderate ng Content" sa ilalim ng aming DSA Report.


Pangunahing prayoridad ang pagpigil sa sekswal na pananamantala ng bata. Naglalaan ang Snap ng maraming resource para dito at hindi nito kinukunsinti ang ganoong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.  

Mga Proteksyon para sa Pag-Moderate ng Content

Ang mga proteksyon na ginamit para sa CSEA Media Scanning ay nakasaad sa itaas na bahagi na "Mga Proteksyon para sa Pagmo-moderate ng Content" sa ilalim ng aming DSA Report.