European Union
Huling na-update: 7 Pebrero 2024

Welcome sa page namin sa transparency ng European Union (EU), kung saan nagpa-publish kami ng partikular na impormasyon sa EU na kinakailangan ng EU Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD) at Dutch Media Act (DMA).

Average na Buwanang Mga Aktibong Recipient 

Simula noong Agosto 1, 2023, mayroon kaming 102 milyong average na buwanang mga aktibong recipient ("AMAR") ng aming Snapchat app sa EU. Nangangahulugan itong, sa average sa nakalipas na 6 na buwan, 102 milyong nakarehistrong user sa EU ang binuksan ang Snapchat app nang hindi bababa sa isang beses sa partikular na buwan.

Idinedetalye ang figure na ito ng Member State gaya ng sumusunod:

Ang mga bilang na ito ay kinakalkula upang matugunan ang mga kasalukuyang panuntunan ng DSA at dapat lamang umasa para sa mga layunin ng DSA. Maaari naming baguhin kung paano namin kinakalkula ang bilang na ito sa paglipas ng panahon, kabilang ang bilang tugon sa pagbabago ng gabay at teknolohiya ng regulator. Maaari rin itong mag-iba sa mga kalkulasyong ginamit para sa iba pang aktibong numero ng user na inilathala namin para sa iba pang layunin.

Legal na Kinatawan 

Itinalaga ng Snap Group Limited ang Snap B.V. bilang Legal na Kinatawan nito. Pwede kang makipag-ugnayan sa kinatawan sa dsa-enquiries [at] snapchat.com para sa DSA, sa vsp-enquiries [at] snapchat.com para sa AVMSD at DMA, sa pamamagitan ng Site ng Support namin [dito], o sa:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

Kung ikaw ay isang ahensyang nagpapatupad ng batas, mangyaring sundin ang mga hakbang na nakabalangkas dito.

Mga Awtoridad sa Regulasyon

Para sa DSA, kinokontrol tayo ng European Commission, at ng Netherlands Authority for Consumers and Markets (ACM).

Para sa AVMSD at sa DMA, nire-regulate kami ng Dutch Media Authority (CvdM).

Ulat sa Transparency ng DSA

Ang Snap ay kinakailangan ng Artikulo 15, 24 at 42 ng DSA na mag-publish ng mga ulat na naglalaman ng iniresetang impormasyon tungkol sa pag-moderate ng nilalaman ng Snap para sa mga serbisyo ng Snapchat na itinuturing na "mga online na platform," hal., Spotlight, Para sa Iyo, Mga Pampublikong Profile, Mapa, Lens at Advertising. Dapat na mailathala ang ulat na ito bawat 6 na buwan, mula 25 Oktubre 2023.

Naglalathala ang Snap ng mga ulat sa transparency dalawang beses sa isang taon upang magbigay ng insight sa mga pagsusumikap sa kaligtasan ng Snap at ang uri at dami ng content na iniulat sa aming platform. Ang aming pinakabagong ulat para sa H1 2023 (Enero 1 - Hunyo 30) ay matatagpuan dito. Ang ulat na iyon ay naglalaman ng sumusunod na impormasyon:

  • Mga kahilingan ng pamahalaan, na kinabibilangan ng impormasyon at mga kahilingan sa pag-alis ng nilalaman;

  • Mga paglabag sa nilalaman, na kinabibilangan ng pagkilos na isinagawa kaugnay ng iligal na nilalaman at median na oras ng pagtugon;

  • Mga apela, na tinatanggap at pinangangasiwaan sa pamamagitan ng aming proseso sa paghawak ng mga panloob na reklamo.

Ang mga seksyong iyon ay may kaugnayan sa impormasyong kinakailangan ng Artikulo 15.1(a), (b) at (d) ng DSA. Tandaan na hindi pa naglalaman ang mga ito ng buong set ng data dahil ang pinakabagong ulat ay sumasaklaw sa H1 2023, na nauna sa pagpasok ng DSA sa puwersa.

Nagbibigay kami sa ibaba ng ilang karagdagang impormasyon sa mga aspetong hindi sakop ng aming ulat ng transparency para sa H1 2023:

Pag-moderate ng Nilalaman (Artikulo 15.1(c) at (e), Artikulo 42.2)

Ang lahat ng nilalaman sa Snapchat ay dapat sumunod sa aming Mga Alituntunin ng Komunidad at Mga Tuntunin ng Serbisyo, pati na rin ang mga sumusuportang tuntunin, alituntunin at mga paliwanag. Ang mga proactive na mekanismo ng pagtuklas at mga ulat ng ilegal o lumalabag na nilalaman o mga account ay nag-uudyok ng pagsusuri, kung saan, ang aming mga tooling system ay nagpoproseso ng kahilingan, nagtitipon ng may-katuturang metadata, at nagruruta ng may-katuturang nilalaman sa aming koponan sa pag-moderate sa pamamagitan ng isang structured na user interface na idinisenyo upang mapadali epektibo at mahusay na mga operasyon sa pagsusuri. Kapag natukoy ng aming mga moderation team, alinman sa pamamagitan ng pagsusuri ng tao o awtomatikong paraan, na ang isang user ay lumabag sa aming Mga Tuntunin, maaari naming alisin ang nakakasakit na content o account, wakasan o limitahan ang visibility ng nauugnay na account, at/o abisuhan ang pagpapatupad ng batas tulad ng ipinaliwanag sa aming Snapchat Moderation, Enforcement, at Appeals Explainer. Ang mga user na ang mga account ay ni-lock ng aming team sa kaligtasan para sa mga paglabag sa Mga Alituntunin ng Komunidad ay maaaring magsumite ng naka-lock na apela sa account, at ang mga user ay maaaring mag-apela ng ilang partikular na pagpapatupad ng content.

Mga tool sa awtomatikong pag-moderate ng nilalaman

Sa aming mga public content surface, ang content ay karaniwang dumadaan sa auto-moderation at human review bago ito maging karapat-dapat para sa pamamahagi sa malawak na audience. Tungkol sa mga automated na tool, kabilang dito ang:

  • Proactive detection ng ilegal at lumalabag na content gamit ang machine learning;

  • Mga tool sa pagtutugma ng hash (tulad ng PhotoDNA at CSAI Match ng Google);

  • Abusive Language Detection upang tanggihan ang nilalaman batay sa isang natukoy at regular na na-update na listahan ng mga mapang-abusong pangunahing salita, kabilang ang mga emoji.

Para sa panahon ng aming pinakabagong Ulat ng Transparency (H1 2023), walang kinakailangang mag-collate ng mga pormal na indicator / rate ng error para sa mga automated system na ito. Gayunpaman, regular naming sinusubaybayan ang mga system na ito para sa mga isyu at ang aming mga desisyon sa pagmo-moderate ng tao ay regular na tinatasa para sa katumpakan.


Pag-moderate ng tao

Ang aming team sa pagmo-moderate ng nilalaman ay tumatakbo sa buong mundo, na nagbibigay-daan sa aming tumulong na panatilihing ligtas ang mga Snapchatter 24/7. Sa ibaba, makikita mo ang breakdown ng aming human moderation resources ayon sa mga specialty sa wika ng mga moderator (tandaan na ang ilang moderator ay bihasa sa maraming wika) simula Agosto 2023:

Ang mga numero sa itaas ay madalas na nagbabago habang nakikita natin ang mga papasok na dami ng trend o pagsusumite ayon sa wika/bansa. Sa mga sitwasyon kung saan kailangan namin ng karagdagang suporta ng wika, gumagamit kami ng mga serbisyo sa pagsasalin.

Ang mga moderator ay kinukuha gamit ang isang karaniwang deskripsyon ng trabaho na may kasamang pangangailangan sa wika (depende sa pangangailangan). Ang kinakailangan sa wika ay nagsasaad na ang kandidato ay dapat na maipakita ang nakasulat at pasalitang katatasan sa wika at magkaroon ng hindi bababa sa isang taon ng karanasan sa trabaho para sa mga posisyon sa antas ng pagpasok. Ang mga kandidato ay dapat ding matugunan ang mga kinakailangan sa edukasyon at background upang maisaalang-alang. Dapat ding ipakita ng mga kandidato ang pag-unawa sa mga kasalukuyang kaganapan para sa bansa o rehiyon na pagmo-moderate ng content sa kanilang susuportahan. 

Inilalapat ng aming koponan sa pag-moderate ang aming mga patakaran at mga hakbang sa pagpapatupad upang makatulong na protektahan ang aming komunidad ng Snapchat. Isinasagawa ang pagsasanay sa loob ng maraming linggo, kung saan tinuturuan ang mga bagong miyembro ng koponan ang mga patakaran, mga tool, at mga pamamaraan ng escalation ng Snap. Pagkatapos ng pagsasanay, dapat pumasa ang bawat moderator sa isang pagsusulit sa sertipikasyon bago payagang suriin ang content. Ang aming team sa pag-moderate ay palaging nakikilahok sa refresher na pagsasanay na nauugnay sa kanilang mga daloy ng trabaho, lalo na kapag nakatagpo kami ng mga kaso sa hangganan ng patakaran at nakadepende sa konteksto. Nagpapatakbo din kami ng mga programa sa pagpapahusay ng kasanayan, mga sesyon ng sertipikasyon, at mga pagsusulit upang matiyak na ang lahat ng mga moderator ay napapanahon at sumusunod sa lahat ng na-update na patakaran. Panghuli, kapag lumitaw ang mga kagyat na trend ng content batay sa mga kasalukuyang kaganapan, mabilis kaming nagpapakalat ng mga paglilinaw ng patakaran para makatugon ang mga team ayon sa mga patakaran ng Snap.

Ibinibigay namin ang aming team sa pagmo-moderate ng content – ang "mga digital na unang tumugon" ng Snap – na may makabuluhang suporta at mapagkukunan, kabilang ang on-the-job wellness na suporta at madaling pag-access sa mga serbisyo sa kalusugan ng isip. 


Mga pananggalang sa pagmo-moderate ng content

Kinikilala namin na may mga panganib na nauugnay sa pagmo-moderate ng content, kabilang ang mga panganib sa mga kalayaan sa pagpapahayag at pagpupulong na maaaring sanhi ng pagkiling ng automated at human moderator at mga mapang-abusong ulat kabilang ang mga pamahalaan, mga nasasakupan sa pulitika, o mga maayos na mga indibidwal. Sa pangkalahatan, ang Snapchat ay hindi isang lugar para sa content na pampulitika o aktibista, lalo na sa aming mga pampublikong espasyo. 

Gayunpaman, upang maprotektahan laban sa mga panganib na ito, ang Snap ay may pagsubok at pagsasanay sa lugar at may matatag, pare-parehong mga pamamaraan para sa paghawak ng mga ulat ng ilegal o lumalabag na content kabilang ang mula sa tagapagpatupad ng batas at mga awtoridad ng pamahalaan. Patuloy naming sinusuri at binabago ang amin mga algorithm sa pag-moderate ng content. Bagama't mahirap matukoy ang mga potensyal na pinsala sa kalayaan sa pagpapahayag, hindi namin alam ang anumang mahahalagang isyu at nagbibigay kami ng mga paraan para sa aming mga user na mag-ulat ng mga pagkakamali kung mangyari ang mga ito. 

Ang aming mga patakaran at sistema ay nagpo-promote ng pare-pareho at patas na pagpapatupad at, tulad ng inilarawan sa itaas, ay nagbibigay ng pagkakataon sa mga Snapchatters na makabuluhang i-dispute ang mga resulta ng pagpapatupad sa pamamagitan ng mga proseso ng Notice at Appeals na naglalayong pangalagaan ang mga interes ng aming komunidad habang pinoprotektahan ang mga indibidwal na karapatan ng Snapchatter.

Patuloy kaming nagsusumikap na pahusayin ang aming mga patakaran at proseso sa pagpapatupad at gumawa ng malalaking hakbang sa paglaban sa mga potensyal na nakakapinsala at ilegal na content at aktibidad sa Snapchat. Ito ay makikita sa isang tumataas na trend sa aming mga bilang ng pag-uulat at pagpapatupad na ipinapakita sa aming pinakabagong Transparency Report at pagbaba ng mga rate ng prevalence para sa mga paglabag sa Snapchat sa pangkalahatan. 


Mga Notice ng Pinagkakatiwalaang Flaggers (Artikulo 15.1(b))

Para sa panahon ng aming pinakabagong Transparency Report (H1 2023), walang pormal na hinirang na Mga Pinagkakatiwalaang Flagger sa ilalim ng DSA. Bilang resulta, zero (0) ang bilang ng mga notice na isinumite ng naturang Mga Pinagkakatiwalaang Flagger sa panahong ito.


Mga Di-Pagkakasundo sa labas ng hukuman (Artikulo 24.1(a))

Para sa panahon ng aming pinakabagong Transparency Report (H1 2023), walang pormal na hinirang out-of-court dispute settlement bodies sa ilalim ng DSA. Bilang resulta, ang bilang ng mga hindi pagkakaunawaan na isinumite sa naturang mga katawan ay zero (0) sa panahong ito.


Mga Pagsuspinde sa Account Alinsunod sa Artikulo 23 (Artikulo 24.1(b))

Para sa panahon ng aming pinakabagong Transparency Report (H1 2023), walang kinakailangang suspindihin ang mga account alinsunod sa Artikulo 23 ng DSA para sa probisyon ng halatang ilegal na content, walang batayan na mga abiso o walang batayan na mga reklamo. Bilang resulta, zero (0) ang bilang ng mga naturang pagsususpinde. Gayunpaman, nagsasagawa ang Snap ng naaangkop na aksyon sa pagpapatupad laban sa mga account gaya ng ipinaliwanag sa aming Snapchat Moderation, Enforcement, and Appeals Explainer) at makikita ang impormasyon kaugnay ng antas ng pagpapatupad sa account ng Snap sa aming Transparency Report (H1, 2023).