Oktubre 25, 2024
Ika-17 ng Disyembre, 2024
Maligayang pagdating sa aming pahina ng European Union (EU) transparency, kung saan nagpa-publish kami ng EU specific na impormasyon na kinakailangan ng Digital Services Act (DSA), Audiovisual Media Service Directive (AVMSD), Dutch Media Act (DMA), at ng Terrorist Content Online Regulation (TCO). Pakitandaan na ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa en-US locale.
Itinalaga ng Snap Group Limited ang Snap B.V. bilang Legal Representative nito para sa mga layunin ng DSA. Pwede kang makipag-ugnayan sa kinatawan sa dsa-enquiries [at] snapchat.com para sa DSA, sa vsp-enquiries [at] snapchat.com para sa AVMSD at DMA, sa tco-enquiries [at] snapchat.com para sa TCO, sa pamamagitan ng Site ng Support namin [dito], o sa:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
Kung ikaw ay isang ahensyang nagpapatupad ng batas, mangyaring sundin ang mga hakbang na nakabalangkas dito.
Mangyaring makipag-usap sa Ingles o Dutch kapag nakikipag-ugnayan sa amin.
Para sa DSA, regulated kami ng European Commission, at ng Netherlands Authority for Consumers and Markets (ACM). Para sa AVMSD at sa DMA, nire-regulate kami ng Dutch Media Authority (CvdM). Para sa TCO, kami ay kinokontrol ng Netherlands Authority para sa pag-iwas sa Online Terrorist Content at Child Sexual Abuse Material (ATKM).
Huling Na-update: Oktubre 25, 2024
Ipina-publish namin ang ulat na ito tungkol sa aming mga effort sa pagkontrol sa content sa Snapchat alinsunod sa mga kinakailangan sa pag-uulat sa transparency na nakasaad sa Article 15, 24 at 42 ng European Union (EU)'s Digital Services Act (Regulation (EU) 2022/2065) ("DSA"). Maliban kung may ibang nakasaad, ang nakapaloob na impormasyon sa ulat na ito ay para sa reporting period mula Enero 1, 2024 hanggang Hunyo 30, 2024 (H1 2024) at sumasaklaw sa pagkontrol sa content sa mga feature ng Snapchat na sakop ng DSA.
Patuloy kaming nagsisikap na pagbutihin ang aming pag-uulat. Para sa ngayong reporting period (H1 2024), may mga binago kami sa istruktura ng aming ulat kasama ang mga bago at mas detalyadong table para magbigay ng mas malinaw na kaalaman tungkol sa aming mga effort sa pagkontrol sa content.
Simula noong Oktubre 1, 2024, mayroon kaming 92.9 milyong average na buwanang aktibong recipient ("AMAR") sa aming Snapchat app sa EU. Nangangahulugan ito na, sa average sa nakalipas na 6 na buwan hanggang Setyembre 30, 2024, 92.9 milyong nakarehistrong user sa EU ang nagbukas ng Snapchat app nang hindi bababa sa isang beses sa partikular na buwan.
Idinetalye ang figure na ito by Member State gaya ng sumusunod:
Ang mga bilang na ito ay kinakalkula para matugunan ang mga kasalukuyang kinakailangan ng DSA at dapat lamang gamitin para sa mga layunin ng DSA. Binago namin kung paano namin kinakalkula ang figure na ito sa paglipas ng panahon, kasama ang bilang tugon sa pagbabago ng panloob na patakaran, gabay ng regulator at teknolohiya, at ang mga figure ay hindi nilalayong ihambing sa pagitan ng mga yugto. Maaari rin itong mag-iba sa mga kalkulasyong ginamit para sa iba pang aktibong numero ng user na inilathala namin para sa iba pang layunin.
Sa reporting period (H1 2024), nakatanggap kami ng zero (0) na order para umaksyon laban sa partikular na tinukoy na ilegal na content mula sa mga awtoridad ng mga EU Member State, kabilang ang mga inisyu ayon sa DSA Article 9.
Dahil zero (0) ang bilang, hindi kami makapagbibigay ng breakdown ayon sa uri ng ilegal na content o Member State na nagbigay ng order, o ng median time para kilalanin ang pagtanggap o ipatupad ang mga order.
Sa reporting period (H1 2024), nakatanggap kami ng sumusunod na order para magbunyag ng user data mula sa mga awtoridad ng EU Member State, kabilang ang mga inisyu ayon sa DSA Article 10:
Ang median time para ipaalam sa naaugnay na awtoridad tungkol sa pagkatanggap ng mga kautusang ito para magbigay ng impormasyon ay 0 minuto — nagbibigay kami ng awtomatikong tugon na kinukumpirma ang pagtanggap.
Ang median time para ipatupad ang mga order na ito para magbigay ng impormasyon ay ~7 araw. Ipinapakita sa metric na ito ang panahon mula kung kailan natanggap ng Snap ang order hanggang sa kung kailan sa palagay ni Snap ganap nang naresolba ang isyu. Sa mga indibidwal na kaso, maaaring depende ito sa bilis ng sagot nga awtoridad mula sa Member State sa anumang request para sa paglilinaw mula sa Snap na kailangan para iproseso ang order.
Tandaan, hindi kami nagbibigay ng breakdown ng mga nabanggit na order para magbigay ng impormasyon ayon sa klase ng tinukoy na ilegal na content dahil ang impormasyon na ito ay karaniwang hindi available sa amin.
Dapat sumunod ang lahat ng content saanman sa Snapchat sa aming Community Guidelines at Terms of Service. May ilang partikular na content na kailangang sumunod sa dagdag na guidelines at patakaran. Halimbawa, ang isinumiteng content para sa algorithmic recommendation sa mas malawak na audience sa aming mga pampublikong surface sa pag-broadcast ay kailangang tumugon sa dagdag at mas matataas na standard na nakasaad sa aming Guidelines sa Content para sa Pagiging Kuwalipikadohabang ang mga advertisement ay kailangang tumugon sa aming Policies sa Advertising.
Ipinapatupad namin ang mga policy na ito gamit ang teknolohiya at review ng tao. Nagbibigay din kami ng mga paraan sa mga Snapchatter para i-report ang mga paglabag, kabilang ang mga ilegal na content at aktibidad, direkta man sa app o sa pamamagitan ng aming website. Nagpapasimula ng review ang mga paraan sa protective detection at report na gumagamit ng mga kombinasyon ng automated tool at taong moderator para gumawa ng mga tamang aksyon na naayon sa aming mga policy.
Nagbibigay kami ng karagdagang impormasyon tungkol sa aming pagkontrol sa content sa aming mga pampublikong surface noong H1 2024 sa ibaba.
Ayon sa DSA Article 16, naglagay ang Snap ng mga paraan na nagpapahintulot sa mga user at non-user na i-report sa Snap ang mga partikular na impormasyon sa Snapchat na itinuturing nilang ilegal na content. Magagawa nila ito sa pamamagitan ng pagre-report ng mga partikular na content o account direkta man sa Snapchat app o sa aming website.
Sa reporting period (H1 2024), nakatanggap kami ng sumusunod na abiso na isinumite ayon sa DSA Article 16 sa EU:
Sa ibaba, nagbigay kami ng breakdown na nagpapakita kung paano napo-proseso ang mga abisong ito – hal. sa pamamagitan ng proseso na may kasamang review ng tao o kung gumamit lamang ng mga automated na paraan:
Sa pagsusumite ng mga abiso sa app o sa pamamagitan ng aming website, puwede pumili ang mga nagre-report na partikular na dahilan sa pag-uulat mula sa menu ng mga opsyon na nagpapakita ng mga kategorya ng paglabag na nakalista sa aming Community Guidelines (hal., mapoot na pananalita, paggamit o pagbebenta ng droga). Ipinagbabawal ng aming Community Guidelines ang content at mga aktibidad na ilegal sa EU, kaya malawakang ipinapakita ang mga partikular na kategorya ng ilegal na content sa EU. Gayunpaman, hanggang sa saklaw na pinaniniwalaan ng reporter sa EU na ilegal ang kaniyang inire-report na content o account para sa mga dahil sa mga dahilang hindi partikular na tinukoy sa aming menu sa pagre-report, magagawa nilang i-report ito para sa "iba pang ilegal na content" at binibigyan ng pagkakataong ipaliwanag kung bakit naniniwala sila na ilegal ang kanilang nire-report.
Kung, sa pag-review, natukoy namin na lumabag ang ni-report na content o account sa aming Community Guidelines (kasama ang mga dahilan kung bakit ito ilegal), posible naming (i) alisin ang mapanakit na content, (ii) bigyan ng babala ang kaugnay na may-ari ng account at magbigay ng strike sa account, at/o (iii) i-lock ang kaugnay na account. gaya ng ipinaliwanag sa aming Paliwanag sa Pag-moderate, Pag-enforce, at Mga Apela sa Snapchat.
Noong H1 2024, isinagawa namin ang mga sumusunod na aksyon sa pagpapatupad pagkatapos matanggap ang mga abisong isinumite alinsunod sa DSA Article 16 sa EU:
Noong H1 2024, ipinatupad din sa wakas ang lahat ng report para sa "iba pang ilegal na content" na inaksyunan namin sa ilalim ng aming Community Guidelines dahil ipinagbabawal ng aming Community Guidelines ang nauugnay na content o aktibidad. Kaya ikinakategorya namin ang mga pagpapatupad na ito sa ilalim ng kaukulang kategorya ng paglabag ng Community Guideline sa table sa itaas.
Bilang karagdagan sa mga pagpapatupad sa itaas, maaari din kaming gumawa ng aksyon sa content na ipinabatid sa amin alinsunod sa iba pang nailalapat na mga policy at guideline ng Snap:
Kaugnay ng content sa aming mga surface ng pampublikong broadcast, kapag natukoy namin na ang iniulat na content ay hindi tumutugon sa mataas na standard ng aming Content Guidelines para sa Recommendation Eligibility, maaari naming tanggihan ang content para sa algorithmic na rekomendasyon (kung hindi nakakatugon sa aming elegibility criteria ang content), o maaari naming limitahan ang pagbabahagi ng content para hindi maipakita sa mga sensitibong audience (kung tumutugon ang content sa aming eligibility criteria para irekomenda pero sensitibo o may pinapahiwatig).
Sa H1 2024, isinagawa namin ang mga sumusunod na aksyon kaugnay sa content sa pampublikong broadcast surface ng Snapchat na iniulat sa amin sa EU, alinsunod sa aming Content Guidelines para sa Rekomendasyon sa pagiging Kuwalipikado:
Kapag natukoy naming lumabag sa aming Policies sa Advertising ang isang ni-report na advertisement, posible naming alisin ito pagkatapos i-review.
Noong H1 2024, isinagawa namin ang mga sumusunod na aksyon kaugnay ng mga advertisement na ni-report sa amin sa EU:
Bilang dagdag sa pag-review ng mga abiso na isinumite alinsunod sa DSA Article 16, nagmo-moderate ang Snap sa sarili nitong inisyatiba, ng content sa mga papublikong surface ng Snapchat (hal., Spotlight, Discover). Sa ibaba, nagbigay kami ng impormasyon tungkol sa pag-moderate ng content sa inisyatiba ng Snapchat kabilang ang paggamit ng mga automated tool, mga hakbang na ginawa para magbigay ng training at suporta sa mga taong may pananagutan sa pag-moderate ng content at ang bilang at uri ng mga paglilimita na ipinataw bilang resulta mga proactive effort na pag-moderate ng content na iyon.
Paggamit ng mga automated tool sa sariling inisyatiba ng Snap na pag-moderate
Nag-deploy kami ng mga automated tool para proactive na ma-detect at sa ilang kaso, ipatupad ang mga paglabag sa aming mga term at policy sa aming mga pampublikong surface ng content. Kasama rito ang mga hash-matching tool (kabilang ang PhotoDNA at Google CSAI Match), mga Abusive Language Detection model (na tumutukoy at tanggihan ang content batay sa natukoy at regular na ina-update na listahan ng mga abusive keyword at emoji, at artificial intelligence / machine learning technology. Idinisenyo ang aming mga automated tool para matukoy ang mga paglabag ng aming Community Guidelines (na, kabilang ang iba pang bagay, ay ipinagbabawal ang ilegal na content) at kung naaangkop, ang aming Content Guidelines para sa Rekomendasyon sa pagiging Kuwalipikado at Policies sa Advertising.
Sa H1 2024, ginawa lahat ng aming proactive detection gamit ang mga automated tool. Kapag natukoy ng aming mga automated tool ang isang potensyal na paglabag ng aming mga policy, maaaring kusang nilang ginagawa ang aksyon alinsunod sa aming mga policy o gagawa sila ng task para ma-review ng tao. Nakalarawan sa ibaba ang bilang at uri ng mga paglilimitang ipinataw bilang resulta ng prosesong ito.
Bilang at uri ng mga paglilimita na ipinataw sa sariling inisyatiba ng Snap
Sa H1 2024, isinagawa ng Snap ang sumusunod na aksyon sa pagpapatupad pagkatapos ng proactive na pagtukoy sa pamamagitan ng paggamit ng mga automated tool, mga paglabag ng aming Community Guidelines (kabilang ang mga maaaring paglabag sa ilegal na content at mga gawain ayon sa mga batas ng EU at Member State):
Bilang dagdag, sa H1 2024, kaugnay ng aming content sa aming mga surface ng pampublikong broadcast, isinagawa namin ang sumusunod na aksyon matapos ng proactive detection sa Snapchat gamit gamit ang mga automated tool, mga paglabag ng aming Content Guidelines para sa Rekomendasyon sa Pagiging Kuwalipikado:
* Gaya ng inihayag sa aming Guidelines sa Content para sa Pagiging Kuwalipikado sa Rekomendasyon, posibleng pansamantala o permanenteng hindi na maging kuwalipikado para sa mga rekomendasyon sa aming mga pampublikong broadcast surface ang mga account na paulit-ulit at malalang lumalabag sa aming Guidelines sa Content para sa Pagiging Kuwalipikado sa Rekomendasyon. Ilalapat namin ang aksyong ito sa konteksto ng aming mga proactive na pagsisikap sa pag-moderate.
Dagdag pa, noong H1 2024, isinagawa namin ang mga sumusunod na aksyon pagkatapos proactive na matukoy sa Snapchat sa pamamagitan ng mga automated tool, ang mga paglabag sa aming Policies sa Advertising:
Mga isinagawang hakbang para magbigay ng pagsasanay at tulong sa mga taong nangangasiwa ng pagkontrol ng content
Inilalapat ng aming mga content moderation team ang aming mga patakaran sa pagkontrol ng content para tulungang protektahan ang ating komunidad sa Snapchat. Sinanay sila sa loob ng maraming linggo, kung saan tinuturuan ang mga bagong miyembro ng team tungkol sa mga patakaran, tool, at proseso ng escalation ng Snap. Regular na lumalahok ang mga mga moderation team sa refresher training na nauugnay sa kanilang mga workflow, partikular na kapag nakakaranas kami ng mga kaso na nasa hangganan ng patakaran at nakadepende sa konteksto. Nagpapatakbo din kami ng mga programa sa pagpapahusay ng kasanayan, mga sesyon ng sertipikasyon, at mga pagsusulit upang matiyak na ang lahat ng mga moderator ay napapanahon at sumusunod sa lahat ng na-update na patakaran. Panghuli, kapag lumitaw ang mga urgent na trend ng content batay sa mga kasalukuyang kaganapan, mabilis kaming nagpapakalat ng mga paglilinaw ng patakaran para makatugon ang mga team ayon sa mga patakaran ng Snap.
Binibigyan namin ang aming mga content moderation team ng maraming suporta at resources, kasama na ang suporta sa on-the-job wellness at madaling access sa mga serbisyo kaugnay ng mental health.
Puwedeng magsumite ang mga user na na-lock ang mga account dulot ng aming mga safety team dahil sa mga paglabag sa Community Guidelines (kasama ang mga ilegal na content at aktibidad) ng apela para sa naka-lock na account. Puwede ring iapela ng mga user ang ilang partikular na desisyon sa pagkontrol ng content.
Noong panahon ng pagre-report (H1 2024), prinoseso ng Snap ang mga sumusunod na apela (kasama ang mga apela laban sa mga pag-lock ng account at mga desisyon sa pagkontrol ng content) na isinumite gamit ang mga system nito sa internal na pangangasiwa ng reklamo sa EU:
Mga Qualitative na paglalarawan at mga layunin
Katulad ng ipinaliwanang sa itaas sa Section 3(b), nagde-deploy kami ng mga naka-automate na tool para proactive na matukoy at sa ilang sitwasyon, ipinapatupad ang mga paglabag ng aming mga term at policy sa aming mga pampublikong surface ng content. Kasama rito ang mga hash-matching tool (kabilang ang PhotoDNA at Google CSAI Match), mga Abuse Language Detection model (na tumutukoy at tanggihan ang content batay sa natukoy at regular na ina-update na listahan ng mga abusive keyword at emoji), at artificial intelligence / machine learning technology. Idinisenyo ang aming mga automated tool para matukoy ang mga paglabag ng aming Community Guidelines (na, kabilang ang iba pang bagay, ay ipinagbabawal ang ilegal na content) at kung naaangkop, ang aming Content Guidelines para sa Rekomendasyon sa pagiging Kuwalipikado at Policies sa Advertising.
Kapag natukoy ng aming mga automated tool ang isang potensyal na paglabag ng aming mga policy, maaaring kusang nilang ginagawa ang aksyon alinsunod sa aming mga policy o gagawa sila ng task para ma-review ng tao.
Mga palatandaan ng accuracy at posibleng rate of error, na pinaghihiwa-hiwalay ayon sa Member State
Binabantayan namin ang accuracy ng aming mga naka-automate na moderation tool sa pamamagitan ng random na pagpili ng mga sample ng mga gawain na pinoproseso ng aming mga naka-automate na tool sa aming mga pampublikong surface isinusumite para sa review ng aming mga taong moderation team. Ang accuracy rate ay ang porsyento ng mga gawain mula sa mga random sample na tinanggap ng aming mga taong moderator na tama matapos ang muling pag-review. Ang error rate ay ang pagkakaiba ng 100% at ng accuracy rate na kinakalkula tulad ng inilarawan sa itaas.
Batay sa sampling, sa H1 2024, ang mga palatandaan ng accuracy at posibleng rate ng error ng mga naka-automate na paraan na ginamit sa lahat ng category ng mga paglabag ay tinatayang nasa 93% at ang rate ng error ay tinatayang nasa 7%.
Karaniwan, hindi namin tinatrack ang wika ng content na mino-moderate sa Snapchat kaya hindi kami makapagbigay ng breakdown ng accuracy at rate ng error para sa aming mga naka-automate na moderation tool para sa bawat opisyal na wika mula sa mga Member State. Bilang pamalit, nagbibigay kami ng breakdown ng aming mga accuracy at rate ng error para sa naka-automate na namoderate na content na nagmumula sa bawat Member State.
Mga Safeguard
Maingat kami sa potensyal na epekto ng mga naka-automate na moderation tool sa mga batayang karapatan at nagde-deploy kami ng mga safeguard para mabawasan ang epekto nito.
Sinubukan muna ang aming mga naka-automate na content moderation tool bago ito i-deploy sa Snapchat. Sinusubukan ang mga model nang offline para sa performance at idine-deploy sa pamamagitan ng A/B testing para matiyak ang tamang paggana nito bago ito tuluyang isalang sa production. Nagsasagawa kami ng mga pre-launch na Quality Assurance (QA) review, mga launch review at patuloy na mga precision check ng QA habang isinasagawa ang partial o ganap na pag-rollout.
Pagkatapos na i-launch ang aming mga automated tool, patuloy naming sinusuri ang kanilang performance at accuracy at gumagawa kami ng mga adjustment kung kailangan. Kasama sa prosesong ito ang muling pag-review ng mga sample ng naka-automate na task ng aming mga taong moderator para matukoy ang mga model na nangangailangan ng mga adjustment para pagbutihin ang accuracy. Binabantayan din namin ang pagkalat ng mga partikular na panganib sa Snapchat sa pamamagitan. ng pang-araw-araw na random sampling ng Public Stories, at ginagamit ang impormasyon na ito para tukuyin ang mga area na kailangan pang pagbutihin.
Nagpo-promote ng pare-pareho at patas na pagpapatupad ang aming mga patakaran at sistema kasama na ang aming mga naka-automate na tool at nagbibigay ng pagkakataon sa mga Snapchatter na makabuluhang i-dispute ang mga resulta ng pagpapatupad sa pamamagitan ng mga proseso ng Notice at Appeals na naglalayong pangalagaan ang mga interes ng aming komunidad habang pinoprotektahan ang mga indibidwal na karapatan ng Snapchatter.
Patuoy kaming nagsisikap na pagbutihin ang aming mga naka-automate na content moderation tool para pagbutihin ang kanilang accuracy at suportahan ang tuloy-tuloy at patas na pagpapatupad ng aming mga policy.
Para sa reporting period (H1 2024) ang bilang ng mga dispute na isinumite para sa mga pormal na certified out-of-court settlement body alinsunod sa DSA Article 21 ay zero (0), at hindi kami makapagbigay ng breakdown na nagpapakita ng resulta, mga median time sa pagkumpleto, o ang bahagi ng dispute kung saan pinatupad ng Snap ang mga desisyon ng out-of-court dispute settlement body.
Tandaan na, sa H1 2024, nakatanggap kami ng dalawang (2) abiso ng dispute na isinumite sa body na humihingi ng certification biang out-of-court dispute settement body ayon sa DSA Article 21. Hindi namin isinama ang mga dispute na ito sa bilang sa itaas dahil ang body na nagpadala ng mga abiso ng dispute na ito ay hindi na-verify ang kanilang certification status nang aming hilingin.
Mga suspension alinsunod sa Article 23.1: pagsuspinde ng mga account na madalas na mag-post ng mga lantarang ilegal na content
Tulad ng ipinaliwanang sa aming Paliwanag ng Snapchat tungkol sa Pag-moderate, Pagpapatupad, at mga Apela, ang mga account na itinuturing namin na pangunahing ginagamit para labagin ang aming Community Guidelines (kabilang na ang pagbibigay ng lantarang ilegal na content) at mga account na nagdudulot ng matinding pinsala ay agad na dini-disable. Para sa iba pang paglabag sa aming Community Guidelines, karaniwang naglalapat ang Snap ng tatlong bahaging proseso ng pagpapatupad:
Unang hakbang: tinanggal ang lumalabag na content.
Ikalawang hakbang: nakakatanggap ang Snapchatter ng notification, na nagsasaad na nilabag nila ang aming Community Guidelines, na tinanggal ang kanilang content, at magreresulta ang paulit-ulit na mga paglabag sa mga karagdagang pagkilos sa pagpapatupad, kabilang ang kanilang account na naka-disable.
Ikatlong hakbang: nagre-record ang aming team ng strike laban sa account ng Snapchatter.
Matatagpuan sa itaas sa mga Section 3(a) at 3(b) ang impormasyon tungkol sa bilang ng mga strike (hal. mga warig) at pag-lock na ipinataw sa H1 2024 sa mga account sa EU na may kaugnayan sa content o mga gawain sa mga pampublikong surface ng Snapchat.
Mga pagsuspinde alinsunod sa Article 23.2: pagsusinde sa pagproseso ng mga abiso at mga reklamo mula sa mga indibidwal, mga entity at mga nagrereklamo na madalas magsumite ng mga abiso o mga reklamo na malinaw na walang basehan
Ayon sa aming internal na pakahulugan ng "malinaw na walang basehan" na mga abiso at reklamo, at ng aming mga internal na threshold sa mga itinuturing na madlas na pagsumite ng mga ganitong abiso at reklamo. Gaya ng sumusunod, ang bilang ng mga pagsuspinde sa pagproseso ng mga abiso at reklamo na ipinatas sa H1 2024 alinsunod sa DSA Article 23.2:
Pinapatakbo sa buong mundo ang aming mga team sa pagkontrol sa content, na pinapayagan kaming tulungang mapanatiling ligtas 24/7 ang mga Snapchatter. Sa ibaba, makikita mo ang breakdown ng aming mga human moderation resource ayon sa mga specialty sa wika ng mga moderator (tandaan na ang ilang moderator ay bihasa sa maraming wika) simula noong Hunyo 30, 2024:
Kasama sa talahanayan sa itaas ang lahat ng human resource na nakatuon sa pag-moderate ng content na sinusuportahan ang mga opisyal na wika sa mga Member State ng EU mula noong Hunyo 30, 2024. Sa mga sitwasyon kung saan kailangan namin ng karagdagang suporta ng wika, gumagamit kami ng mga serbisyo sa pagsasalin.
Ang mga moderator ay kinukuha gamit ang isang karaniwang deskripsyon ng trabaho na may kasamang pangangailangan sa wika (depende sa pangangailangan). Ang kinakailangan sa wika ay nagsasaad na ang kandidato ay dapat na maipakita ang nakasulat at pasalitang katatasan sa wika at magkaroon ng hindi bababa sa isang taon ng karanasan sa trabaho para sa mga posisyon sa antas ng pagpasok. Ang mga kandidato ay dapat ding matugunan ang mga kinakailangan sa edukasyon at background upang maisaalang-alang. Dapat ding ipakita ng mga kandidato ang pag-unawa sa mga kasalukuyang kaganapan para sa bansa o rehiyon na pagmo-moderate ng content sa kanilang susuportahan.
Tingnan sa itaas ang impormasyon tungkol sa training at suportang ibinibigay ng Snap sa mga content moderator, na hiwalay na pinag-uutos sa ilalim ng DSA Article 15(1)(c) at kasama sa Section 3(b), sa huling subsection na tinatawag na: “Mga isinagawang hakbang para magbigay ng pagsasanay at tulong sa mga taong nanangasiwa sa pag-moderate ng content”
Background
Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit kami ng PhotoDNA robust hash-matching at ng Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na mga larawan at video ng pang-aabuso sa mga bata, ayon sa pagkakabanggit, at inire-report ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.
Report
Ang data sa ibaba ay batay sa resulta ng proactive scanning gamit ang PhotoDNA at/o CSAI Match ng media na in-upload ng camera roll ng user sa Snapchat.
Pangunahing priyoridad ang pagpigil sa sekswal na pananamantala ng bata. Naglalaan ang Snap ng maraming resource para dito at hindi nito kinukunsinti ang ganoong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.
Mga Proteksyon para sa Pagkontrol ng Content
Ang mga proteksyon na ginamit para sa CSEA Media Scanning ay nakasaad sa itaas na bahagi na "Mga Proteksyon para sa Pagmo-moderate ng Content" sa ilalim ng aming DSA Report.
Na-publish: Hunyo 17, 2024
Huling Na-update: Hunyo 17, 2024
Na-publish ang Transparency Report ayon sa mga Article 7(2) at 7(3) ng Regulation 2021/784 ng European Parliament at ng Council of the EU na tumatalakay sa pagkalat ng terrorist content online (ang Regulation). Sinasaklaw nito ang reporting period ng Enero 1 - Disyembre 31, 2023.
Article 7(3)(a): Impormasyon tungkol sa mga hakbang ng hosting service provider kaugnay sa pagtukoy at pagtanggal ng o pag-disable ng access sa terrorist content
Article 7(3)(b): Impormasyon tungkol sa mga hakbang ng hosting service provider para tugunan ang muling paglitaw online ng mga materyal na tinanggal na dati o na-disable ang access dati dahil itinuring itong terrorist content lalo na kung gumamit ng mga automated tool
Ipinagbabawal sa mga terrorist, mga terrorist na organisasyon, at mararahas na extremist na gumamit ng Snapchat. Ipinagbabawal ayon sa aming Community Guidelines ang content na nagsusulong, nagpo-promote, nagdiriwang, o nagpapalaganap ng terrorism o iba pang mararahas, at kriminal na gawain. Maaaring i-report ng mga user ang content na lumalabag sa aming Community Guidelines sa pamamagitan ng in-app reporting menu at sa aming Support Site. Gumagamit din kami ng proactive detection para subukan na tukuyin ang mga lumalabag na content sa mga pampublikong surface katulad ng Spotlight at Discover.
Paano man kami naging aware sa lumalabag na content, sa pamamagitan ng kombinasyon ng naka-automate at pag-moderate ng tao, mabilis na nire-review ng aming mga Trust & Safety team, ang mga tinukoy na content at gumagawa ng mga desisyon sa pagpapatupad. Maaaring kabilang sa mga pagpapatupad ang pagtanggal ng content, pagbibigay ng warning o pagla-lock ng mga lumalabag na account, at kung kailangan, pag-report ng account sa mga tagapagpatupad ng batas. Para maiwasan ang paglitaw muli ng terrorist o iba pang mararahas na extremist na content sa Snapchat, dagdag sa pakikipagtulungan sa tagapagpatupad ng batas, gumagawa kami ng mga hakbang na i-block ang device na nauugnay sa lumalabag na account at pigilan ang user na gumawa ng bagong Snapchat account.
Makikita ang iba pang detalye tungkol sa aming mga hakbang para tukuyin at tanggalin ang terrorist content sa aming Paliwanag tungkol sa Mapoot na Content, Terrorism, at Mararahas na Extremism at sa aming Paliwanag tungkol sa Pagkontrol, Pagpapatupad, at mga Apela.
Article 7(3)c: ang bilang ng mga item ng terrorist content na tinanggal o kung saan na-disable ang access kasunod ng mga order sa pag-alis o partikular na hakbang, at ang bilang ng mga order sa pag-alis kung saan hindi tinanggal ang mga content o hindi na-disable ang access alinsunod sa unang subparagraph ng Article 3(7) at ang unang subparagraph ng Articke 3(8), kasama ang mga dahilan kung bakit
Sa reporting period, hindi nakatanggap ang Snap ng order sa pag-alis, o inuutusan kami na magsagawa ng anumang partikular na hakbang alinsunod sa Article 5 ng Regulation. Dahil dito, hindi kami kailangang gumawa ng aksyon sa pagpapatupad alinsunod sa Regulation.
Naglalarawan ang sumusunod na table ng mga aksyon sa pagpapatupad na ginawa batay sa mga report ng user at proactive detection laban sa content at mga account, maging sa EU man o sa ibang lugar sa mundo, na lumalabag sa aming Community Guidelines na may kaugnayan sa terrorism at marahas na extremism na content
Article 7(3)(d): ang bilang at resulta ng mga reklamo na pinapangasiwaan ng hosting service provider alinsunod sa Article 10
Article 7(3)(g): ang bilang ng mga kaso kung saan nag-reinstate ng content o access ang hosting service provider pagkatapos ng reklamo ng provider ng content
Dahil wala kaming kinakailangang ipatupad na aksyon sa ilalim ng Regulasyon habang nasa proseso ng pagre-report gaya ng isinaad sa itaas, wala kaming pinangangasiwaang reklamo alinsunod sa Article 10 ng Regulasyon at walang nauugnay na pag-reinstate.
Naglalaman ang sumusunod na talahanayan ng impormasyong nauugnay sa mga apela at pag-reinstate, sa EU at sa iba pang bahagi ng mundo, na kinasasangkutan ng mga terorista at marahas na extremist content na ipinapatupad sa ilalim ng aming Community Guidelines.
Article 7(3)(e): ang bilang at resulta ng mga administrative o judicial review proceeding na isinagawa ng hosting service provider
Article 7(3)(f): ang bilang ng mga kaso kung saan kinakailangang ibalik ng hosting service provider ang content o access dito bilang resulta ng mga administrative o judicial review proceeding
Dahil wala kaming mga kinakailangang enforcement action sa ilalim ng Regulation sa panahon ng reporting period, gaya ng nabanggit sa itaas, wala kaming mga kaugnay na administrative o judicial review proceeding at hindi kami kinakailangang magbalik ng content bilang resulta ng anumang ganitong proceeding.
Ginawa ang report na ito para sumunod sa mga pananagutan ng Snap base sa Article 34 at 35 ng Regulation (EU) 2022/2065 at nakasaad dito ang mga resulta ng aming assessment ng mga system risk na nagmumula sa disenyo, function at gamit ng mga online platform ng Snapchat pati na rin ang pamamaraan na ginamit para i-assess ang mga risk na ito at mga hakbang na inilatag para matugunan ang mga risk na ito.
Risk and Mitigation Assessment Report ng DSA | Snapchat | Agosto 2023 (PDF)
Ginawa ang mga report na ito para matugunan ang mga obligasyon ng Snap base sa Article 37 ng Regulation (EU) 2022/2065 at naglalaman ng: (i) mga resulta ng hiwalay na audit ng pagtugon ng Snap sa mga obligasyon na nakasaad sa Chapter III ng Regulation (EU) 2022/2065 at (ii) mga hakbang na ginawa para ipatupad ang mga rekomendasyon sa pagpapatakbo mula sa nasabing hiwalay na audit.
Independent Audit Report ng DSA | Snapchat | August 2024 (PDF)
Audit Implementation Report ng DSA | Snapchat | Setyembre 2024 (PDF)
EU VSP Code of Practice
Ang Snap ay isang tagapagbigay ng "serbisyo sa plataporma para sa pagbabahagi ng video"("VSP") alinsunod sa Artikulo 1(1)(aa) AVMSD. Ang Code of Conduct ("Code") na ito ay inihanda upang ilarawan kung paano tumutupad ang Snap sa mga obligasyon nito bilang VSP sa ilalim ng Dutch Media Act ("DMA") at Directive (EU) 2010/13 (na binago ng Directive (EU) 2018/1808 (ang "Audiovisual Media Services Directive" o "AVMSD")). Ang Code ay naaangkop sa buong European Union pati na rin sa European Economic Area.