Transparency Report
Enero 1, 2023 – Hunyo 30, 2023
Inilabas:
Oktubre 25, 2023
Updated:
Disyembre 13, 2023

Upang magbigay ng kaalaman sa pagsisikap ng Snap na maging ligtas at sa uri at dami ng nilalaman na ni-report sa aming plataporma, kami ay naghahayag ng mga transparency report dalawang beses sa isang taon. Nakatuon kaming patuloy na gawing mas komprehensibo at nagbibigay ng kaalaman ang mga ulat na ito sa maraming stakeholder na lubos na nagmamalasakit sa aming pagmo-moderate ng content at mga kasanayan sa pagpapatupad ng batas, pati na rin sa kapakanan ng aming komunidad. 
Sinasaklaw ng Ulat sa Transparency na ito ang unang kalahati ng 2023 (Enero 1 - Hunyo 30). Tulad ng aming mga nakaraang ulat, nagbabahagi kami ng data tungkol sa pandaigdigang bilang ng in-app na content at mga ulat sa antas ng account na aming natanggap at ipinatupad laban sa mga partikular na kategorya ng mga paglabag sa patakaran; kung paano kami tumugon sa mga kahilingan mula sa tagapagpatupad ng batas at mga gobyerno; at ang aming mga aksyon sa pagpapatupad ay pinaghiwa-hiwalay ayon sa bansa.

Bilang bahagi ng aming patuloy na pangako na patuloy na pahusayin ang aming mga ulat sa transparency, nagpapakilala kami ng ilang bagong elemento kasama ng release na ito. Nagdagdag kami ng mga karagdagang punto ng data sa paligid ng aming mga kasanayan sa advertising at pag-moderate, pati na rin ang mga apela sa nilalaman at account. Alinsunod sa EU Digital Services Act, nagdagdag din kami ng bagong impormasyon sa konteksto sa paligid ng aming mga operasyon sa EU Member States, gaya ng bilang ng mga content moderator at monthly active user (MAU) sa rehiyon. Karamihan sa impormasyong ito ay matatagpuan sa buong ulat, at sa aming nakatuong page ng European Union ng Transparency Center.
Sa wakas, na-update namin ang aming Glossary na may mga link sa aming mga tagapagpaliwanag sa Community Guidelines, na nagbibigay ng karagdagang konteksto sa paligid ng patakaran ng aming platform at mga pagsisikap sa pagpapatakbo. 
Para sa higit pang impormasyon tungkol sa aming mga patakaran para sa paglaban sa mga pinsala online, at planong magpatuloy sa pag-evolve sa aming mga kasanayan sa pag-uulat, pakibasa ang aming kamakailang blog sa Kaligtasan at Impact tungkol sa ulat sa transparency na ito. 
Para maghanap ng karagdagang mga resource para sa kaligtasan at privacy sa Snapchat, tingnan ang aming Tungkol sa Pag-uulat sa Transparecy na tab sa ibaba ng pahina.
Pakitandaan na ang pinaka-up-to-date na bersyon ng Ulat sa Transparency na ito ay matatagpuan sa en-US locale.

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Enero 1 - Hunyo 30, 2023, ipinatupad ang Snap laban sa 6,216,118 piraso ng content sa buong mundo na lumabag sa aming mga patakaran.
Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.02 porsyento, na nangangahulugang sa bawat 10,000 view ng Snap at Story sa Snapchat, 2 ang naglaman ng content na lumabag sa aming mga patakaran.

Pagsusuri ng Content at mga Paglabag sa Account

Ang aming pangkalahatang mga rate ng pag-uulat at pagpapatupad ay nanatiling medyo katulad sa nakaraang anim na buwan, na may ilang mga pagbubukod sa mga pangunahing kategorya. Nakakita kami ng humigit-kumulang 3% na pagbaba sa kabuuang nilalaman at mga ulat sa account at mga pagpapatupad sa cycle na ito.
Ang mga kategoryang may pinakamaraming kapansin-pansing pagbabago ay ang Harassment at Bullying, Spam, Mga Armas, at Maling Impormasyon. Ang Harassment at Bullying ay nakakita ng ~56% na pagtaas sa kabuuang mga ulat, at isang kasunod na ~39% na pagtaas sa nilalaman at mga natatanging pagpapatupad ng account. Ang mga pagtaas na ito sa mga pagpapatupad ay sinamahan ng ~46% na pagbaba sa oras ng turnaround, na itinatampok ang mga kahusayan sa pagpapatakbo na ginawa ng aming team sa pagpapatupad laban sa ganitong uri ng lumalabag na nilalaman. Sa katulad na paraan, nakakita kami ng ~65% na pagtaas sa kabuuang mga ulat para sa Spam, na may ~110% na pagtaas sa mga pagpapatupad ng content at ~80% na pagtaas sa mga natatanging account na ipinatupad, habang ang aming mga team ay nagbawas din ng oras ng turnaround ng ~80%. Ang aming kategorya ng Mga Armas ay nakakita ng ~13% na pagbaba sa kabuuang mga ulat, at ~51% na pagbaba sa mga pagpapatupad ng nilalaman at ~53% na pagbawas sa mga natatanging account na ipinatupad. Panghuli, ang aming kategorya ng Maling Impormasyon ay nakakita ng ~14% na pagtaas sa kabuuang mga ulat, ngunit ~78% na pagbaba sa mga pagpapatupad ng nilalaman at ~74% na pagbaba sa mga natatanging account na ipinapatupad. Maaari itong maiugnay sa patuloy na proseso ng Quality Assurance (QA) at resourcing na inilalapat namin sa mga ulat ng maling impormasyon, upang matiyak na ang aming mga moderation team ay tumpak na nakakakuha at kumikilos ng maling impormasyon sa platform.
Sa pangkalahatan, bagama't nakita namin ang mga pangkalahatang katulad na bilang sa huling panahon, naniniwala kami na mahalagang patuloy na pahusayin ang mga tool na ginagamit ng aming komunidad upang aktibo at tumpak na mag-ulat ng mga potensyal na paglabag habang lumalabas ang mga ito sa platform.

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Mga Alituntuning Komunidad. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse Imagery (CSEAI) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Google's Child Sexual Abuse Imagery (CSAI) Match para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, ayon sa pagkakabanggit, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.
Sa unang bahagi ng 2023, maagap naming natukoy at naaksyunan ang 98 na kabuuang porsyento ng seksuwal na pananamantala at pang-aabuso na iniulat dito — higit ng 4 na porsyento mula sa aming naunang report.
**Tandaang maaaring maglaman ang bawat pag-submit sa NCMEC ng maramihang piraso ng content. Ang kabuuan ng mga indibidwal na piraso ng media na isinumite sa NCMEC ay katumbas ng aming kabuuang nilalaman na ipinapatupad.

Nilalaman tungkol sa Pananakit sa Sarili at Pagpapakamatay

Lubos kaming nagmamalasakit sa kalusugang pangkaisipan at sa kapakanan ng Mga Snapchatter, na nagbigay-alam – at patuloy na nagbibigay-alam - sa aming mga desisyong buuin ang Snapchat sa ibang paraan. Bilang platapormang dinisenyo para sa pakikipag-ugnayan sa mga tunay na kaibigan, naniniwala kaming maaaring gumanap ang Snapchat ng natatanging role sa pagbibigay-kakayahan sa magkakaibigang tulungan ang isa't-isang malagpasan ang mga mahihirap na sandali.
Kapag napansin ng aming Trust at Safety team ang isang Snapchatter na nababalisa, maaari nilang ipasa ang pag-iwas sa pananakit sa sarili at mga mapagkukunan ng suporta, at abisuhan ang mga tauhan ng pagtugon sa emergency kapag naaangkop. Available ang mga resources na aming ibinabahagi sa aming pandaigdigang listahan ng mga resources na pangkaligtasan, at available sa publiko ang mga ito sa lahat ng Snapchatter.

Mga Apela

Batay sa ulat na ito, nagsisimula kaming mag-ulat sa bilang ng mga apela ng mga user na na-lock ang mga account dahil sa paglabag sa aming mga patakaran. Ibinabalik lang namin ang mga account na natukoy ng aming mga moderator na maling naka-lock. Sa panahong ito, nag-uulat kami ng mga apela na nauugnay sa nilalaman ng droga.  Sa aming susunod na ulat, inaasahan naming maglabas ng higit pang data na nauugnay sa mga apela na nagmumula sa iba pang mga paglabag sa aming patakaran.
**Tandaang maaaring maglaman ang bawat pag-submit sa NCMEC ng maramihang piraso ng content. Ang kabuuan ng mga indibidwal na piraso ng media na isinumite sa NCMEC ay katumbas ng aming kabuuang nilalaman na ipinapatupad.

Pag-moderate ng mga Ad

Ang Snap ay nakatuon sa matatag na pagtiyak na ang lahat ng mga ad ay ganap na sumusunod sa aming mga patakaran sa platform. Naniniwala kami sa isang responsable at magalang na diskarte sa advertising, na lumilikha ng isang ligtas at kasiya-siyang karanasan para sa lahat ng aming mga gumagamit. Sa ibaba ay isinama namin ang insight sa aming advertising moderation. Tandaan na maaaring alisin ang mga ad sa Snapchat para sa iba't ibang dahilan gaya ng nakabalangkas sa Mga Patakaran sa Advertising ng Snap, kabilang ang mapanlinlang na content, pang-adult na content, marahas o nakakagambalang content, mapoot na salita, at paglabag sa intelektwal na ari-arian. Bukod pa rito, mahahanap mo na ngayon ang Gallery ng mga Ad sa Snapchat sa navigation bar ng transparency report na ito. 

Pangkalahatang-ideya ng Bansa

Ang seksyong ito ay nagbibigay ng pangkalahatang-ideya sa pagpapatupad ng aming Mga Alituntunin ng Komunidad sa isang sampling ng mga heyograpikong rehiyon. Maia-apply ang aming Mga Alituntunin sa Komunidad sa lahat ng content sa Snapchat—at lahat ng Snapchatter—sa buong mundo, saanman ang lokasyon.
Ang impormasyon para sa mga indibidwal na bansa ay magagamit para sa pag-download sa pamamagitan ng naka-attach na CSV file:
Mga Kahilingan sa Pag-alis ng Pamahalaan at Intelektwal na Pag-aari
Tungkol sa Pag-uulat ng Katapatan
Glossary ng Ulat sa Transparency