Transparency Report
Hulyo 1, 2023 – Disyembre 31, 2023

Inilabas:

Abril 25, 2024

Updated:

Abril 25, 2024

Upang magbigay ng mas madaming kaalaman tungkol sa pagsisikap ng Snapchat na maging ligtas at ang klase at dami ng content na inire-report sa aming plataporma, inilalathala namin ang transparency report na ito nang dalawang beses isang taon. Kami ay nananagutan na magpatuloy na maging komprehensibo ang mga ulat na ito at nagbibigay ng impormasyon para sa kaligtasan at kapakanan ng aming komunidad, at ang maraming stakeholders na labis na nagmamalasakit tungkol sa aming content moderation at mga ginagawa para ipatupad ang batas. 

Sinasaklaw ng Transparency Report na ito ang ikalawang kalahati ng 2023 (Hulyo 1 - Disyembre 31). Tulad ng aming mga nakaraang ulat, nagbabahagi kami ng data tungkol sa pandaigdigang bilang ng in-app na content at mga ulat sa antas ng account na aming natanggap at ipinatupad sa mga partikular na kategorya ng mga paglabag sa patakaran; kung paano kami tumugon sa mga kahilingan mula sa tagapagpatupad ng batas at mga gobyerno; at ang aming mga aksyon sa pagpapatupad ay pinaghiw

a-hiwalay ayon sa bansa. Bilang bahagi ng aming patuloy na pangako na patuloy na pahusayin ang aming mga ulat sa transparency, nagpapakilala kami ng ilang bagong elemento kasama ng release na ito.

Una, pinalawak namin ang aming pangunahing table para isama ang mga ulat at pagpapatupad laban sa content at accounts na konektado sa parehong Terorismo & Bayolenteng Esktremismo at Child Sexual Exploitation & Abuse (CSEA). Sa nakaraang mga ulat, hinighlight namin ang pagtanggal sa mga account bilang tugon sa mga paglabag sa magkakahiwalay na mga seksyon. Patuloy naming sasabiin ang aming mga gagawin para agapan at tumugon laban sa CSEA, at pati na rin ang aming mga ulat sa NCMEC, sa nakahiwalay na seksyon. 

Pangalawa, nagbigay kami ng pinalawak na impormasyon tungkol sa mga apela, ipinapakita ang kabuuang mga apela at reinstatements ng Community Guidelines enforcements. 

Panghuli, pinalawak namin ang aming European Union section, na nagbibigay ng mas madaming kaalaman tungkol sa mga ginagawa ng Snap EU. Sa partikular, inilalathala namin ang pinakahuling DSA Transparency Report at dagdag na metrics tungkol sa aming CSEA media scanning.

Para sa higit pang impormasyon tungkol sa aming mga patakaran para sa paglaban sa mga pinsala online, at planong magpatuloy sa pag-evolve sa aming mga kasanayan sa pag-uulat, pakibasa ang aming kamakailang blog sa Kaligtasan at Impact tungkol sa ulat sa transparency na ito.  Para maghanap ng karagdagang mga resource para sa kaligtasan at privacy sa Snapchat, tingnan ang aming Tungkol sa Pag-uulat sa Transparecy na tab sa ibaba ng pahina.

Pakitandaan na ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa en-US locale.

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.

Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.

Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.

Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.

Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.

Pagsusuri ng Content at mga Paglabag sa Account

Ang aming pangkalahatang reporting at enforcement rates ay nanatiling katulad sa mga nakaraang siyam na buwan. Sa cycle na ito, nakakita kami ng 10% pagtaas sa kabuuang content at account reports.

Ang Israel-Hamas na paglalaban ay nagsimula sa panahong ito, at bilang resulta, nakakita kami ng pagtaas sa lumalabag na content. Ang kabuuang mga report na may kinalaman sa hate speech ay tumaas nang ~61%, habang ang kabuuang content enforcements ng hate speech ay tumaas nang ~97% at ang unique account enforcements ay tumaas nang ~124%. Ang mga report tungkol sa Terorismo & Bayolenteng Ekstremismo ay tumaas din, kahit na bumubuo lamang ito sa <0.1% ng kabuuang content enforcements ng aming plataporma. Ang aming Trust & Safety teams ay patuloy na mananatiling mapagmatyag habang tumataas ang labanan sa buong mundo para mapanatiling ligtas ang Snapchat. Pinalawak din namin ang aming transparency report para isama ang mas maraming impormasyon sa antas ng buong mundo at sa bansa tungkol sa kabuuang reports, content enforced, at unique accounts enforced para sa mga paglabag sa aming polisiya tungkol sa Terorismo & Bayolenteng Ekstremismo. 

Pangkalahatang-ideya ng mga Paglabag sa Content at Account

Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.

Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.

Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.

Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat. 

*Tandaan na ang bawat pagsusumite sa NCMEC ay maaaring maglaman ng maraming mga content. Ang kabuuan ng mga indibidwal na piraso ng media na isinumite sa NCMEC ay katumbas ng aming kabuuang nilalaman na ipinapatupad. Hindi na namin isinama ang mga binawing isinumite sa NCMEC mula sa numerong ito.

Nilalaman tungkol sa Pananakit sa Sarili at Pagpapakamatay

Lubos kaming nagmamalasakit sa mental health at sa kapakanan ng Snapchatters, na patuloy na nagdidikta sa aming desisyon na itayo nang iba ang Snapchat. Bilang platapormang dinisenyo para sa pakikipag-ugnayan sa mga tunay na kaibigan, naniniwala kaming maaaring gumanap ang Snapchat ng natatanging papel sa pagbibigay-kakayahan sa magkakaibigang tulungan ang isa't-isang malagpasan ang mga mahihirap na sandali.

Kapag nalaman ng aming Trust & Safety team na may dapat ikabahala tungkol sa isang Snapchatter, maaari silang mag-forward ng resources tungkol sa paghadlang sa pananakit sa sarili at suporta, at sabihan ang mga emergency response personnel kung naa-akma ito. Available ang mga resources na aming ibinabahagi sa aming pandaigdigang listahan ng mga resources na pangkaligtasan, at available sa publiko ang mga ito sa lahat ng Snapchatters.

Mga Apela

Sa aming nakaraang report, ipinakilala namin ang metrics sa mga apela, kung saan hinighlight namin kung ilang beses kaming hiniling ng mga users na rebyuhin ang aming naunang desisyon ng moderasyon laban sa kanilang account. Sa report na ito, pinalawak namin ang aming mga apela para masakop ang kumpletong saklaw ng aming mga kategorya sa polisiya para sa paglabag sa antas ng account.

* Ang pagpigil sa pagkalat ng content o anumang gawain na may kinalaman sa sekswal na exploitation ng mga bata ay may mataas na prayoridad. Naglalaan ang Snap ng maraming resources sa pagpatupad ng layuning ito at hindi hahayaan ang ganitong gawain.  Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content.  Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad.  Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.

Overview ng Rehiyon & Bansa

Ang seksyong ito ay nagbibigay ng pangkalahatang-ideya sa pagpapatupad ng aming Mga Alituntunin ng Komunidad sa isang sampling ng mga heyograpikong rehiyon. Maia-apply ang aming Mga Alituntunin sa Komunidad sa lahat ng content sa Snapchat—at lahat ng Snapchatter—sa buong mundo, saanman ang lokasyon.

Ang impormasyon para sa indibidwal na mga bansa, kasama na ang lahat ng EU Member States, ay maaaring idownload sa pamamagitan ng nakalakip na CSV file.

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.

Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.

Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat. 

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.

Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.

Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat. 

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.

Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.

Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat. 

Pag-moderate ng mga Ad

Ang Snap ay committed sa paniniguro na ang lahat ng ads ay sumusunod sa aming policies sa advertising. Naniniwala kami sa isang responsable at magalang na diskarte sa advertising, na lumilikha ng isang ligtas at kasiya-siyang karanasan para sa lahat ng aming mga gumagamit. Sa ibaba ay naglagay kami ng impormasyon tungkol sa aming moderation para sa bayad na advertisements sa Snapchat. Tandaan na maaaring alisin ang mga ad sa Snapchat para sa iba't ibang dahilan gaya ng nakabalangkas sa Advertising Policies ng Snap, kabilang ang mapanlinlang na content, pang-adult na content, marahas o nakakagambalang content, mapoot na salita, at paglabag sa intelektwal na ari-arian. Bukod pa rito, mahahanap mo na ngayon ang Gallery ng mga Ad sa Snapchat sa navigation bar ng transparency report na ito.

Mga Kahilingan sa Pag-alis ng Pamahalaan at Intelektwal na Pag-aari

Tungkol sa Pag-uulat ng Katapatan

Glossary ng Ulat sa Transparency