Disyembre 05, 2024
Disyembre 05, 2024
Pina-publish namin ang transparency report na ito dalawang beses isang taon para magbigay ng insight sa mga pagsisikap sa kaligtasan ng Snap. Nakatuon kami sa mga pagsisikap na ito at patuloy na nagsisikap na gawing mas komprehensibo at nagbibigay-kaalaman ang mga report na ito para sa maraming stakeholder na lubos na nagmamalasakit sa pagmo-moderate ng content namin, mga kasanayan sa pagpapatupad ng batas, at ang kaligtasan at kagalingan ng komunidad ng Snapchat.
Sinasaklaw ng Transparency Report na ito ang unang kalahati ng 2024 (Enero 1 - Hunyo 30). Tulad ng mga nakaraang report namin, nagse-share kami ng data tungkol sa pandaigdigang volume ng in-app na content at mga report sa antas ng account na natanggap at ipinatupad ng mga team namin ng Trust & Safety sa mga partikular na kategorya ng mga paglabag sa Community Guidelines; kung paano kami tumugon sa mga kahilingan mula sa tagapagpatupad ng batas at mga pamahalaan; at paano kami tumugon sa mga abiso ng copyright ang paglabag sa trademark. Nagbibigay rin kami ng insights na partikular sa bansa sa mga file na naka-link sa ibaba ng pahinang ito.
Bilang bahagi ng patuloy na pangako naming patuloy na pagbutihin ang mga transparency report namin, ipinapakilala rin namin ang bagong data na nagha-highlight sa mga maagap na pagsisikap naming ma-detect at magpatupad laban sa mas malawak na hanay ng mga paglabag ng Community Guidelines namin. Isinama namin ang data na ito sa parehong antas ng pandaigdigan at bansa sa loob ng ulat na ito at patuloy naming gagawin ito sa hinaharap. Naitama rin namin ang isang error sa pag-label sa mga nakaraang report namin: kung saan tinukoy namin dati ang "Kabuuang Nilalamang Ipinapatupad", na tinutukoy namin ngayong “Mga Kabuuang Pagpapatupad” para ipakita ang katotohanang ang data na ibinigay sa mga nauugnay na column ay kinabibilangan ng pagpapatupad ng parehong antas ng content at mga antas ng account.
Para sa higit pang impormasyon tungkol sa mga patakaran namin para sa paglaban sa mga potensyal na online na pinsala, at mga planong magpatuloy ang pagbabago sa mga kasanayan namin sa pagre-report, pakibasa ang kamakailan namingblog sa Safety & Impact tungkol sa Transparency Report na ito. Para maghanap ng mga karagdagang mapagkukunan sa kaligtasan at privacy sa Snapchat, tingnan ang aming tab na Tungkol sa Transparency Reporting sa ibaba ng pahina.
Pakitandaang ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa EN-US locale.
Pangkalahatang-ideya ng Mga Aksyon ng Mga Team ng Trust & Safety para Ipatupad ang Community Guidelines namin
Ipinapatupad ng mga team namin ng Trust & Safety ang Community Guidelines namin nang parehong maagap (sa pamamagitan ng paggamit ng mga automated na tool) at nang reaktibo (bilang tugon sa mga report), gaya ng higit pang pagdedetalye sa mga sumusunod na seksyon ng report na ito. Sa cycle na pagre-report na ito (H1 2024), ginawa ng mga team namin ng Trust & Safety ang sumusunod na seksyon sa pagpapatupad.
Pangkalahatang-ideya ng mga Paglabag sa Content at Account
Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.
Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.
Pangkalahatang-ideya ng mga Paglabag sa Content at Account
Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.
Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.
Pangkalahatang-ideya ng mga Paglabag sa Content at Account
Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.
Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.
Pagsusuri ng Content at mga Paglabag sa Account
Ang aming pangkalahatang reporting at enforcement rates ay nanatiling katulad sa mga nakaraang siyam na buwan. Sa cycle na ito, nakakita kami ng 10% pagtaas sa kabuuang content at account reports.
Ang Israel-Hamas na paglalaban ay nagsimula sa panahong ito, at bilang resulta, nakakita kami ng pagtaas sa lumalabag na content. Ang kabuuang mga report na may kinalaman sa hate speech ay tumaas nang ~61%, habang ang kabuuang content enforcements ng hate speech ay tumaas nang ~97% at ang unique account enforcements ay tumaas nang ~124%. Ang mga report tungkol sa Terorismo & Bayolenteng Ekstremismo ay tumaas din, kahit na bumubuo lamang ito sa <0.1% ng kabuuang content enforcements ng aming plataporma. Ang aming Trust & Safety teams ay patuloy na mananatiling mapagmatyag habang tumataas ang labanan sa buong mundo para mapanatiling ligtas ang Snapchat. Pinalawak din namin ang aming transparency report para isama ang mas maraming impormasyon sa antas ng buong mundo at sa bansa tungkol sa kabuuang reports, content enforced, at unique accounts enforced para sa mga paglabag sa aming polisiya tungkol sa Terorismo & Bayolenteng Ekstremismo.
Pangkalahatang-ideya ng mga Paglabag sa Content at Account
Mula Hulyo 1 - Disyembre 31, 2023, ipinatupad ng Snap laban sa 5,376,714 na mga piraso ng content sa buong mundo na ini-report sa amin at lumabag sa aming Community Guidelines.
Sa panahon ng pag-uulat, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na nakikitang Snap at Story sa Snapchat, 1 ang may nilalaman na lumalabag sa aming mga patakaran. Ang median turnaround time para bigyang bisa ang ini-report na content ~10 na minuto.
Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata
Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.
Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat.
*Tandaan na ang bawat pagsusumite sa NCMEC ay maaaring maglaman ng maraming mga content. Ang kabuuan ng mga indibidwal na piraso ng media na isinumite sa NCMEC ay katumbas ng aming kabuuang nilalaman na ipinapatupad. Hindi na namin isinama ang mga binawing isinumite sa NCMEC mula sa numerong ito.
Nilalaman tungkol sa Pananakit sa Sarili at Pagpapakamatay
Lubos kaming nagmamalasakit sa mental health at sa kapakanan ng Snapchatters, na patuloy na nagdidikta sa aming desisyon na itayo nang iba ang Snapchat. Bilang platapormang dinisenyo para sa pakikipag-ugnayan sa mga tunay na kaibigan, naniniwala kaming maaaring gumanap ang Snapchat ng natatanging papel sa pagbibigay-kakayahan sa magkakaibigang tulungan ang isa't-isang malagpasan ang mga mahihirap na sandali.
Kapag nalaman ng aming Trust & Safety team na may dapat ikabahala tungkol sa isang Snapchatter, maaari silang mag-forward ng resources tungkol sa paghadlang sa pananakit sa sarili at suporta, at sabihan ang mga emergency response personnel kung naa-akma ito. Available ang mga resources na aming ibinabahagi sa aming pandaigdigang listahan ng mga resources na pangkaligtasan, at available sa publiko ang mga ito sa lahat ng Snapchatters.
Mga Apela
Sa aming nakaraang report, ipinakilala namin ang metrics sa mga apela, kung saan hinighlight namin kung ilang beses kaming hiniling ng mga users na rebyuhin ang aming naunang desisyon ng moderasyon laban sa kanilang account. Sa report na ito, pinalawak namin ang aming mga apela para masakop ang kumpletong saklaw ng aming mga kategorya sa polisiya para sa paglabag sa antas ng account.
* Ang pagpigil sa pagkalat ng content o anumang gawain na may kinalaman sa sekswal na exploitation ng mga bata ay may mataas na prayoridad. Naglalaan ang Snap ng maraming resources sa pagpatupad ng layuning ito at hindi hahayaan ang ganitong gawain. Kinakailangan ng espesyal na pagsasanay para i-review ang mga apela tungkol sa CSE, at may limitadong team ng mga ahente na humahawak ng mga ganitong review dahil sa grapikong uri ng content. Noong Fall ng 2023, nagpatupad ang Snap ng mga pagbabago sa patakaran na nakaapekto sa pagkakatugma ng ilang partikular na pagpapatupad ukol sa CSE, at tinugunan na namin ang mga hindi pagkakatugma na ito sa pamamagitan ng muling pagsasanay sa mga ahente at masusing pagtitiyak ng kalidad. Inaasahan naming mahahayag sa susunod na transparency report ang pag-usad tungo sa pagpapahusay sa tagal ng pagtugon para sa mga apela tungkol sa CSE at pagpapahusay sa katumpakan ng mga naunang pagpapatupad.
Overview ng Rehiyon at Bansa
Naglalaan ang seksyong ito ng overview ng Trust & Safety na mga aksyon ng mga team namin para ipatupad ang Community Guidelines namin, nang parehong maagap at bilang tugon sa in-app na mga ulat sa mga paglabag, sa sampling ng mga heyograpikong rehiyon Nalalapat ang Community Guidelines namin sa lahat ng content sa Snapchat—at lahat ng Snapchatter—sa buong mundo, saanman ang location.
Ang impormasyon para sa indibidwal na mga bansa, kasama na ang lahat ng EU Member States, ay available para i-download sa pamamagitan ng nakalakip na CSV file.
Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata
Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.
Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat.
Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata
Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing prioridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit ang aming Trust and Safety team ng mga aktibong technology detection na tool, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) Match ng Google para matukoy ang mga kilalang ilegal na larawan at video ng pang-aabuso sa mga bata, respectively, at iulat ang mga ito sa US National Center for Missing and Exploited Children (NCMEC), ayon sa iniaatas ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, kung kinakailangan.
Sa ikalawang kalahati ng 2023, naunahan na naming na-detect at inaksyunan ang 59% ng kabuuan sa ini-report na sekswal na pagsasamantala ng mga bata at pang-aabuso. Sinasalamin nito ang 39% na kabuuang pagbaba mula sa dating panahon dahil sa pagpapaganda ng mga opsyon para sa mga Snapchatter para sa pagre-report, itinataas ang aming visibility sa mga potensyal na CSEA na ipinapadala sa Snapchat.
Pag-moderate ng mga Ad
Ang Snap ay committed sa paniniguro na ang lahat ng ads ay sumusunod sa aming policies sa advertising. Naniniwala kami sa isang responsable at magalang na diskarte sa advertising, na lumilikha ng isang ligtas at kasiya-siyang karanasan para sa lahat ng aming mga gumagamit. Sa ibaba ay naglagay kami ng impormasyon tungkol sa aming moderation para sa bayad na advertisements sa Snapchat. Tandaan na maaaring alisin ang mga ad sa Snapchat para sa iba't ibang dahilan gaya ng nakabalangkas sa Advertising Policies ng Snap, kabilang ang mapanlinlang na content, pang-adult na content, marahas o nakakagambalang content, mapoot na salita, at paglabag sa intelektwal na ari-arian. Bukod pa rito, mahahanap mo na ngayon ang Gallery ng mga Ad sa Snapchat sa navigation bar ng transparency report na ito.

























