Disyembre 05, 2024
Disyembre 05, 2024
Pina-publish namin ang transparency report na ito dalawang beses isang taon para magbigay ng insight sa mga pagsisikap sa kaligtasan ng Snap. Nakatuon kami sa mga pagsisikap na ito at patuloy na nagsisikap na gawing mas komprehensibo at nagbibigay-kaalaman ang mga report na ito para sa maraming stakeholder na lubos na nagmamalasakit sa pagmo-moderate ng content namin, mga kasanayan sa pagpapatupad ng batas, at ang kaligtasan at kagalingan ng komunidad ng Snapchat.
Sinasaklaw ng Transparency Report na ito ang unang kalahati ng 2024 (Enero 1 - Hunyo 30). Tulad ng mga nakaraang report namin, nagse-share kami ng data tungkol sa pandaigdigang volume ng in-app na content at mga report sa antas ng account na natanggap at ipinatupad ng mga team namin ng Trust & Safety sa mga partikular na kategorya ng mga paglabag sa Community Guidelines; kung paano kami tumugon sa mga kahilingan mula sa tagapagpatupad ng batas at mga pamahalaan; at paano kami tumugon sa mga abiso ng copyright ang paglabag sa trademark. Nagbibigay rin kami ng insights na partikular sa bansa sa mga file na naka-link sa ibaba ng pahinang ito.
Bilang bahagi ng patuloy na pangako naming patuloy na pagbutihin ang mga transparency report namin, ipinapakilala rin namin ang bagong data na nagha-highlight sa mga maagap na pagsisikap naming ma-detect at magpatupad laban sa mas malawak na hanay ng mga paglabag ng Community Guidelines namin. Isinama namin ang data na ito sa parehong antas ng pandaigdigan at bansa sa loob ng ulat na ito at patuloy naming gagawin ito sa hinaharap. Naitama rin namin ang isang error sa pag-label sa mga nakaraang report namin: kung saan tinukoy namin dati ang "Kabuuang Nilalamang Ipinapatupad", na tinutukoy namin ngayong “Mga Kabuuang Pagpapatupad” para ipakita ang katotohanang ang data na ibinigay sa mga nauugnay na column ay kinabibilangan ng pagpapatupad ng parehong antas ng content at mga antas ng account.
Para sa higit pang impormasyon tungkol sa mga patakaran namin para sa paglaban sa mga potensyal na online na pinsala, at mga planong magpatuloy ang pagbabago sa mga kasanayan namin sa pagre-report, pakibasa ang kamakailan namingblog sa Safety & Impact tungkol sa Transparency Report na ito. Para maghanap ng mga karagdagang mapagkukunan sa kaligtasan at privacy sa Snapchat, tingnan ang aming tab na Tungkol sa Transparency Reporting sa ibaba ng pahina.
Pakitandaang ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa EN-US locale.
Pangkalahatang-ideya ng Mga Aksyon ng Mga Team ng Trust & Safety para Ipatupad ang Community Guidelines namin
Ipinapatupad ng mga team namin ng Trust & Safety ang Community Guidelines namin nang parehong maagap (sa pamamagitan ng paggamit ng mga automated na tool) at nang reaktibo (bilang tugon sa mga report), gaya ng higit pang pagdedetalye sa mga sumusunod na seksyon ng report na ito. Sa cycle na pagre-report na ito (H1 2024), ginawa ng mga team namin ng Trust & Safety ang sumusunod na seksyon sa pagpapatupad.
Total Enforcements
Total Unique Accounts Enforced
10,032,110
5,698,212
Nasa ibaba ang isang breakdown sa bawat uri ng mga nauugnay na paglabag sa Mga Alituntunin ng Komunidad, kabilang ang median na oras ng turnaround sa pagitan ng oras na natukoy namin ang paglabag (alinman sa maagap o pagkatanggap ng isang ulat) at ang oras na gumawa kami ng panghuling aksyon sa nauugnay na nilalaman o account:
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
3,860,331
2,099,512
2
Child Sexual Exploitation
961,359
577,682
23
Harassment and Bullying
2,716,966
2,019,439
7
Threats & Violence
199,920
156,578
8
Self-Harm & Suicide
15,910
14,445
10
False Information
6,539
6,176
1
Impersonation
8,798
8,575
2
Spam
357,999
248,090
1
Drugs
1,113,629
718,952
6
Weapons
211,860
136,953
1
Other Regulated Goods
247,535
177,643
8
Hate Speech
324,478
272,025
27
Terrorism & Violent Extremism
6,786
4,010
5
Sa panahon ng pagre-report, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na mga pag-view sa Snap at Story sa Snapchat, 1 ang naglalaman ng content na lumalabag sa Community Guidelines namin.
Mga Paglabag sa Community Guidelines na Iniulat sa Trust & Safety Teams Namin
Mula Enero 1 - Hunyo 30, 2024, bilang tugon sa in-app na mga ulat ng mga paglabag ng Community Guidelines namin, ang mga team ng Trust & Safety ng Snap ay nagsagawa ng 6,223,618 na pagpapatupad sa buong mundo, kabilang ang mga pagpapatupad laban sa 3,842,507 natatanging account. Ang median na turnaround na oras para sa mga team ng Trust & Safety ng Snap namin para magsagawa ng aksyon sa pagpapatupad bilang tugon sa mga ulat na iyon ay ~ 24 na minuto. Nagbigay sa ibaba ng breakdown kada kategorya sa pag-uulat.
Total Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
19,379,848
6,346,508
4,075,838
Policy Reason
Content & Account Reports
Total Enforcements
% of the Total Reports Enforced by Snap
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
5,251,375
2,042,044
32.20%
1,387,749
4
Child Sexual Exploitation
1,224,502
469,389
7.40%
393,384
133
Harassment and Bullying
6,377,555
2,702,024
42.60%
2,009,573
7
Threats & Violence
1,000,713
156,295
2.50%
129,077
8
Self-Harm & Suicide
307,660
15,149
0.20%
13,885
10
False Information
536,886
6,454
0.10%
6,095
1
Impersonation
678,717
8,790
0.10%
8,569
2
Spam
1,770,216
180,849
2.80%
140,267
1
Drugs
418,431
244,451
3.90%
159,452
23
Weapons
240,767
6,473
0.10%
5,252
1
Other Regulated Goods
606,882
199,255
3.10%
143,560
8
Hate Speech
768,705
314,134
4.90%
263,923
27
Terrorism & Violent Extremism
197,439
1,201
<0.1%
1,093
4
Ang kabuuang dami ng pagre-report namin ay nanatiling medyo matatag sa H1 2024, kumpara sa nakaraang anim na buwan. Ang cycle na ito, nakakita kami ng pagtaas sa kabuuang mga pagpapatupad at kabuuang mga natatanging account na ipinapatupad ng humigit-kumulang 16%.
Sa nakalipas na 12 buwan, ipinakilala ng Snap ang mga bagong mekanismo sa pagre-report para sa mga user, na tumutukoy para sa mga pagbabago sa ni-report namin at ipinapatupad na dami at para sa mga pagtaas sa mga oras ng turnaround sa panahon ng pagre-report na ito (H1 2024). Partikular:
Pagre-report sa Group Chat: Ipinakilala namin ang Pagre-report sa Group Chat noong Oktubre 13, 2023, na nagbibigay-daan sa mga user na i-report ang pang-aabusong nagaganap sa multi-person na chat. Naapektuhan ng pagbabagong ito ang makeup ng metrics namin sa mga kategorya ng pagre-report (dahil ang ilang potensyal na pinsala ay mas malamang na mangyari sa konteksto ng chat) at tumaas na kakayahang maaksyunan ng report.
Mga Pagpapahusay sa Pagre-report ng Account: Binago rin namin ang feature namin ng Pagre-report ng Account para bigyan ang mga nagre-report na user ng opsyon para mag-submit ng ebidensya ng chat kapag nagre-report ng account na pinaghihinalaang pinapatakbo ng hindi magandang aktor. Ang pagbabagong ito, na nagbibigay sa amin ng higit na katibayan at konteksto para i-assess ang mga report ng account, na inilunsad noong Pebrero 29, 2024.
Ang Mga Report sa Chat, lalo na ang Mga Report sa Group Chat, ay kabilang sa mga pinakakumplikado at nakakaubos ng oras na i-review, na nagpataas sa mga oras ng turnaround across the board.
Ang pagre-report para sa pinaghihinalaang Child Sexual Exploitation & Abuse (CSEA), Pangha-harass at Bullying, at Mapoot na Pananalita ay partikular na naapektuhan ng dalawang pagbabagong inilarawan sa itaas, at sa pamamagitan ng mga pagbabago sa mas broad na ecosystem. Partikular:
CSEA: Nakapansin kami ng pagtaas ng mga ulat at pagpapatupad na nauugnay sa CSEA noong H1 2024. Sa partikular, nakakita kami ng 64% pagtaas sa kabuuang in-app na mga report ng mga user, 82% pagtaas sa kabuuang pagpapatupad, at 108% pagtaas sa kabuuang mga natatanging account na ipinatupad. Ang mga pagtaas na ito halos lahat at hinihimok ng pagpapakilala ng mga functionality ng Group Chat at Pagre-report sa Account Dahil sa sensitibong katangian ng queue ng pagmo-moderate na ito, piling team ng mga lubos na sinanay na agent ang itinalaga para i-review ang mga report ng mga potensyal na paglabag na nauugnay sa CSEA. Ang pagdagsa ng mga karagdagang report na isinama sa mga team naming nag-a-adapt sa mga bagong pagsasanay ay nagreresulta sa pagtaas ng mga oras ng turnaround. Sa pagsulong, pinalaki namin nang husto ang sukat ng mga team ng pandaigdigang vendor namin para bawasan ang mga oras ng turnaround at tumpak na ipatupad sa mga report ng potensyal na CSEA. Inaasahan naming ipapakita ng H1 2024 na Transparency Report ang mga bunga ng pagsisikap na itong may materyal na pinahusay na oras ng turnaround.
Pangha-harass at Bullying: Batay sa mga report, napagmasdan naming ang Pangha-harass at Bullying ay hindi pantay na nangyayari sa mga chat, at partikular sa mga group chat. Ang mga pagpapahusay na ipinakilala namin sa Pagre-report sa Group Chat at Pagre-report sa Account ay nakakatulong sa aming kumilos ng mas komprehensibo kapag ina-assess ang mga report sa kategorya ng pagre-report na ito. Bukod pa rito, sa panahong ito, hinihiling namin sa mga user na mag-input ng komento kapag nagsa-submit ng report ng pangha-harass at bullying. Nire-review namin ang komentong ito para isakonteksto ang bawat report. Sama-sama, ang mga pagbabagong ito ay humantong sa mga pagtaas ng materyal sa kabuuang mga pagpapatupad (91%), kabuuang mga natatanging account na ipinatupad (+82%), at oras ng turnaround (+245 mins) para sa mga kaukulang report.
Mapoot na Pananalita: Sa H1 2024, nakapansin kami ng mga pagtaas sa ni-report na content, mga kabuuang pagpapatupad, at oras ng turnaround para sa Mapoot na Pananalita. Sa partikular, nakakita kami ng 61% pagtaas sa mga in-app na report, 127% pagtaas sa kabuuang mga pagpapatupad, at 125% pagtaas sa kabuuang mga natatangiang account na ipinatupad. Dahil ito, sa bahagi, sa mga pagppapahusay sa mga mekanismo sa pagre-report sa chat (tulad ng naunang tinalakay), at pinalala pa ng geopolitical na kapaligiran, sa partikular, ang pagpapatuloy ng tunggalian ng Israel-Hamas.
Sa panahon ng pagre-report na ito, nakakita kami ng ~65% pagbaba sa kabuuang mga pagpapatupad at ~60% pagbaba sa kabuuang mga natatanging account na ipinatupad bilang tugon sa mga report ng pinaghihinalaang Spam at Pang-aabuso, na nagpapakita ng mga pagpapahusay sa maaagap na pag-detect at mga tool sa pagpapatupad namin. Nakakita kami ng mga katulad na pagtanggi sa kabuuang mga pagpapatupad bilang tugon sa mga report ng content na may kaugnayan sa Pananakit sa Sarili at Pagpapakamatay (~80% pagbaba), na nagpapakita ng na-update na victim-centric approach namin, ayon sa kung saan ang Trust & Safety team namin ay, sa mga naaangkop na kaso, magse-send sa mga may katuturang mapagkukunan ng tulong sa sarili ng mga user, sa halip na gumawa ng aksyon ng pagpapatupad laban sa mga user na iyon. Ang diskarteng ito ay ipinaalam ng mga miyembro ng Safety Advisory Board namin, kasama ng propesor ng pediatric at medikal na doktor na dalubhasa sa interactive na media at internet disorder.
Ang Mga Pagsisikap Naming Maagap na Ma-detect at Maipatupad Laban sa Mga Paglabag ng Community Guidelines Namin
Nagde-deploy kami ng mga automated na tool para maagap na mag-detect at, sa ilang kaso, magpatupad laban sa mga paglabag sa Community Guidelines namin. Kasama sa mga tool na ito ang mga tool sa pagtutugma ng hash (kabilang ang PhotoDNA at Google Child Sexual Abuse Imagery (CSAI) na Tugma), mga tool sa pag-detect ng mapang-abusong wika (na nagde-detect at nagpapatupad batay sa natukoy at regular na na-update na listahan ng mga mapang-abusong keyword at emoji), at multi-modal artificial intelligence / machine learning technology.
Noong H1 2024, isinagawa namin ang mga sumusunod na aksyon sa pagpapatupad pagkapatos ng maagap na pag-detect, sa pamamagitan ng paggamit sa mga automated na tool, paglabag sa Community Guidelines namin.
Total Enforcements
Total Unique Accounts Enforced
3,685,602
1,845,125
Policy Reason
Total Enforcements
Total Unique Accounts Enforced
Median Turnaround Time (minutes) From Detection To Final Action
Sexual Content
1,818,287
828,590
<1
Child Sexual Exploitation
491,970
188,877
1
Harassment and Bullying
14,942
11,234
8
Threats & Violence
43,625
29,599
9
Self-Harm & Suicide
761
624
9
False Information
85
81
10
Impersonation
8
6
19
Spam
177,150
110,551
<1
Drugs
869,178
590,658
5
Weapons
205,387
133,079
<1
Other Regulated Goods
48,280
37,028
9
Hate Speech
10,344
8,683
10
Terrorism & Violent Extremism
5,585
2,951
21
Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing priyoridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.
Gumagamit kami ng mga aktibong tool sa pag-detect ng teknolohiya, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) na Tugma ng Google para matukoy ang mga kilalang ilegal na imahe at video ng CSEA, ayon sa pagkakabanggit. Bilang karagdagan, sa ilang kaso, gumagamit kami ng mga signal ng pag-uugali para ipatupad laban sa iba pang potensyal na ilegal na aktibidad ng CSEA. Nagre-report kami ng kaugnay sa CSEA na content sa National Center for Missing and Exploited Children (NCMEC) ng U.S., ayon sa hinihingi ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, ayon sa kinakailangan.
Sa unang kalahati ng 2024, ginawa namin ang mga sumusunod na pagkilos sa pag-detect sa CSEA sa Snapchat (maagap man o kapag nakatanggap ng report):
Total Content Enforced
Total Accounts Disabled
Total Submissions to NCMEC*
1,228,929
242,306
417,842
*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.
Ang Mga Pagsisikap Naming Magbigay ng Mga Mapagkukunan at Support sa Mga Snapchatter na Nangangailangan
Lubos kaming nagmamalasakit sa kalusugan sa pag-iisip at sa kapakanan ng Mga Snapchatter, na patuloy na nagpapaalam sa mga desisyon naming bumuo ng Snapchat sa ibang paraan. Bilang platapormang dinisenyo para sa mga pakikipag-ugnayan sa mga tunay na kaibigan, naniniwala kaming pwedeng gumanap ang Snapchat ng natatanging role sa pagbibigay-kakayahan sa magkakaibigang na tulungan ang isa't-isang malagpasan ang mga mahihirap na sandali. Ito ang dahilan kung bakit kami bumuo ng mga mapagkukunan at support para sa Mga Snapchatter na nangangailangan.
Ang Here For You na search tool namin ay nagpapakita ng mga mapagkukunan mula sa mga ekspertong lokal na partner kapag naghahanap ang mga user ng ilang partikular na paksang nauugnay sa kalusugan ng pag-iisip, pagkabalisa, depresyon, stress, mga pag-iisip ng pagpapakamatay, kalungkutan at bullying. Mayroon din kaming ginawang pahina na nakatuon sa sextortion sa pananalapi at iba pang mga panganib at pinsalang sekswal, sa pagsisikap na suportahan ang mga nasa kagipitan. Ang pandaigdigang listahan ng mga mapagkukunan sa kaligtasan ay available sa publiko sa lahat ng Snapchatter, sa Privacy, Safety at Policy Hub namin.
Kapag nalaman ng Trust & Safety team naming nasa kagipitan ang isang Snapchatter, pwede silang mag-forward ng mga mapagkukunan sa paghadlang sa pananakit sa sarili at suporta, at sabihan ang mga emergency response personnel kapag naaangkop. Available ang mga mapagkukunang ibinabahagi namin sa pandaigdigang listahan ng mga mapagkukunan namin, at available sa publiko sa lahat ng Snapchatter.
Total Times Suicide Resources Shared
64,094
Mga Apela
Nagbibigay kami sa ibaba ng impormasyon tungkol sa mga apela na natanggap namin mula sa mga user na humihingi ng review ng desisyon naming i-lock ang account nila:
Policy Reason
Total Appeals
Total Reinstatements
Total Decisions Upheld
Median Turnaround Time (days) to Process Appeals
TOTAL
493,782
35,243
458,539
5
Sexual Content
162,363
6,257
156,106
4
Child Sexual Exploitation
102,585
15,318
87,267
6
Harassment and Bullying
53,200
442
52,758
7
Threats & Violence
4,238
83
4,155
5
Self-Harm & Suicide
31
1
30
5
False Information
3
0
3
<1
Impersonation
847
33
814
7
Spam
19,533
5,090
14,443
9
Drugs
133,478
7,598
125,880
4
Weapons
4,678
136
4,542
6
Other Regulated Goods
9,153
168
8,985
6
Hate Speech
3,541
114
3,427
7
Terrorism & Violent Extremism
132
3
129
9
Overview ng Rehiyon at Bansa
Naglalaan ang seksyong ito ng overview ng Trust & Safety na mga aksyon ng mga team namin para ipatupad ang Community Guidelines namin, nang parehong maagap at bilang tugon sa in-app na mga ulat sa mga paglabag, sa sampling ng mga heyograpikong rehiyon Nalalapat ang Community Guidelines namin sa lahat ng content sa Snapchat—at lahat ng Snapchatter—sa buong mundo, saanman ang location.
Ang impormasyon para sa indibidwal na mga bansa, kasama na ang lahat ng EU Member States, ay available para i-download sa pamamagitan ng nakalakip na CSV file.
Region
Total Enforcements
Total Unique Accounts Enforced
North America
3,828,389
2,117,048
Europe
2,807,070
1,735,054
Rest of World
3,396,651
1,846,110
Total
10,032,110
5,698,212
Region
Content & Account Reports
Total Enforcements
Total Unique Accounts Enforced
North America
5,916,815
2,229,465
1,391,304
Europe
5,781,317
2,085,109
1,378,883
Rest of World
7,681,716
2,031,934
1,319,934
Total
19,379,848
6,346,508
4,090,121
Total Enforcements
Total Unique Accounts Enforced
1,598,924
837,012
721,961
417,218
1,364,717
613,969
3,685,602
1,868,199
Pag-moderate ng Mga Ad
Committed ang Snap sa paninigurong ang lahat ng ad ay ganap na sumusunod sapolicies sa advertising namin. Naniniwala kami sa isang responsable at magalang na diskarte sa advertising, na gumagawa ng ligtas at kasiya-siyang karanasan para sa lahat ng user namin. Lahat ng ad ay sumasailalim sa review at pag-apruba namin. Bilang karagdagan, inilalaan namin ang karapatang tanggalin ang mga ad, kabilang ang bilang tugon sa feedback ng user, na sineseryoso namin.
Nagsama kami sa ibaba ng insight sa pag-moderate namin para sa mga binabayarang patalastas na nire-report sa amin kasunod ang kanilang publikasyon sa Snapchat. Tandaang pwedeng tanggalin ang mga ad sa Snapchat para sa iba't ibang dahilan gaya ng nakabalangkas sa Policies sa Advertising ng Snap, kabilang ang mapanlinlang na content, adult content, marahas o nakakagambalang content, mapoot na pananalita, at paglabag sa intellectual property. Bukod pa rito, mahahanap mo ang Gallery ng Mga Ad ng Snapchat sa navigation bar ng transparency report na ito.
Total Ads Reported
Total Ads Removed
43,098
17,833