Snap Values
Transparency Report
Enero 1, 2024 – Hunyo 30, 2024

Ni-release:

Disyembre 05, 2024

In-update:

Disyembre 05, 2024

Pina-publish namin ang transparency report na ito dalawang beses isang taon para magbigay ng insight sa mga pagsisikap sa kaligtasan ng Snap. Nakatuon kami sa mga pagsisikap na ito at patuloy na nagsisikap na gawing mas komprehensibo at nagbibigay-kaalaman ang mga report na ito para sa maraming stakeholder na lubos na nagmamalasakit sa pagmo-moderate ng content namin, mga kasanayan sa pagpapatupad ng batas, at ang kaligtasan at kagalingan ng komunidad ng Snapchat.

Sinasaklaw ng Transparency Report na ito ang unang kalahati ng 2024 (Enero 1 - Hunyo 30). Tulad ng mga nakaraang report namin, nagse-share kami ng data tungkol sa pandaigdigang volume ng in-app na content at mga report sa antas ng account na natanggap at ipinatupad ng mga team namin ng Trust & Safety sa mga partikular na kategorya ng mga paglabag sa Community Guidelines; kung paano kami tumugon sa mga kahilingan mula sa tagapagpatupad ng batas at mga pamahalaan; at paano kami tumugon sa mga abiso ng copyright ang paglabag sa trademark. Nagbibigay rin kami ng insights na partikular sa bansa sa mga file na naka-link sa ibaba ng pahinang ito.

Bilang bahagi ng patuloy na pangako naming patuloy na pagbutihin ang mga transparency report namin, ipinapakilala rin namin ang bagong data na nagha-highlight sa mga maagap na pagsisikap naming ma-detect at magpatupad laban sa mas malawak na hanay ng mga paglabag ng Community Guidelines namin. Isinama namin ang data na ito sa parehong antas ng pandaigdigan at bansa sa loob ng ulat na ito at patuloy naming gagawin ito sa hinaharap. Naitama rin namin ang isang error sa pag-label sa mga nakaraang report namin: kung saan tinukoy namin dati ang "Kabuuang Nilalamang Ipinapatupad", na tinutukoy namin ngayong “Mga Kabuuang Pagpapatupad” para ipakita ang katotohanang ang data na ibinigay sa mga nauugnay na column ay kinabibilangan ng pagpapatupad ng parehong antas ng content at mga antas ng account.

Para sa higit pang impormasyon tungkol sa mga patakaran namin para sa paglaban sa mga potensyal na online na pinsala, at mga planong magpatuloy ang pagbabago sa mga kasanayan namin sa pagre-report, pakibasa ang kamakailan namingblog sa Safety & Impact tungkol sa Transparency Report na ito. Para maghanap ng mga karagdagang mapagkukunan sa kaligtasan at privacy sa Snapchat, tingnan ang aming tab na Tungkol sa Transparency Reporting sa ibaba ng pahina.

Pakitandaang ang pinaka-up-to-date na bersyon ng Transparency Report na ito ay matatagpuan sa EN-US locale.

Pangkalahatang-ideya ng Mga Aksyon ng Mga Team ng Trust & Safety para Ipatupad ang Community Guidelines namin

Ipinapatupad ng mga team namin ng Trust & Safety ang Community Guidelines namin nang parehong maagap (sa pamamagitan ng paggamit ng mga automated na tool) at nang reaktibo (bilang tugon sa mga report), gaya ng higit pang pagdedetalye sa mga sumusunod na seksyon ng report na ito. Sa cycle na pagre-report na ito (H1 2024), ginawa ng mga team namin ng Trust & Safety ang sumusunod na seksyon sa pagpapatupad.

Total Enforcements

Total Unique Accounts Enforced

10,032,110

5,698,212

Nasa ibaba ang isang breakdown sa bawat uri ng mga nauugnay na paglabag sa Mga Alituntunin ng Komunidad, kabilang ang median na oras ng turnaround sa pagitan ng oras na natukoy namin ang paglabag (alinman sa maagap o pagkatanggap ng isang ulat) at ang oras na gumawa kami ng panghuling aksyon sa nauugnay na nilalaman o account:

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

3,860,331

2,099,512

2

Child Sexual Exploitation

961,359

577,682

23

Harassment and Bullying

2,716,966

2,019,439

7

Threats & Violence

199,920

156,578

8

Self-Harm & Suicide

15,910

14,445

10

False Information

6,539

6,176

1

Impersonation

8,798

8,575

2

Spam

357,999

248,090

1

Drugs

1,113,629

718,952

6

Weapons

211,860

136,953

1

Other Regulated Goods

247,535

177,643

8

Hate Speech

324,478

272,025

27

Terrorism & Violent Extremism

6,786

4,010

5

Sa panahon ng pagre-report, nakakita kami ng Violative View Rate (VVR) na 0.01 porsyento, na nangangahulugang sa bawat 10,000 na mga pag-view sa Snap at Story sa Snapchat, 1 ang naglalaman ng content na lumalabag sa Community Guidelines namin.

Mga Paglabag sa Community Guidelines na Iniulat sa Trust & Safety Teams Namin

Mula Enero 1 - Hunyo 30, 2024, bilang tugon sa in-app na mga ulat ng mga paglabag ng Community Guidelines namin, ang mga team ng Trust & Safety ng Snap ay nagsagawa ng 6,223,618 na pagpapatupad sa buong mundo, kabilang ang mga pagpapatupad laban sa 3,842,507 natatanging account. Ang median na turnaround na oras para sa mga team ng Trust & Safety ng Snap namin para magsagawa ng aksyon sa pagpapatupad bilang tugon sa mga ulat na iyon ay ~ 24 na minuto. Nagbigay sa ibaba ng breakdown kada kategorya sa pag-uulat.

Total Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

19,379,848

6,346,508

4,075,838

Policy Reason

Content & Account Reports

Total Enforcements

% of the Total Reports Enforced by Snap

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

5,251,375

2,042,044

32.20%

1,387,749

4

Child Sexual Exploitation

1,224,502

469,389

7.40%

393,384

133

Harassment and Bullying

6,377,555

2,702,024

42.60%

2,009,573

7

Threats & Violence

1,000,713

156,295

2.50%

129,077

8

Self-Harm & Suicide

307,660

15,149

0.20%

13,885

10

False Information

536,886

6,454

0.10%

6,095

1

Impersonation

678,717

8,790

0.10%

8,569

2

Spam

1,770,216

180,849

2.80%

140,267

1

Drugs

418,431

244,451

3.90%

159,452

23

Weapons

240,767

6,473

0.10%

5,252

1

Other Regulated Goods

606,882

199,255

3.10%

143,560

8

Hate Speech

768,705

314,134

4.90%

263,923

27

Terrorism & Violent Extremism

197,439

1,201

<0.1%

1,093

4

Ang kabuuang dami ng pagre-report namin ay nanatiling medyo matatag sa H1 2024, kumpara sa nakaraang anim na buwan. Ang cycle na ito, nakakita kami ng pagtaas sa kabuuang mga pagpapatupad at kabuuang mga natatanging account na ipinapatupad ng humigit-kumulang 16%.

Sa nakalipas na 12 buwan, ipinakilala ng Snap ang mga bagong mekanismo sa pagre-report para sa mga user, na tumutukoy para sa mga pagbabago sa ni-report namin at ipinapatupad na dami at para sa mga pagtaas sa mga oras ng turnaround sa panahon ng pagre-report na ito (H1 2024). Partikular:

  • Pagre-report sa Group Chat: Ipinakilala namin ang Pagre-report sa Group Chat noong Oktubre 13, 2023, na nagbibigay-daan sa mga user na i-report ang pang-aabusong nagaganap sa multi-person na chat. Naapektuhan ng pagbabagong ito ang makeup ng metrics namin sa mga kategorya ng pagre-report (dahil ang ilang potensyal na pinsala ay mas malamang na mangyari sa konteksto ng chat) at tumaas na kakayahang maaksyunan ng report.

  • Mga Pagpapahusay sa Pagre-report ng Account: Binago rin namin ang feature namin ng Pagre-report ng Account para bigyan ang mga nagre-report na user ng opsyon para mag-submit ng ebidensya ng chat kapag nagre-report ng account na pinaghihinalaang pinapatakbo ng hindi magandang aktor. Ang pagbabagong ito, na nagbibigay sa amin ng higit na katibayan at konteksto para i-assess ang mga report ng account, na inilunsad noong Pebrero 29, 2024.


Ang Mga Report sa Chat, lalo na ang Mga Report sa Group Chat, ay kabilang sa mga pinakakumplikado at nakakaubos ng oras na i-review, na nagpataas sa mga oras ng turnaround across the board.

Ang pagre-report para sa pinaghihinalaang Child Sexual Exploitation & Abuse (CSEA), Pangha-harass at Bullying, at Mapoot na Pananalita ay partikular na naapektuhan ng dalawang pagbabagong inilarawan sa itaas, at sa pamamagitan ng mga pagbabago sa mas broad na ecosystem. Partikular:

  • CSEA: Nakapansin kami ng pagtaas ng mga ulat at pagpapatupad na nauugnay sa CSEA noong H1 2024. Sa partikular, nakakita kami ng 64% pagtaas sa kabuuang in-app na mga report ng mga user, 82% pagtaas sa kabuuang pagpapatupad, at 108% pagtaas sa kabuuang mga natatanging account na ipinatupad. Ang mga pagtaas na ito halos lahat at hinihimok ng pagpapakilala ng mga functionality ng Group Chat at Pagre-report sa Account Dahil sa sensitibong katangian ng queue ng pagmo-moderate na ito, piling team ng mga lubos na sinanay na agent ang itinalaga para i-review ang mga report ng mga potensyal na paglabag na nauugnay sa CSEA. Ang pagdagsa ng mga karagdagang report na isinama sa mga team naming nag-a-adapt sa mga bagong pagsasanay ay nagreresulta sa pagtaas ng mga oras ng turnaround. Sa pagsulong, pinalaki namin nang husto ang sukat ng mga team ng pandaigdigang vendor namin para bawasan ang mga oras ng turnaround at tumpak na ipatupad sa mga report ng potensyal na CSEA. Inaasahan naming ipapakita ng H1 2024 na Transparency Report ang mga bunga ng pagsisikap na itong may materyal na pinahusay na oras ng turnaround.

  • Pangha-harass at Bullying: Batay sa mga report, napagmasdan naming ang Pangha-harass at Bullying ay hindi pantay na nangyayari sa mga chat, at partikular sa mga group chat. Ang mga pagpapahusay na ipinakilala namin sa Pagre-report sa Group Chat at Pagre-report sa Account ay nakakatulong sa aming kumilos ng mas komprehensibo kapag ina-assess ang mga report sa kategorya ng pagre-report na ito. Bukod pa rito, sa panahong ito, hinihiling namin sa mga user na mag-input ng komento kapag nagsa-submit ng report ng pangha-harass at bullying. Nire-review namin ang komentong ito para isakonteksto ang bawat report. Sama-sama, ang mga pagbabagong ito ay humantong sa mga pagtaas ng materyal sa kabuuang mga pagpapatupad (91%), kabuuang mga natatanging account na ipinatupad (+82%), at oras ng turnaround (+245 mins) para sa mga kaukulang report.

  • Mapoot na Pananalita: Sa H1 2024, nakapansin kami ng mga pagtaas sa ni-report na content, mga kabuuang pagpapatupad, at oras ng turnaround para sa Mapoot na Pananalita. Sa partikular, nakakita kami ng 61% pagtaas sa mga in-app na report, 127% pagtaas sa kabuuang mga pagpapatupad, at 125% pagtaas sa kabuuang mga natatangiang account na ipinatupad. Dahil ito, sa bahagi, sa mga pagppapahusay sa mga mekanismo sa pagre-report sa chat (tulad ng naunang tinalakay), at pinalala pa ng geopolitical na kapaligiran, sa partikular, ang pagpapatuloy ng tunggalian ng Israel-Hamas.

Sa panahon ng pagre-report na ito, nakakita kami ng ~65% pagbaba sa kabuuang mga pagpapatupad at ~60% pagbaba sa kabuuang mga natatanging account na ipinatupad bilang tugon sa mga report ng pinaghihinalaang Spam at Pang-aabuso, na nagpapakita ng mga pagpapahusay sa maaagap na pag-detect at mga tool sa pagpapatupad namin. Nakakita kami ng mga katulad na pagtanggi sa kabuuang mga pagpapatupad bilang tugon sa mga report ng content na may kaugnayan sa Pananakit sa Sarili at Pagpapakamatay (~80% pagbaba), na nagpapakita ng na-update na victim-centric approach namin, ayon sa kung saan ang Trust & Safety team namin ay, sa mga naaangkop na kaso, magse-send sa mga may katuturang mapagkukunan ng tulong sa sarili ng mga user, sa halip na gumawa ng aksyon ng pagpapatupad laban sa mga user na iyon. Ang diskarteng ito ay ipinaalam ng mga miyembro ng Safety Advisory Board namin, kasama ng propesor ng pediatric at medikal na doktor na dalubhasa sa interactive na media at internet disorder.

Ang Mga Pagsisikap Naming Maagap na Ma-detect at Maipatupad Laban sa Mga Paglabag ng Community Guidelines Namin

Maagap na Pag-detect at Pagpapatupad ng Community Guidelines namin


Nagde-deploy kami ng mga automated na tool para maagap na mag-detect at, sa ilang kaso, magpatupad laban sa mga paglabag sa Community Guidelines namin. Kasama sa mga tool na ito ang mga tool sa pagtutugma ng hash (kabilang ang PhotoDNA at Google Child Sexual Abuse Imagery (CSAI) na Tugma), mga tool sa pag-detect ng mapang-abusong wika (na nagde-detect at nagpapatupad batay sa natukoy at regular na na-update na listahan ng mga mapang-abusong keyword at emoji), at multi-modal artificial intelligence / machine learning technology.

Noong H1 2024, isinagawa namin ang mga sumusunod na aksyon sa pagpapatupad pagkapatos ng maagap na pag-detect, sa pamamagitan ng paggamit sa mga automated na tool, paglabag sa Community Guidelines namin.

Total Enforcements

Total Unique Accounts Enforced

3,685,602

1,845,125

Policy Reason

Total Enforcements

Total Unique Accounts Enforced

Median Turnaround Time (minutes) From Detection To Final Action

Sexual Content

1,818,287

828,590

<1

Child Sexual Exploitation

491,970

188,877

1

Harassment and Bullying

14,942

11,234

8

Threats & Violence

43,625

29,599

9

Self-Harm & Suicide

761

624

9

False Information

85

81

10

Impersonation

8

6

19

Spam

177,150

110,551

<1

Drugs

869,178

590,658

5

Weapons

205,387

133,079

<1

Other Regulated Goods

48,280

37,028

9

Hate Speech

10,344

8,683

10

Terrorism & Violent Extremism

5,585

2,951

21

Paglaban sa Sekswal na Pagsasamantala & Pang-aabuso sa Bata

Ang seksuwal na pagsasamantala ng sinumang miyembro ng aming komunidad, lalo na ang mga menor de edad, ay ilegal, kasuklam-suklam, at ipinagbabawal ng aming Community Guidelines. Pangunahing priyoridad ang pagpigil, pag-detect, at pagtanggal ng Child Sexual Exploitation and Abuse (CSEA) sa aming platform para sa Snap, at patuloy naming binabago ang aming mga kakayahan para labanan ang mga ito at iba pang mga krimen.

Gumagamit kami ng mga aktibong tool sa pag-detect ng teknolohiya, tulad ng PhotoDNA robust hash-matching at Child Sexual Abuse Imagery (CSAI) na Tugma ng Google para matukoy ang mga kilalang ilegal na imahe at video ng CSEA, ayon sa pagkakabanggit. Bilang karagdagan, sa ilang kaso, gumagamit kami ng mga signal ng pag-uugali para ipatupad laban sa iba pang potensyal na ilegal na aktibidad ng CSEA. Nagre-report kami ng kaugnay sa CSEA na content sa National Center for Missing and Exploited Children (NCMEC) ng U.S., ayon sa hinihingi ng batas. Ang NCMEC naman ay nakikipag-coordinate sa lokal o internasyonal na pagpapatupad ng batas, ayon sa kinakailangan.

Sa unang kalahati ng 2024, ginawa namin ang mga sumusunod na pagkilos sa pag-detect sa CSEA sa Snapchat (maagap man o kapag nakatanggap ng report):

Total Content Enforced

Total Accounts Disabled

Total Submissions to NCMEC*

1,228,929

242,306

417,842

*Note that each submission to NCMEC can contain multiple pieces of content. The total individual pieces of media submitted to NCMEC is equal to our total content enforced.

Ang Mga Pagsisikap Naming Magbigay ng Mga Mapagkukunan at Support sa Mga Snapchatter na Nangangailangan

Lubos kaming nagmamalasakit sa kalusugan sa pag-iisip at sa kapakanan ng Mga Snapchatter, na patuloy na nagpapaalam sa mga desisyon naming bumuo ng Snapchat sa ibang paraan. Bilang platapormang dinisenyo para sa mga pakikipag-ugnayan sa mga tunay na kaibigan, naniniwala kaming pwedeng gumanap ang Snapchat ng natatanging role sa pagbibigay-kakayahan sa magkakaibigang na tulungan ang isa't-isang malagpasan ang mga mahihirap na sandali. Ito ang dahilan kung bakit kami bumuo ng mga mapagkukunan at support para sa Mga Snapchatter na nangangailangan.

Ang Here For You na search tool namin ay nagpapakita ng mga mapagkukunan mula sa mga ekspertong lokal na partner kapag naghahanap ang mga user ng ilang partikular na paksang nauugnay sa kalusugan ng pag-iisip, pagkabalisa, depresyon, stress, mga pag-iisip ng pagpapakamatay, kalungkutan at bullying. Mayroon din kaming ginawang pahina na nakatuon sa sextortion sa pananalapi at iba pang mga panganib at pinsalang sekswal, sa pagsisikap na suportahan ang mga nasa kagipitan. Ang pandaigdigang listahan ng mga mapagkukunan sa kaligtasan ay available sa publiko sa lahat ng Snapchatter, sa Privacy, Safety at Policy Hub namin.

Kapag nalaman ng Trust & Safety team naming nasa kagipitan ang isang Snapchatter, pwede silang mag-forward ng mga mapagkukunan sa paghadlang sa pananakit sa sarili at suporta, at sabihan ang mga emergency response personnel kapag naaangkop. Available ang mga mapagkukunang ibinabahagi namin sa pandaigdigang listahan ng mga mapagkukunan namin, at available sa publiko sa lahat ng Snapchatter.

Total Times Suicide Resources Shared

64,094

Mga Apela

Nagbibigay kami sa ibaba ng impormasyon tungkol sa mga apela na natanggap namin mula sa mga user na humihingi ng review ng desisyon naming i-lock ang account nila:

Policy Reason

Total Appeals

Total Reinstatements

Total Decisions Upheld

Median Turnaround Time (days) to Process Appeals

TOTAL

493,782

35,243

458,539

5

Sexual Content

162,363

6,257

156,106

4

Child Sexual Exploitation

102,585

15,318

87,267

6

Harassment and Bullying

53,200

442

52,758

7

Threats & Violence

4,238

83

4,155

5

Self-Harm & Suicide

31

1

30

5

False Information

3

0

3

<1

Impersonation

847

33

814

7

Spam

19,533

5,090

14,443

9

Drugs

133,478

7,598

125,880

4

Weapons

4,678

136

4,542

6

Other Regulated Goods

9,153

168

8,985

6

Hate Speech

3,541

114

3,427

7

Terrorism & Violent Extremism

132

3

129

9

Overview ng Rehiyon at Bansa

Naglalaan ang seksyong ito ng overview ng Trust & Safety na mga aksyon ng mga team namin para ipatupad ang Community Guidelines namin, nang parehong maagap at bilang tugon sa in-app na mga ulat sa mga paglabag, sa sampling ng mga heyograpikong rehiyon Nalalapat ang Community Guidelines namin sa lahat ng content sa Snapchat—at lahat ng Snapchatter—sa buong mundo, saanman ang location.

Ang impormasyon para sa indibidwal na mga bansa, kasama na ang lahat ng EU Member States, ay available para i-download sa pamamagitan ng nakalakip na CSV file.

Pangkalahatang-ideya ng mga Aksyon ng Trust & Safety Teams namin para Ipatupad ang aming Community Guidelines

Region

Total Enforcements

Total Unique Accounts Enforced

North America

3,828,389

2,117,048

Europe

2,807,070

1,735,054

Rest of World

3,396,651

1,846,110

Total

10,032,110

5,698,212

Mga Paglabag sa Community Guidelines na Iniulat sa Trust & Safety Teams namin

Region

Content & Account Reports

Total Enforcements

Total Unique Accounts Enforced

North America

5,916,815

2,229,465

1,391,304

Europe

5,781,317

2,085,109

1,378,883

Rest of World

7,681,716

2,031,934

1,319,934

Total

19,379,848

6,346,508

4,090,121

Maagap na Pag-detect at Pagpapatupad ng Community Guidelines namin

Total Enforcements

Total Unique Accounts Enforced

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

Pag-moderate ng Mga Ad

Committed ang Snap sa paninigurong ang lahat ng ad ay ganap na sumusunod sapolicies sa advertising namin. Naniniwala kami sa isang responsable at magalang na diskarte sa advertising, na gumagawa ng ligtas at kasiya-siyang karanasan para sa lahat ng user namin. Lahat ng ad ay sumasailalim sa review at pag-apruba namin. Bilang karagdagan, inilalaan namin ang karapatang tanggalin ang mga ad, kabilang ang bilang tugon sa feedback ng user, na sineseryoso namin.


Nagsama kami sa ibaba ng insight sa pag-moderate namin para sa mga binabayarang patalastas na nire-report sa amin kasunod ang kanilang publikasyon sa Snapchat. Tandaang pwedeng tanggalin ang mga ad sa Snapchat para sa iba't ibang dahilan gaya ng nakabalangkas sa Policies sa Advertising ng Snap, kabilang ang mapanlinlang na content, adult content, marahas o nakakagambalang content, mapoot na pananalita, at paglabag sa intellectual property. Bukod pa rito, mahahanap mo ang Gallery ng Mga Ad ng Snapchat sa navigation bar ng transparency report na ito.

Total Ads Reported

Total Ads Removed

43,098

17,833

Mga Kahilingan sa Pag-alis ng Pamahalaan at Intellectual Property

Tungkol sa Transparency Reporting

Glossary ng Transparency Report