Snap Values
รายงานความโปร่งใส
1 กรกฎาคม 2024 – 31 ธันวาคม 2024

เผยแพร่:

20 มิถุนายน 2025

อัปเดต:

1 กรกฎาคม 2025

เราเผยแพร่รายงานความโปร่งใสนี้ปีละสองครั้งเพื่อให้ข้อมูลเชิงลึกเกี่ยวกับความพยายามด้านความปลอดภัยของ Snapในฐานะส่วนหนึ่งของความมุ่งมั่นของเราที่มีต่อความปลอดภัยและความโปร่งใส เราพยายามอย่างต่อเนื่องที่จะทำให้รายงานเหล่านี้ครอบคลุมและให้ข้อมูลได้มากยิ่งขึ้นสำหรับผู้มีส่วนได้ส่วนเสียจำนวนมากที่ให้ความสำคัญอย่างยิ่งกับการกลั่นกรองเนื้อหาของเรา แนวทางการบังคับใช้กฎหมาย และความปลอดภัยและสวัสดิภาพของชุมชน Snapchat

รายงานนี้ครอบคลุมช่วงครึ่งหลังของปี 2024 (1 กรกฎาคม - 31 ธันวาคม)เราได้เปิดเผยข้อมูลทั่วโลกเกี่ยวกับรายงานที่ได้รับจากผู้ใช้ และการตรวจจับเชิงรุกโดย Snap รวมถึงการดำเนินการบังคับใช้กฎหมายโดยทีมงานความปลอดภัยของเราในหมวดหมู่เฉพาะของการละเมิดคู่มือของชุมชน ตลอดจนวิธีการที่เราตอบสนองต่อคำขอจากหน่วยงานบังคับใช้กฎหมายและรัฐบาล และวิธีการที่เราตอบสนองต่อการแจ้งเตือนการละเมิดลิขสิทธิ์และเครื่องหมายการค้านอกจากนี้ เรายังให้ข้อมูลเชิงลึกเฉพาะประเทศ ซึ่งอยู่ในชุดของหน้าเว็บที่เชื่อมโยง

หากต้องการค้นหาแหล่งข้อมูลเพิ่มเติมด้านความปลอดภัยและความเป็นส่วนตัวใน Snapchat โปรดดูแท็บ เกี่ยวกับการรายงานความโปร่งใส ของเราที่ด้านล่างของหน้านี้

โปรดทราบว่า รายงานความโปร่งใสฉบับล่าสุดคือฉบับภาษาอังกฤษ

ภาพรวมเกี่ยวกับการดำเนินการของทีมความน่าเชื่อถือและความปลอดภัยของเราในการบังคับใช้แนวทางปฏิบัติของชุมชนของเรา 

ทีมงานด้านความปลอดภัยของเราบังคับใช้คู่มือของชุมชน ทั้งในเชิงรุก (ผ่านการใช้เครื่องมือตรวจจับอัตโนมัติ) และเชิงรับ (เพื่อตอบสนองต่อรายงาน) ซึ่งจะมีการให้รายละเอียดเพิ่มเติมในส่วนถัดไปของรายงานฉบับนี้ในรอบการรายงานนี้ (ครึ่งหลังของปี 2024) ทีมงานความปลอดภัยของเราได้ดำเนินการบังคับใช้ดังนี้:

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

10,032,110

5,698,212

ด้านล่างนี้คือการแยกรายละเอียดตามประเภทของการละเมิดแนวทางปฏิบัติของชุมชนที่เกี่ยวข้อง รวมถึง "ระยะเวลาในการดำเนินการ" เฉลี่ยระหว่างเวลาที่เราตรวจพบการละเมิด (ไม่ว่าจะตรวจพบโดยเชิงรุกหรือเมื่อได้รับรายงาน) และเวลาที่เราดำเนินการขั้นสุดท้ายกับเนื้อหาหรือบัญชีที่เกี่ยวข้อง:

เหตุผลด้านนโยบาย

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

ระยะเวลาตอบสนองเฉลี่ย (นาที) นับจากการตรวจจับจนถึงการดำเนินการขั้นตอนสุดท้าย

เนื้อหาทางเพศ

3,860,331

2,099,512

2

การแสวงหาประโยชน์ทางเพศจากเด็ก

961,359

577,682

23

การคุกคามและการกลั่นแกล้ง

2,716,966

2,019,439

7

การข่มขู่และความรุนแรง

199,920

156,578

8

การทำร้ายตัวเองและการฆ่าตัวตาย

15,910

14,445

10

ข้อมูลที่เป็นเท็จ

6,539

6,176

1

การปลอมตัวเป็นผู้อื่น

8,798

8,575

2

สแปม

357,999

248,090

1

ยาเสพติด

1,113,629

718,952

6

อาวุธ

211,860

136,953

1

สินค้าควบคุมอื่นๆ

247,535

177,643

8

คำพูดสร้างความเกลียดชัง

324,478

272,025

27

การก่อการร้ายและแนวคิดสุดโต่งที่นิยมความรุนแรง

6,786

4,010

5

ในช่วงระยะเวลาการรายงานดังกล่าวนั้น เราเห็นอัตราการดูเนื้อหาที่ละเมิด (VVR) ที่ 0.01 เปอร์เซ็นต์ ซึ่งหมายความว่า จากทุกๆ 10,000 ครั้งของการดู Snap และเรื่องราวบน Snapchat มีเนื้อหา 4 รายการที่ละเมิดคู่มือของชุมชนของเรา

การละเมิดแนวทางปฏิบัติของชุมชนที่รายงานไปยังทีมความน่าเชื่อถือและความปลอดภัยของเรา

ตั้งแต่วันที่ 1 กรกฎาคม – 31 ธันวาคม 2024 ทีมงานความปลอดภัยของ Snap ได้ดำเนินการบังคับใช้กฎหมายทั่วโลกไปทั้งสิ้น 6,346,508 ครั้ง ซึ่งรวมถึงการบังคับใช้กับบัญชีผู้ใช้ที่ไม่ซ้ำกันจำนวน 4,075,838 บัญชี เพื่อตอบสนองต่อรายงานการละเมิดคู่มือของชุมชนของเราที่ได้รับผ่านทางแอปพลิเคชันเวลาตอบสนองเฉลี่ยสำหรับทีมงานความปลอดภัยของเราในการดำเนินการบังคับใช้กฎหมายเพื่อตอบสนองต่อรายงานเหล่านั้นคือ ~6 นาทีรายละเอียดการแบ่งตามหมวดหมู่การรายงานแสดงไว้ด้านล่างนี้

รายงานเนื้อหาและบัญชีทั้งหมด

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

19,379,848

6,346,508

4,075,838

เหตุผลด้านนโยบาย

รายงานเนื้อหาและบัญชี

การบังคับใช้ทั้งหมด

% ของรายงานทั้งหมดที่ถูกบังคับโดย Snap

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

ระยะเวลาตอบสนองเฉลี่ย (นาที) นับจากการตรวจจับจนถึงการดำเนินการขั้นตอนสุดท้าย

เนื้อหาทางเพศ

5,251,375

2,042,044

32.20%

1,387,749

4

การแสวงหาประโยชน์ทางเพศจากเด็ก

1,224,502

469,389

7.40%

393,384

133

การคุกคามและการกลั่นแกล้ง

6,377,555

2,702,024

42.60%

2,009,573

7

การข่มขู่และความรุนแรง

1,000,713

156,295

2.50%

129,077

8

การทำร้ายตัวเองและการฆ่าตัวตาย

307,660

15,149

0.20%

13,885

10

ข้อมูลที่เป็นเท็จ

536,886

6,454

0.10%

6,095

1

การปลอมตัวเป็นผู้อื่น

678,717

8,790

0.10%

8,569

2

สแปม

1,770,216

180,849

2.80%

140,267

1

ยาเสพติด

418,431

244,451

3.90%

159,452

23

อาวุธ

240,767

6,473

0.10%

5,252

1

สินค้าควบคุมอื่นๆ

606,882

199,255

3.10%

143,560

8

คำพูดสร้างความเกลียดชัง

768,705

314,134

4.90%

263,923

27

การก่อการร้ายและแนวคิดสุดโต่งที่นิยมความรุนแรง

197,439

1,201

<0.1%

1,093

4

เมื่อเทียบกับรอบการรายงานที่ผ่านมา เราสามารถลดระยะเวลาดำเนินการเฉลี่ยในทุกหมวดหมู่นโยบายลงได้เฉลี่ย 90%การลดระยะเวลาดำเนินการนี้ ส่วนใหญ่เป็นผลมาจากความพยายามร่วมกันในการขยายขีดความสามารถในการตรวจสอบของเรา รวมถึงการปรับปรุงการจัดลำดับความสำคัญของรายงานตามความรุนแรงของอันตรายที่เกิดขึ้นนอกจากนี้ ในรอบการรายงานที่ผ่านมา เรายังได้ทำการเปลี่ยนแปลงที่มุ่งเน้นเป้าหมายในหลายด้านเกี่ยวกับความพยายามด้านความปลอดภัย ซึ่งส่งผลต่อข้อมูลที่ปรากฏในรายงานฉบับนี้ รวมถึงการขยายความพยายามในการบังคับใช้กฎหมายกับบัญชีผู้ใช้ที่ใช้ชื่อผู้ใช้และชื่อแสดงที่ละเมิดคู่มือของชุมชน การเพิ่มช่องทางการรายงานและการป้องกันสำหรับชุมชนบน Snapchat และการเพิ่มทางเลือกในการรายงานสื่อประเภทอื่นๆ เช่น ข้อความเสียง (voicenotes) ส่งตรงถึงเราผ่านแอปพลิเคชัน

การเปลี่ยนแปลงเหล่านี้ รวมถึงความพยายามด้านความปลอดภัยอื่นๆ และปัจจัยภายนอก ส่งผลกระทบอย่างเห็นได้ชัดต่อนโยบายบางส่วนเมื่อเทียบกับช่วงการรายงานก่อนหน้านี้หมวดหมู่นโยบายเหล่านี้รวมถึง: เนื้อหาที่เกี่ยวข้องกับการล่วงละเมิดและแสวงหาประโยชน์ทางเพศจากเด็ก (CSEA) ที่ต้องสงสัย ข้อมูลเท็จที่เป็นอันตราย และสแปมดังต่อไปนี้:

  • CSEA: ในครึ่งหลังของปี 2024 เราพบว่า รายงานที่เกี่ยวข้องกับการแสวงหาผลประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) ลดลง 12% และเรายังสามารถลดระยะเวลาดำเนินการเฉลี่ยในการตอบสนองต่อรายงาน CSEA ลงได้ถึง 99%แนวโน้มเหล่านี้ส่วนใหญ่เป็นผลมาจากความก้าวหน้าอย่างต่อเนื่องในความพยายามตรวจจับเชิงรุกของเรา ซึ่งช่วยให้เราสามารถลบเนื้อหาเกี่ยวกับการแสวงหาผลประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) ออกได้ก่อนที่จะมีผู้รายงานเข้ามา นอกจากนี้ยังมาจากการปรับปรุงกระบวนการของเราในการตรวจสอบและดำเนินการกับรายงาน CSEA ได้อย่างมีประสิทธิภาพมากยิ่งขึ้นแม้ว่าจะมีการปรับปรุงเหล่านี้ แต่ระยะเวลาดำเนินการสำหรับการจัดการกับการแสวงหาผลประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) ของเรายังคงสูงกว่าในด้านนโยบายอื่นๆ เนื่องจากเนื้อหาประเภทนี้อยู่ภายใต้กระบวนการพิเศษที่รวมถึงการตรวจสอบซ้ำโดยทีมงานที่ได้รับการฝึกอบรมเฉพาะทางที่ได้รับการคัดเลือก

  • ข้อมูลเท็จที่เป็นอันตราย: เราพบว่าปริมาณรายงานที่เกี่ยวข้องกับข้อมูลเท็จที่เป็นอันตรายเพิ่มขึ้น 26% ซึ่งส่วนใหญ่เป็นผลมาจากเหตุการณ์ทางการเมือง รวมถึงการเลือกตั้งของสหรัฐฯ ในเดือนพฤศจิกายน 2024

  • สแปม: ในรอบการรายงานนี้ เราพบว่าการบังคับใช้ทั้งหมดลดลงประมาณ 50% และจำนวนบัญชีที่ไม่ซ้ำกันที่ถูกบังคับใช้กฎหมายเพื่อตอบสนองต่อรายงานสแปมที่น่าสงสัยลดลงประมาณ 46% ซึ่งสะท้อนให้เห็นถึงการปรับปรุงในเครื่องมือตรวจจับและบังคับใช้เชิงรุกของเรานี่เป็นความพยายามอย่างต่อเนื่องของเราในการจัดการกับสแปมโดยใช้สัญญาณจากบัญชีผู้ใช้ และกำจัดผู้ส่งสแปมออกจากแพลตฟอร์มได้เร็วขึ้นในช่วงที่พวกเขากำลังใช้งานความพยายามนี้ได้เริ่มดำเนินการมาตั้งแต่รอบการรายงานครั้งที่แล้ว ซึ่งส่งผลให้การบังคับใช้กฎหมายทั้งหมดและจำนวนบัญชีที่ไม่ซ้ำกันที่ถูกบังคับใช้กฎหมายสำหรับสแปมลดลงประมาณ 65% และ 60% ตามลำดับ

ความพยายามของเราในการตรวจจับและบังคับใช้กฎหมายในเชิงรุกต่อการละเมิดแนวทางปฏิบัติของชุมชนของเรา

การตรวจจับเชิงรุกและการบังคับใช้แนวทางปฏิบัติของชุมชนของเรา


เราใช้เครื่องมืออัตโนมัติเพื่อตรวจจับเชิงรุก และในบางกรณี ดำเนินการบังคับใช้กฎหมายกับการละเมิดคู่มือของชุมชนของเราเครื่องมือเหล่านี้ประกอบไปด้วยเทคโนโลยีจับคู่แฮช (ซึ่งรวมถึง PhotoDNA และ Child Sexual Abuse Imagery (CSAI) Match ของ Google), Google Content Safety API และเทคโนโลยีเฉพาะอื่นๆ ที่ออกแบบมาเพื่อตรวจจับข้อความและสื่อที่เป็นการละเมิด ซึ่งบางครั้งใช้จะประโยชน์จากปัญญาประดิษฐ์ (AI) และการเรียนรู้ของเครื่อง (Machine Learning)

ในครึ่งหลังของปี 2024 เราได้ดำเนินการบังคับใช้กฎหมายดังต่อไปนี้ หลังจากการตรวจจับการละเมิดคู่มือของชุมชนของเราในเชิงรุกโดยใช้เครื่องมือตรวจจับอัตโนมัติ:

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

3,685,602

1,845,125

เหตุผลด้านนโยบาย

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

ระยะเวลาตอบสนองเฉลี่ย (นาที) นับจากการตรวจจับจนถึงการดำเนินการขั้นตอนสุดท้าย

เนื้อหาทางเพศ

1,818,287

828,590

<1

การแสวงหาประโยชน์ทางเพศจากเด็ก

491,970

188,877

1

การคุกคามและการกลั่นแกล้ง

14,942

11,234

8

การข่มขู่และความรุนแรง

43,625

29,599

9

การทำร้ายตัวเองและการฆ่าตัวตาย

761

624

9

ข้อมูลที่เป็นเท็จ

85

81

10

การปลอมตัวเป็นผู้อื่น

8

6

19

สแปม

177,150

110,551

<1

ยาเสพติด

869,178

590,658

5

อาวุธ

205,387

133,079

<1

สินค้าควบคุมอื่นๆ

48,280

37,028

9

คำพูดสร้างความเกลียดชัง

10,344

8,683

10

การก่อการร้ายและแนวคิดสุดโต่งที่นิยมความรุนแรง

5,585

2,951

21

การต่อต้านการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก

การแสวงหาประโยชน์ทางเพศจากสมาชิกรายใดก็ตามของชุมชนของเราโดยเฉพาะผู้เยาว์นั้น ถือว่าเป็นสิ่งที่ผิดกฎหมาย น่ารังเกียจ และต้องห้ามตามคู่มือของชุมชนของเรา การป้องกัน การตรวจจับ และการกำจัดการแสวงหาประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) บนแพลตฟอร์มของเรานั้นคือความรับผิดชอบที่สำคัญที่สุดของ Snap และเราจะยังคงพัฒนาขีดความสามารถของเราอย่างต่อเนื่องในการต่อสู้กับการก่ออาชญากรรมประเภทนี้และอื่นๆ

เราใช้เครื่องมือตรวจจับทางเทคโนโลยีเชิงรุกเพื่อช่วยระบุเนื้อหาที่เกี่ยวข้องกับการแสวงหาผลประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA)เครื่องมือเหล่านี้ประกอบด้วยเครื่องมือจับคู่แฮช (เช่น PhotoDNA และ CSAI Match ของ Google ซึ่งใช้ระบุรูปภาพและวิดีโอ CSEA ที่ผิดกฎหมายที่รู้จักกันอยู่แล้ว) และ Google Content Safety API (เพื่อระบุรูปภาพที่ผิดกฎหมายแบบใหม่ "ที่ไม่เคยถูกแฮชมาก่อน")นอกจากนี้ ในบางกรณี เรายังใช้สัญญาณเชิงพฤติกรรมเพื่อบังคับใช้กับการกระทำที่ต้องสงสัยว่าเป็นการแสวงหาผลประโยชน์และการล่วงละเมิดทางเพศเด็ก (CSEA) อื่นๆ ด้วยเราจะรายงานเนื้อหาที่เกี่ยวข้องกับ CSEA ไปยังศูนย์เพื่อเด็กหายและถูกฉวยผลประโยชน์แห่งชาติของสหรัฐอเมริกา (NCMEC) ตามที่กฎหมายกำหนด จากนั้น NCMEC จะประสานงานกับหน่วยงานบังคับใช้กฎหมายทั้งในและต่างประเทศตามความจำเป็น

ในช่วงครึ่งหลังของปี 2024 เราได้ดำเนินการดังต่อไปนี้เมื่อตรวจพบ CSEA บน Snapchat (ไม่ว่าจะเป็นการตรวจพบในเชิงรุกหรือได้รับรายงาน):


เนื้อหาที่บังคับใช้รวมทั้งหมด

บัญชีทั้งหมดที่ถูกปิดการใช้งาน

จำนวนการส่งรายงานไปยัง NCMEC ทั้งหมด*

1,228,929

242,306

417,842

*หมายเหตุ การส่งรายงานแต่ละครั้งไปยัง NCMEC อาจมีเนื้อหามากกว่าหนึ่งชิ้น จำนวนสื่อแต่ละชิ้นที่ถูกส่งรายงานไปยัง NCMEC นั้นเท่ากันกับจำนวนเนื้อหาทั้งหมดที่บังคับใช้ของเรา

ความพยายามของเราในการจัดหาทรัพยากรและความช่วยเหลือให้แก่ Snapchatter ที่กำลังต้องการความช่วยเหลือ

Snapchat เพิ่มขีดความสามารถให้เพื่อนๆ สามารถช่วยเหลือกันในช่วงเวลาที่ยากลำบากได้ โดยการจัดหาทรัพยากรและการสนับสนุนสำหรับผู้ใช้ Snapchat ที่ต้องการความช่วยเหลือ

เครื่องมือค้นหา Here For You จะให้แหล่งข้อมูลจากผู้เชี่ยวชาญเมื่อผู้ใช้ค้นหาหัวข้อที่เกี่ยวข้องกับสุขภาพจิต ความวิตกกังวล ภาวะซึมเศร้า ความเครียด ความคิดฆ่าตัวตาย ความโศกเศร้า และการถูกกลั่นแกล้งนอกจากนี้ เรายังได้พัฒนา เพจ ที่เกี่ยวข้องกับการขู่กรรโชกทางเพศเพื่อเงิน ตลอดจนความเสี่ยงและอันตรายทางเพศอื่นๆ เพื่อพยายามที่จะช่วยเหลือผู้ที่ตกทุกข์ได้ยาก รายการแหล่งข้อมูลด้านความปลอดภัยทั่วโลก ของเราเปิดเผยต่อสาธารณะแก่ Snapchatter ทุกคนในศูนย์ความเป็นส่วนตัว ความปลอดภัย และนโยบายของเรา
เมื่อทีมงานด้านความปลอดภัยของเราทราบว่ามี Snapchatter กำลังประสบความทุกข์ พวกเขาจะมีความพร้อมในการให้ แหล่งข้อมูลสนับสนุนและป้องกันการทำร้ายตัวเอง และสามารถแจ้งบริการฉุกเฉินได้ตามความจำเป็นแหล่งข้อมูลที่เราแบ่งปันมีอยู่ใน รายการแหล่งข้อมูลด้านความปลอดภัยทั่วโลก ซึ่งแหล่งข้อมูลเหล่านี้เปิดเผยต่อสาธารณะแก่ Snapchatter ทุกคน

จำนวนครั้งทั้งหมดที่แหล่งข้อมูลการฆ่าตัวตายถูกแบ่งปัน

64,094

การอุทธรณ์

ด้านล่างนี้ เราได้ให้ข้อมูลเกี่ยวกับการอุทธรณ์ที่เราได้รับจากผู้ใช้ที่ร้องขอให้มีการทบทวนการตัดสินใจของเราในการล็อกบัญชีของพวกเขาในครึ่งหลังของปี 2024:

เหตุผลด้านนโยบาย

การอุทธรณ์ทั้งหมด

การคืนสถานะทั้งหมด

การตัดสินใจทั้งหมดที่ยึดถือ

เวลาตอบสนองเฉลี่ย (วัน) ในการดำเนินการอุทธรณ์

รวม

493,782

35,243

458,539

5

เนื้อหาทางเพศ

162,363

6,257

156,106

4

การแสวงหาประโยชน์ทางเพศจากเด็ก

102,585

15,318

87,267

6

การคุกคามและการกลั่นแกล้ง

53,200

442

52,758

7

การข่มขู่และความรุนแรง

4,238

83

4,155

5

การทำร้ายตัวเองและการฆ่าตัวตาย

31

1

30

5

ข้อมูลที่เป็นเท็จ

3

0

3

<1

การปลอมตัวเป็นผู้อื่น

847

33

814

7

สแปม

19,533

5,090

14,443

9

ยาเสพติด

133,478

7,598

125,880

4

อาวุธ

4,678

136

4,542

6

สินค้าควบคุมอื่นๆ

9,153

168

8,985

6

คำพูดสร้างความเกลียดชัง

3,541

114

3,427

7

การก่อการร้ายและแนวคิดสุดโต่งที่นิยมความรุนแรง

132

3

129

9

ภาพรวมระดับภูมิภาคและประเทศ

ส่วนนี้จะนำเสนอภาพรวมการดำเนินการของทีมงานความปลอดภัยของเราในการบังคับใช้คู่มือของชุมชน ทั้งในเชิงรุกและเพื่อตอบสนองต่อรายงานการละเมิดในแอป โดยจะมีการสุ่มตัวอย่างจากภูมิภาคทางภูมิศาสตร์ต่างๆคู่มือของชุมชนของเรามีผลบังคับใช้กับเนื้อหาทั้งหมดใน Snapchat และกับ Snapchatter ทุกรายทั่วโลกโดยไม่คำนึงถึงตำแหน่งที่ตั้ง

ข้อมูลสำหรับแต่ละประเทศ รวมถึงประเทศสมาชิกสหภาพยุโรปทั้งหมด พร้อมให้ดาวน์โหลดผ่านไฟล์ CSV ที่แนบมา


ภาพรวมการดำเนินการของทีมความปลอดภัยของเราในการบังคับใช้แนวทางปฏิบัติของชุมชนของเรา 

ภูมิภาค

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

อเมริกาเหนือ

3,828,389

2,117,048

ยุโรป

2,807,070

1,735,054

ส่วนอื่นของโลก

3,396,651

1,846,110

รวม

10,032,110

5,698,212

การละเมิดคู่มือของชุมชนที่รายงานไปยังทีมงานด้านความปลอดภัยของเรา

ภูมิภาค

รายงานเนื้อหาและบัญชี

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

อเมริกาเหนือ

5,916,815

2,229,465

1,391,304

ยุโรป

5,781,317

2,085,109

1,378,883

ส่วนอื่นของโลก

7,681,716

2,031,934

1,319,934

รวม

19,379,848

6,346,508

4,090,121

การตรวจจับเชิงรุกและการบังคับใช้แนวทางปฏิบัติของชุมชนของเรา

การบังคับใช้ทั้งหมด

บังคับใช้กับบัญชีที่ไม่ซ้ำกันรวมทั้งหมด

1,598,924

837,012

721,961

417,218

1,364,717

613,969

3,685,602

1,868,199

การคัดกรองโฆษณา

Snap มุ่งมั่นที่จะสร้างความมั่นใจว่าโฆษณาทั้งหมดสอดคล้องกับนโยบายการโฆษณาของเราโดยสมบูรณ์เราเชื่อมั่นในแนวทางการโฆษณาที่มีความรับผิดชอบเพื่อสร้างประสบการณ์ที่ปลอดภัยสำหรับ Snapchatter ทุกคนโฆษณาทั้งหมดอยู่ภายใต้การตรวจสอบและการอนุมัติของเรา นอกจากนี้ เราขอสงวนสิทธิ์ในการลบโฆษณา รวมทั้งในการตอบสนองต่อความคิดเห็นของผู้ใช้ ซึ่งเราให้ความสำคัญเป็นอย่างยิ่ง


ด้านล่างนี้คือข้อมูลเชิงลึกเกี่ยวกับการควบคุมโฆษณาแบบชำระเงินที่เราได้รับรายงานหลังจากการเผยแพร่บน Snapchatโปรดทราบว่าอาจมีการลบโฆษณาบน Snapchat ด้วยเหตุผลหลายประการตามที่ระบุในนโยบายการโฆษณาของ Snap ซึ่งรวมถึงเนื้อหาที่หลอกลวง เนื้อหาสำหรับผู้ใหญ่ เนื้อหาที่มีความรุนแรงหรือรบกวนจิตใจ คำพูดแสดงความเกลียดชัง และการละเมิดทรัพย์สินทางปัญญานอกจากนี้ ขณะนี้คุณสามารถค้นหา แกลอรี่โฆษณาของ Snapchat ในศูนย์ความโปร่งใสของ Snap ซึ่งสามารถเข้าถึงได้โดยตรงจากแถบการนำทาง

จำนวนโฆษณาทั้งหมดที่ได้รับการรายงาน

จำนวนโฆษณาทั้งหมดที่ถูกลบไป

43,098

17,833