Snap Values
पारदर्शिता रिपोर्ट
1 जनवरी, 2025 – 30 जून, 2025

जारी की गई:

1 दिसंबर, 2025

अपडेट की गई:

1 दिसंबर, 2025

हम यह पारदर्शिता रिपोर्ट साल में दो बार प्रकाशित करते हैं, ताकि Snap की सुरक्षा संबंधी पहलों की जानकारी साझा की जा सके। सुरक्षा और पारदर्शिता के प्रति हमारी प्रतिबद्धता के तहत, हम लगातार कोशिश करते हैं कि ये रिपोर्टें और भी व्यापक और जानकारीपूर्ण हों, ताकि वे उन सभी हितधारकों के लिए उपयोगी बन सकें जो हमारे कॉन्टेंट मॉडरेशन, कानून प्रवर्तन प्रक्रियाओं और Snapchat कम्यूनिटी की सुरक्षा और भलाई को लेकर गंभीर हैं।

यह पारदर्शिता रिपोर्ट 2025 की पहली छमाही (1 जनवरी - 30 जून) को कवर करती है। हम यूज़र्स द्वारा की गई रिपोर्ट और Snap द्वारा सक्रिय पहचान; कम्युनिटी दिशानिर्देश के उल्लंघन की विशिष्ट कैटेगरी में हमारी सुरक्षा टीमों द्वारा किए गए प्रवर्तन; हमने कानून प्रवर्तन और सरकारों के अनुरोधों का कैसे जवाब दिया; और हमने कॉपीराइट और ट्रेडमार्क उल्लंघन के नोटिसों का कैसे जवाब दिया, के बारे में वैश्विक डेटा साझा करते हैं। हम लिंक किए गए पेजों की एक सीरीज़ में देश-विशिष्ट जानकारी भी प्रदान करते हैं।

Snapchat पर सुरक्षा एवं गोपनीयता के अतिरिक्त संसाधनों के बारे में जानने के लिए, हमारा पारदर्शिता रिपोर्टिंग के बारे में देखें, जो इस पृष्ठ के निचले हिस्से में उपलब्ध है।

कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण अंग्रेजी संस्करण है।

हमारे कम्युनिटी दिशानिर्देश को लागू करने के लिए हमारे ट्रस्ट और सुरक्षा टीमों की कार्रवाइयों का अवलोकन

हमारी सुरक्षा टीमें हमारे कम्युनिटी दिशानिर्देशों को सक्रिय रूप से (स्वचालित पहचान उपकरणों के उपयोग के माध्यम से) और प्रतिक्रियात्मक रूप से (रिपोर्टों के जवाब में), लागू करती हैं, जैसा कि इस रिपोर्ट के निम्नलिखित अनुभागों में विस्तार से बताया गया है। इस रिपोर्टिंग चक्र (H1 2025) में, हमारी सुरक्षा टीमों ने निम्नलिखित संख्या में प्रवर्तन कार्रवाइयाँ कीं:

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

96,74,414

57,94,201

नीचे हर प्रकार के कम्युनिटी दिशानिर्देशों के उल्लंघन का विवरण दिया गया है, जिसमें उल्लंघन का पता लगाने के समय (सक्रिय रूप से या रिपोर्ट प्राप्त होने पर) और प्रासंगिक सामग्री या अकाउंट पर अंतिम कार्रवाई करने के बीच का “टर्नअराउंड टाइम” का औसत मध्य मान शामिल है:

नीति कारण

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)

यौन कॉन्टेंट

54,61,419

32,33,077

1

बाल यौन शोषण तथा दुर्व्यवहार

10,95,424

7,33,106

5

उत्पीड़न और धमकाना

7,13,448

5,94,302

3

धमकी और हिंसा

1,87,653

1,46,564

3

आत्म-हानि और आत्महत्या

47,643

41,216

5

झूठी जानकारी

2,088

2,004

1

प्रतिरूपण

7,138

6,881

<1

स्पैम

2,67,299

1,89,344

1

ड्रग्स

10,95,765

7,26,251

7

हथियार

2,51,243

1,73,381

1

अन्य विनियमित सामान

1,83,236

1,26,952

4

घृणास्पद भाषा

3,43,051

2,84,817

6

आतंकवाद और हिंसक उग्रवाद

10,970

6,783

2

कुल प्रवर्तन डेटा में वे प्रवर्तन शामिल हैं जो Snap द्वारा Snapchat के माध्यम से भेजी गई इन-ऐप रिपोर्टों की समीक्षा करने के बाद लिए जाते हैं। यह Snap की सेफ्टी टीमों द्वारा किए गए ज़्यादातर प्रवर्तनों को दिखाता है। यह संख्या उन अधिकांश प्रवर्तनों को शामिल नहीं करती जो हमारी सपोर्ट साइट या अन्य माध्यमों (जैसे ईमेल) के ज़रिए Snap को दी गई रिपोर्टों के आधार पर की गई जांचों के परिणामस्वरूप किए जाते हैं, या जो हमारी सेफ्टी टीमों द्वारा की गई कुछ सक्रिय जांचों के कारण होते हैं। ये हटाए गए प्रवर्तन, 2025 की पहली छमाही में प्रवर्तन मात्रा के 0.5% से भी कम थे।

रिपोर्टिंग अवधि के दौरान, हमने 0.01 प्रतिशत की विओलेटिव व्यू रेट (VVR) देखा, जिसका मतलब है कि Snapchat पर हमारे कुल 10,000 Snap और स्टोरी के व्यू में से 1 कॉन्टेंट ऐसा था जो हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करता था। जिन प्रवर्तनों को हम “गंभीर नुकसान” मानते हैं, उनमें हमने 0.0003% VVR देखा। पॉलिसी के कारण के आधार पर VVR का विवरण नीचे दी गई तालिका में दिया गया है।

नीति कारण

VVR

यौन कॉन्टेंट

0.00482%

बाल यौन शोषण तथा दुर्व्यवहार

0.00096%

उत्पीड़न और धमकाना

0.00099%

धमकी और हिंसा

0.00176%

आत्म-हानि और आत्महत्या

0.00009%

झूठी जानकारी

0.00002%

प्रतिरूपण

0.00009%

स्पैम

0.00060%

ड्रग्स

0.00047%

हथियार

0.00083%

अन्य विनियमित सामान

0.00104%

घृणास्पद भाषा

0.00025%

आतंकवाद और हिंसक उग्रवाद

0.00002%

कम्युनिटी दिशानिर्देश के लिए हमारी ट्रस्ट और सेफ़्टी टीम को रिपोर्ट किए गए उल्लंघन

1 जनवरी से 30 जून, 2025 तक, हमारे कम्युनिटी दिशानिर्देश के उल्लंघन से संबंधित 1,97,66,324 इन-ऐप रिपोर्टों के जवाब में, Snap की सुरक्षा टीमों ने वैश्विक स्तर पर कुल 62,78,446 प्रवर्तन कार्रवाइयाँ कीं, जिनमें 41,04,624 विशिष्ट खातों के खिलाफ की गई कार्रवाइयाँ भी शामिल हैं। इस इन-ऐप रिपोर्टिंग मात्रा में सपोर्ट साइट और ईमेल रिपोर्ट शामिल नहीं हैं, जो कुल रिपोर्टिंग मात्रा के 1% से भी कम हैं। इन रिपोर्टों के आधार पर हमारी सुरक्षा टीमों द्वारा कार्रवाई करने में जो औसत समय लगा, वह लगभग 2 मिनट था। पॉलिसी के कारण के हिसाब से विवरण नीचे दिया गया है। (नोट: पिछली रिपोर्टों में, हम कभी-कभी इसे "रिपोर्टिंग श्रेणी" के रूप में संदर्भित करते थे। आगे चलकर, हम “पॉलिसी का कारण” शब्द का उपयोग कर रहे हैं, क्योंकि हमें लगता है कि यह डेटा की प्रकृति को अधिक सटीक रूप से दर्शाता है — क्योंकि हमारी सुरक्षा टीमें रिपोर्ट जमा करने वाले व्यक्ति द्वारा बताई गई रिपोर्टिंग श्रेणी के बावजूद, उचित पॉलिसी कारण के अनुसार प्रवर्तन करने का प्रयास करती हैं।)


कुल कॉन्टेंट और अकाउंट रिपोर्ट

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

कुल

1,97,66,324

62,78,446

41,04,624

नीति कारण

कुल कॉन्टेंट और अकाउंट रिपोर्ट

लागू की गई कुल कार्रवाइयां

Snap द्वारा लागू की गई कुल रिपोर्ट का प्रतिशत

कार्रवाई किए गए कुल विशिष्ट अकाउंट

पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)

यौन कॉन्टेंट

73,15,730

37,78,370

60.2%

24,63,464

1

बाल यौन शोषण तथा दुर्व्यवहार

16,27,097

6,95,679

11.1%

5,77,736

10

उत्पीड़न और बदमाशी

41,03,797

7,00,731

11.2%

5,84,762

3

धमकी और हिंसा

9,97,346

1,47,162

2.3%

1,20,397

2

आत्म-हानि और आत्महत्या

3,50,775

41,150

0.7%

36,657

3

झूठी जानकारी

6,06,979

2,027

0.0%

1,960

1

प्रतिरूपण

7,45,874

7,086

0.1%

6,837

<1

स्पैम

17,09,559

1,22,499

2.0%

94,837

1

ड्रग्स

4,81,830

2,62,962

4.2%

1,76,799

5

हथियार

2,71,586

39,366

०.६%

32,316

1

अन्य विनियमित सामान

5,30,449

1,43,098

2.3%

98,023

3

घृणास्पद भाषा

8,17,262

3,37,263

5.4%

2,80,682

6

आतंकवाद और हिंसक उग्रवाद

2,08,040

1,053

0.0%

Lens Studio

2

2025 की पहली छमाही में, हमने सभी नीति श्रेणियों में औसत प्रतिक्रिया समय को लगातार कम करना जारी रखा और पिछली रिपोर्टिंग अवधि की तुलना में इसे औसतन 75% से अधिक घटाकर 2 मिनट कर दिया। इस कमी का मुख्य कारण हानि की गंभीरता के आधार पर रिपोर्टों की समीक्षा में हमारी प्राथमिकता सुधारने और स्वचालित समीक्षा को बढ़ाने के लिए निरंतर किए गए प्रयास थे।

इस रिपोर्टिंग अवधि में हमने अपने सुरक्षा प्रयासों में कई लक्षित बदलाव भी किए, जिनका यहां रिपोर्ट किए गए डेटा पर इम्पैक्ट पड़ा, जिसमें हथियारों से संबंधित अवैध गतिविधियों पर हमारी नीतियों को मज़बूत करना शामिल है। हमने बाल यौन शोषण श्रेणी में रिपोर्टों और प्रवर्तन में वृद्धि देखी, जो मुख्य रूप से नाबालिगों से संबंधित यौन या संवेदनशील कॉन्टेंट में वृद्धि के कारण हुई। यह कॉन्टेंट हमारी नीतियों का उल्लंघन करती है, लेकिन यह U.S. में अवैध नहीं है और इसे U.S. National Center for Missing and Exploited Children (NCMEC) को रिपोर्ट करने के अधीन नहीं है। यौन सामग्री से संबंधित मात्रा में वृद्धि (और उत्पीड़न से संबंधित मात्रा में कमी), हमारे द्वारा यौन उत्पीड़न से जुड़ी सामग्री को उत्पीड़न श्रेणी से यौन सामग्री श्रेणी में पुन: वर्गीकृत करने के कारण हुई।

हमारे कम्युनिटी दिशानिर्देश के उल्लंघनों का सक्रिय रूप से पता लगाने और उन्हें लागू करने के हमारे प्रयास

कम्युनिटी दिशानिर्देश का प्रोएक्टिव डिटेक्शन और प्रवर्तन


हम स्वचालित उपकरणों का इस्तेमाल करके कम्युनिटी दिशानिर्देशों के उल्लंघनों का पहले से पता लगाते हैं और कुछ मामलों में उन पर कार्रवाई भी करते हैं। इन उपकरणों में हैश-मैचिंग तकनीक (जिसमें PhotoDNA और Google की बाल यौन दुर्व्यवहार इमेजरी (CSAI) शामिल है, Google का कंटेंट सेफ्टी API और अन्य स्वामित्व वाली तकनीक शामिल है, जो अवैध तथा उल्लंघनकारी टेक्स्ट और मीडिया का पता लगाने के लिए डिज़ाइन की गई है, कभी-कभी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का उपयोग करके। सक्रिय पहचान से जुड़े हमारे आंकड़े यूज़र व्यवहार में बदलाव, हमारी पहचान क्षमताओं में सुधार और हमारी नीतियों में परिवर्तन के कारण अक्सर बदलते रहते हैं।

2025 की पहली छमाही में, हमने स्वचालित पहचान उपकरणों की मदद से कम्युनिटी दिशानिर्देश के उल्लंघन को सक्रिय रूप से पहचान कर निम्नलिखित कार्रवाई की:


लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

कुल

33,95,968

17,09,224

नीति कारण

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)

यौन कॉन्टेंट

16,83,045

8,87,059

0

बाल यौन शोषण तथा दुर्व्यवहार

3,99,756

1,62,017

2

उत्पीड़न और धमकाना

12,716

10,412

8

धमकी और हिंसा

40,489

27,662

6

आत्म-हानि और आत्महत्या

6,493

4,638

7

झूठी जानकारी

61

44

20

प्रतिरूपण

52

44

34

स्पैम

1,44,800

96,500

0

ड्रग्स

8,32,803

5,78,738

7

हथियार

2,11,877

1,44,455

0

अन्य विनियमित सामान

40,139

31,408

8

घृणास्पद भाषा

5,788

4,518

6

आतंकवाद और हिंसक उग्रवाद

9,917

5,899

5

बाल यौन शोषण और दुर्व्यवहार के विरुद्ध लड़ाई

हमारे समुदाय के किसी भी सदस्य का, विशेष रूप से नाबालिगों का यौन शोषण न कि केवल गैर-कानूनी एवं निंदनीय है, बल्कि कम्युनिटी दिशा-निर्देशों द्वारा प्रतिबंधित भी है। हमारे प्लेटफ़ॉर्म पर बच्चों के यौन शोषण से संबंधित कॉन्टेंट (CSEA) को रोकना, उसका पता लगाना और उसे पूरी तरह से समाप्त करना Snap की टॉप प्राथमिकता है, और हम ऐसे अपराधों से मुकाबला करने के लिए अपनी क्षमताओं को लगातार बेहतर बना रहे हैं।

हम CSEA से संबंधित कॉन्टेंट की पहचान करने में मदद के लिए सक्रिय प्रौद्योगिकी पहचान उपकरणों का उपयोग करते हैं। इन टूल्स में हैश-मैचिंग टूल्स शामिल हैं जैसे PhotoDNA और Google का CSAI मैच, जो क्रमशः CSEA से संबंधित पहले से ज्ञात अवैध तस्वीरों और वीडियो की पहचान के लिए इस्तेमाल किए जाते हैं। इसके अलावा, Google का कॉन्टेंट सेफ़्टी API ऐसे नए, पहले कभी हैश न की गई अवैध तस्वीरों की पहचान के लिए इस्तेमाल किया जाता है। इसके अलावा, कुछ मामलों में हम संदिग्ध CSEA के खिलाफ़ कार्रवाई करने के लिए व्यवहारिक संकेतों का भी इस्तेमाल करते हैं। हम कानून के अनुसार, CSEA से संबंधित सामग्री की रिपोर्ट U.S. के गुमशुदा और शोषित बच्चों के राष्ट्रीय केंद्र (NCMEC) को देते हैं। इसके बाद, ज़रूरत पड़ने पर NCMEC घरेलू या अंतरराष्ट्रीय कानून प्रवर्तन एजेंसियों के साथ समन्वय करता है।

2025 की पहली छमाही में, हमने Snapchat पर CSEA की पहचान करने पर निम्नलिखित कार्रवाई की (या तो सक्रिय रूप से या रिपोर्ट प्राप्त होने पर):

प्रवर्तित किया गया कुल कंटेंट

अक्षम किए गए कुल अकाउंट

NCMEC* को किए गए कुल सबमिशन

9,94,337

1,87,387

3,21,587

*नोट करें कि NCMEC को किए गए सबमिशन में कई तरह का कंटेंट हो सकता है। NCMEC को सौंपें गए मीडिया सामग्री के कुल विशिष्ट टुकडें हमारे द्वारा लागू किए कुल सामग्री के बराबर हैं।

ज़रूरतमंद Snapchat यूज़र्स को संसाधन और सहायता प्रदान करने की हमारी कोशिश

Snapchat जरूरतमंद यूज़र्स को संसाधन और सहायता प्रदान करके दोस्तों को मुश्किल समय में एक-दूसरे की मदद करने का अवसर देता है।

हमारा "Here For You" सर्च टूल यूज़र्स को मानसिक स्वास्थ्य, चिंता, अवसाद, तनाव, आत्महत्या के विचार, शोक और उत्पीड़न से संबंधित विशिष्ट विषयों की खोज करने पर विशेषज्ञों के संसाधन उपलब्ध कराता है। हमने पैसे के लिए होने वाले यौन शोषण और दूसरे यौन संबंधी जोखिम और नुकसान का सामना करने के लिए भी एक पेज बनाया है, ताकि परेशान लोगों की मदद की जा सके।

जब हमारी सेफ्टी टीमों को किसी परेशान Snap चैटर के बारे में पता चलता है, तो वे उन्हें खुद को नुकसान पहुंचाने से रोकने और सपोर्ट संसाधन देने के लिए तैयार रहती हैं और ज़रूरत पड़ने पर इमरजेंसी सर्विस को भी जानकारी देती हैं। हमारे द्वारा शेयर किए गए रिसोर्स हमारी वैश्विक सुरक्षा संसाधन की सूची में उपलब्ध हैं, जो सभी Snap चैटर्स के लिए हमारे प्राइवेसी, सुरक्षा और नीति हब पर सार्वजनिक रूप से उपलब्ध है।

कुल कितनी बार आत्महत्या संसाधन साझा किए गए

36,162

अपील

नीचे 2025 की पहली छमाही में प्राप्त उन अपीलों की जानकारी दी गई है, जिनमें यूज़र्स ने कम्युनिटी दिशानिर्देश उल्लंघन के कारण उनके अकाउंट को लॉक करने के हमारे निर्णय की समीक्षा का अनुरोध किया था।

नीति कारण

कुल अपील

कुल बहालियां

कुल बरकरार रखे गए निर्णय

अपीलों को संसाधित करने का औसत टर्नअराउंड समय (दिन)

कुल

4,37,855

22,142

4,15,494

1

यौन कॉन्टेंट

1,34,358

6,175

1,28,035

1

बाल यौन शोषण तथा दुर्व्यवहार*

89,493

4,179

85,314

<1

उत्पीड़न और धमकाना

42,779

281

42,496

1

धमकी और हिंसा

3,987

77

3,909

1

आत्म-हानि और आत्महत्या

145

2

143

1

झूठी जानकारी

4

0

4

1

प्रतिरूपण

1,063

33

1,030

<1

स्पैम

13,730

3,140

10,590

1

ड्रग्स

1,28,222

7,749

1,20,409

1

हथियार

10,941

314

10,626

1

अन्य विनियमित सामान

9,719

124

9,593

1

घृणास्पद भाषा

3,310

67

3,242

1

आतंकवाद और हिंसक उग्रवाद

104

1

103

1

क्षेत्रीय व देश का अवलोकन

यह अनुभाग हमारे कम्युनिटी दिशानिर्देशों को लागू करने के लिए हमारी सुरक्षा टीमों की कार्रवाइयों का अवलोकन प्रदान करता है, — जो भौगोलिक क्षेत्रों के नमूने में, सक्रिय रूप से और उल्लंघनों की इन-ऐप रिपोर्टों के जवाब में दोनों हैं। हमारे कम्युनिटी दिशानिर्देश, Snapchat—पर सभी कॉन्टेंट और दुनिया भर के सभी Snapचैटर्स—पर लागू होते हैं, चाहे वे कहीं भी रहते हों।

ईयू के सभी देशों सहित, प्रत्येक देश की जानकारी संलग्न CSV फ़ाइल के माध्यम से डाउनलोड के लिए उपलब्ध है।



हमारे कम्युनिटी दिशानिर्देश को लागू करने के लिए हमारी सुरक्षा टीमों की कार्रवाई का अवलोकन

क्षेत्र

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

उत्तरी अमेरिका

34,68,315

20,46,888

यूरोप

28,15,474

18,10,223

बाकि की दुनिया

33,90,625

19,37,090

कुल

96,74,414

57,94,201

हमारी सुरक्षा टीमों को रिपोर्ट किए गए कम्युनिटी दिशानिर्देशों के उल्लंघन की घटनाएं

क्षेत्र

कंटेंट और अकाउंट रिपोर्ट

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

उत्तरी अमेरिका

57,62,412

21,25,819

13,59,763

यूरोप

59,61,962

21,44,828

14,40,907

बाकि की दुनिया

80,41,950

20,07,799

13,16,070

कुल

1,97,66,324

62,78,446

41,16,740

कम्युनिटी दिशानिर्देश का सक्रिय रूप से पता लगाना और उसे लागू करना

क्षेत्र

लागू की गई कुल कार्रवाइयां

कार्रवाई किए गए कुल विशिष्ट अकाउंट

उत्तरी अमेरिका

13,42,496

7,85,067

यूरोप

6,70,646

4,22,012

बाकि की दुनिया

13,82,826

6,96,364

कुल

33,95,968

17,09,224

विज्ञापन मॉडरेशन

Snap यह सुनिश्चित करने के लिए पूरी तरह से प्रतिबद्ध है कि सभी विज्ञापन हमारी विज्ञापन नीतियों का अनुपालन करते हैं। हम विज्ञापन के प्रति ज़िम्मेदार दृष्टिकोण में विश्वास करते हैं, जिससे सभी Snap चैटर्स के लिए एक सुरक्षित अनुभव सुनिश्चित किया जा सके। सभी विज्ञापन हमारी समीक्षा और मंज़ूरी के अधीन होते हैं। इसके अलावा, हम यूज़र फ़ीडबैक के हिसाब से विज्ञापन हटाने का अधिकार रखते हैं, जिसे हम गंभीरता से लेते हैं।

नीचे हमने पेड विज्ञापनों के लिए हमारे मॉडरेशन में अंतर्दृष्टि शामिल की है जो Snapchat पर उनके प्रकाशन के बाद हमें रिपोर्ट की जाती है।
ध्यान दें कि Snapchat पर आने वाले विज्ञापन कई कारणों से हटाए जा सकते हैं, जैसा कि Snap की विज्ञापन नीतियां में बताया गया है, जिनमें भ्रामक कंटेंट, वयस्क कंटेंट, हिंसक या परेशान करने वाला कंटेंट, घृणा से भरे भाषण और बौद्धिक संपदा का उल्लंघन शामिल है। इसके अलावा, आप values.snap.com पर "पारदर्शिता" टैब के नीचे Snapchat की एड्स गैलरी देख सकते हैं।

कुल रिपोर्ट किए गए विज्ञापन

कुल हटाए गए विज्ञापन

67,789

16,410

सरकारी और बौद्धिक संपदा हटाने के अनुरोध

पारदर्शिता रिपोर्टिंग के बारे में

पारदर्शिता रिपोर्ट की शब्दावली