1 दिसंबर, 2025
1 दिसंबर, 2025
हम यह पारदर्शिता रिपोर्ट साल में दो बार प्रकाशित करते हैं, ताकि Snap की सुरक्षा संबंधी पहलों की जानकारी साझा की जा सके। सुरक्षा और पारदर्शिता के प्रति हमारी प्रतिबद्धता के तहत, हम लगातार कोशिश करते हैं कि ये रिपोर्टें और भी व्यापक और जानकारीपूर्ण हों, ताकि वे उन सभी हितधारकों के लिए उपयोगी बन सकें जो हमारे कॉन्टेंट मॉडरेशन, कानून प्रवर्तन प्रक्रियाओं और Snapchat कम्यूनिटी की सुरक्षा और भलाई को लेकर गंभीर हैं।
यह पारदर्शिता रिपोर्ट 2025 की पहली छमाही (1 जनवरी - 30 जून) को कवर करती है। हम यूज़र्स द्वारा की गई रिपोर्ट और Snap द्वारा सक्रिय पहचान; कम्युनिटी दिशानिर्देश के उल्लंघन की विशिष्ट कैटेगरी में हमारी सुरक्षा टीमों द्वारा किए गए प्रवर्तन; हमने कानून प्रवर्तन और सरकारों के अनुरोधों का कैसे जवाब दिया; और हमने कॉपीराइट और ट्रेडमार्क उल्लंघन के नोटिसों का कैसे जवाब दिया, के बारे में वैश्विक डेटा साझा करते हैं। हम लिंक किए गए पेजों की एक सीरीज़ में देश-विशिष्ट जानकारी भी प्रदान करते हैं।
Snapchat पर सुरक्षा एवं गोपनीयता के अतिरिक्त संसाधनों के बारे में जानने के लिए, हमारा पारदर्शिता रिपोर्टिंग के बारे में देखें, जो इस पृष्ठ के निचले हिस्से में उपलब्ध है।
कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण अंग्रेजी संस्करण है।
हमारे कम्युनिटी दिशानिर्देश को लागू करने के लिए हमारे ट्रस्ट और सुरक्षा टीमों की कार्रवाइयों का अवलोकन
हमारी सुरक्षा टीमें हमारे कम्युनिटी दिशानिर्देशों को सक्रिय रूप से (स्वचालित पहचान उपकरणों के उपयोग के माध्यम से) और प्रतिक्रियात्मक रूप से (रिपोर्टों के जवाब में), लागू करती हैं, जैसा कि इस रिपोर्ट के निम्नलिखित अनुभागों में विस्तार से बताया गया है। इस रिपोर्टिंग चक्र (H1 2025) में, हमारी सुरक्षा टीमों ने निम्नलिखित संख्या में प्रवर्तन कार्रवाइयाँ कीं:
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
96,74,414
57,94,201
नीचे हर प्रकार के कम्युनिटी दिशानिर्देशों के उल्लंघन का विवरण दिया गया है, जिसमें उल्लंघन का पता लगाने के समय (सक्रिय रूप से या रिपोर्ट प्राप्त होने पर) और प्रासंगिक सामग्री या अकाउंट पर अंतिम कार्रवाई करने के बीच का “टर्नअराउंड टाइम” का औसत मध्य मान शामिल है:
नीति कारण
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कॉन्टेंट
54,61,419
32,33,077
1
बाल यौन शोषण तथा दुर्व्यवहार
10,95,424
7,33,106
5
उत्पीड़न और धमकाना
7,13,448
5,94,302
3
धमकी और हिंसा
1,87,653
1,46,564
3
आत्म-हानि और आत्महत्या
47,643
41,216
5
झूठी जानकारी
2,088
2,004
1
प्रतिरूपण
7,138
6,881
<1
स्पैम
2,67,299
1,89,344
1
ड्रग्स
10,95,765
7,26,251
7
हथियार
2,51,243
1,73,381
1
अन्य विनियमित सामान
1,83,236
1,26,952
4
घृणास्पद भाषा
3,43,051
2,84,817
6
आतंकवाद और हिंसक उग्रवाद
10,970
6,783
2
कुल प्रवर्तन डेटा में वे प्रवर्तन शामिल हैं जो Snap द्वारा Snapchat के माध्यम से भेजी गई इन-ऐप रिपोर्टों की समीक्षा करने के बाद लिए जाते हैं। यह Snap की सेफ्टी टीमों द्वारा किए गए ज़्यादातर प्रवर्तनों को दिखाता है। यह संख्या उन अधिकांश प्रवर्तनों को शामिल नहीं करती जो हमारी सपोर्ट साइट या अन्य माध्यमों (जैसे ईमेल) के ज़रिए Snap को दी गई रिपोर्टों के आधार पर की गई जांचों के परिणामस्वरूप किए जाते हैं, या जो हमारी सेफ्टी टीमों द्वारा की गई कुछ सक्रिय जांचों के कारण होते हैं। ये हटाए गए प्रवर्तन, 2025 की पहली छमाही में प्रवर्तन मात्रा के 0.5% से भी कम थे।
रिपोर्टिंग अवधि के दौरान, हमने 0.01 प्रतिशत की विओलेटिव व्यू रेट (VVR) देखा, जिसका मतलब है कि Snapchat पर हमारे कुल 10,000 Snap और स्टोरी के व्यू में से 1 कॉन्टेंट ऐसा था जो हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करता था। जिन प्रवर्तनों को हम “गंभीर नुकसान” मानते हैं, उनमें हमने 0.0003% VVR देखा। पॉलिसी के कारण के आधार पर VVR का विवरण नीचे दी गई तालिका में दिया गया है।
नीति कारण
VVR
यौन कॉन्टेंट
0.00482%
बाल यौन शोषण तथा दुर्व्यवहार
0.00096%
उत्पीड़न और धमकाना
0.00099%
धमकी और हिंसा
0.00176%
आत्म-हानि और आत्महत्या
0.00009%
झूठी जानकारी
0.00002%
प्रतिरूपण
0.00009%
स्पैम
0.00060%
ड्रग्स
0.00047%
हथियार
0.00083%
अन्य विनियमित सामान
0.00104%
घृणास्पद भाषा
0.00025%
आतंकवाद और हिंसक उग्रवाद
0.00002%
कम्युनिटी दिशानिर्देश के लिए हमारी ट्रस्ट और सेफ़्टी टीम को रिपोर्ट किए गए उल्लंघन
1 जनवरी से 30 जून, 2025 तक, हमारे कम्युनिटी दिशानिर्देश के उल्लंघन से संबंधित 1,97,66,324 इन-ऐप रिपोर्टों के जवाब में, Snap की सुरक्षा टीमों ने वैश्विक स्तर पर कुल 62,78,446 प्रवर्तन कार्रवाइयाँ कीं, जिनमें 41,04,624 विशिष्ट खातों के खिलाफ की गई कार्रवाइयाँ भी शामिल हैं। इस इन-ऐप रिपोर्टिंग मात्रा में सपोर्ट साइट और ईमेल रिपोर्ट शामिल नहीं हैं, जो कुल रिपोर्टिंग मात्रा के 1% से भी कम हैं। इन रिपोर्टों के आधार पर हमारी सुरक्षा टीमों द्वारा कार्रवाई करने में जो औसत समय लगा, वह लगभग 2 मिनट था। पॉलिसी के कारण के हिसाब से विवरण नीचे दिया गया है। (नोट: पिछली रिपोर्टों में, हम कभी-कभी इसे "रिपोर्टिंग श्रेणी" के रूप में संदर्भित करते थे। आगे चलकर, हम “पॉलिसी का कारण” शब्द का उपयोग कर रहे हैं, क्योंकि हमें लगता है कि यह डेटा की प्रकृति को अधिक सटीक रूप से दर्शाता है — क्योंकि हमारी सुरक्षा टीमें रिपोर्ट जमा करने वाले व्यक्ति द्वारा बताई गई रिपोर्टिंग श्रेणी के बावजूद, उचित पॉलिसी कारण के अनुसार प्रवर्तन करने का प्रयास करती हैं।)
कुल कॉन्टेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
कुल
1,97,66,324
62,78,446
41,04,624
नीति कारण
कुल कॉन्टेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
Snap द्वारा लागू की गई कुल रिपोर्ट का प्रतिशत
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कॉन्टेंट
73,15,730
37,78,370
60.2%
24,63,464
1
बाल यौन शोषण तथा दुर्व्यवहार
16,27,097
6,95,679
11.1%
5,77,736
10
उत्पीड़न और बदमाशी
41,03,797
7,00,731
11.2%
5,84,762
3
धमकी और हिंसा
9,97,346
1,47,162
2.3%
1,20,397
2
आत्म-हानि और आत्महत्या
3,50,775
41,150
0.7%
36,657
3
झूठी जानकारी
6,06,979
2,027
0.0%
1,960
1
प्रतिरूपण
7,45,874
7,086
0.1%
6,837
<1
स्पैम
17,09,559
1,22,499
2.0%
94,837
1
ड्रग्स
4,81,830
2,62,962
4.2%
1,76,799
5
हथियार
2,71,586
39,366
०.६%
32,316
1
अन्य विनियमित सामान
5,30,449
1,43,098
2.3%
98,023
3
घृणास्पद भाषा
8,17,262
3,37,263
5.4%
2,80,682
6
आतंकवाद और हिंसक उग्रवाद
2,08,040
1,053
0.0%
Lens Studio
2
2025 की पहली छमाही में, हमने सभी नीति श्रेणियों में औसत प्रतिक्रिया समय को लगातार कम करना जारी रखा और पिछली रिपोर्टिंग अवधि की तुलना में इसे औसतन 75% से अधिक घटाकर 2 मिनट कर दिया। इस कमी का मुख्य कारण हानि की गंभीरता के आधार पर रिपोर्टों की समीक्षा में हमारी प्राथमिकता सुधारने और स्वचालित समीक्षा को बढ़ाने के लिए निरंतर किए गए प्रयास थे।
इस रिपोर्टिंग अवधि में हमने अपने सुरक्षा प्रयासों में कई लक्षित बदलाव भी किए, जिनका यहां रिपोर्ट किए गए डेटा पर इम्पैक्ट पड़ा, जिसमें हथियारों से संबंधित अवैध गतिविधियों पर हमारी नीतियों को मज़बूत करना शामिल है। हमने बाल यौन शोषण श्रेणी में रिपोर्टों और प्रवर्तन में वृद्धि देखी, जो मुख्य रूप से नाबालिगों से संबंधित यौन या संवेदनशील कॉन्टेंट में वृद्धि के कारण हुई। यह कॉन्टेंट हमारी नीतियों का उल्लंघन करती है, लेकिन यह U.S. में अवैध नहीं है और इसे U.S. National Center for Missing and Exploited Children (NCMEC) को रिपोर्ट करने के अधीन नहीं है। यौन सामग्री से संबंधित मात्रा में वृद्धि (और उत्पीड़न से संबंधित मात्रा में कमी), हमारे द्वारा यौन उत्पीड़न से जुड़ी सामग्री को उत्पीड़न श्रेणी से यौन सामग्री श्रेणी में पुन: वर्गीकृत करने के कारण हुई।
हमारे कम्युनिटी दिशानिर्देश के उल्लंघनों का सक्रिय रूप से पता लगाने और उन्हें लागू करने के हमारे प्रयास
हम स्वचालित उपकरणों का इस्तेमाल करके कम्युनिटी दिशानिर्देशों के उल्लंघनों का पहले से पता लगाते हैं और कुछ मामलों में उन पर कार्रवाई भी करते हैं। इन उपकरणों में हैश-मैचिंग तकनीक (जिसमें PhotoDNA और Google की बाल यौन दुर्व्यवहार इमेजरी (CSAI) शामिल है, Google का कंटेंट सेफ्टी API और अन्य स्वामित्व वाली तकनीक शामिल है, जो अवैध तथा उल्लंघनकारी टेक्स्ट और मीडिया का पता लगाने के लिए डिज़ाइन की गई है, कभी-कभी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का उपयोग करके। सक्रिय पहचान से जुड़े हमारे आंकड़े यूज़र व्यवहार में बदलाव, हमारी पहचान क्षमताओं में सुधार और हमारी नीतियों में परिवर्तन के कारण अक्सर बदलते रहते हैं।
2025 की पहली छमाही में, हमने स्वचालित पहचान उपकरणों की मदद से कम्युनिटी दिशानिर्देश के उल्लंघन को सक्रिय रूप से पहचान कर निम्नलिखित कार्रवाई की:
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
कुल
33,95,968
17,09,224
नीति कारण
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कॉन्टेंट
16,83,045
8,87,059
0
बाल यौन शोषण तथा दुर्व्यवहार
3,99,756
1,62,017
2
उत्पीड़न और धमकाना
12,716
10,412
8
धमकी और हिंसा
40,489
27,662
6
आत्म-हानि और आत्महत्या
6,493
4,638
7
झूठी जानकारी
61
44
20
प्रतिरूपण
52
44
34
स्पैम
1,44,800
96,500
0
ड्रग्स
8,32,803
5,78,738
7
हथियार
2,11,877
1,44,455
0
अन्य विनियमित सामान
40,139
31,408
8
घृणास्पद भाषा
5,788
4,518
6
आतंकवाद और हिंसक उग्रवाद
9,917
5,899
5
बाल यौन शोषण और दुर्व्यवहार के विरुद्ध लड़ाई
हमारे समुदाय के किसी भी सदस्य का, विशेष रूप से नाबालिगों का यौन शोषण न कि केवल गैर-कानूनी एवं निंदनीय है, बल्कि कम्युनिटी दिशा-निर्देशों द्वारा प्रतिबंधित भी है। हमारे प्लेटफ़ॉर्म पर बच्चों के यौन शोषण से संबंधित कॉन्टेंट (CSEA) को रोकना, उसका पता लगाना और उसे पूरी तरह से समाप्त करना Snap की टॉप प्राथमिकता है, और हम ऐसे अपराधों से मुकाबला करने के लिए अपनी क्षमताओं को लगातार बेहतर बना रहे हैं।
हम CSEA से संबंधित कॉन्टेंट की पहचान करने में मदद के लिए सक्रिय प्रौद्योगिकी पहचान उपकरणों का उपयोग करते हैं। इन टूल्स में हैश-मैचिंग टूल्स शामिल हैं जैसे PhotoDNA और Google का CSAI मैच, जो क्रमशः CSEA से संबंधित पहले से ज्ञात अवैध तस्वीरों और वीडियो की पहचान के लिए इस्तेमाल किए जाते हैं। इसके अलावा, Google का कॉन्टेंट सेफ़्टी API ऐसे नए, पहले कभी हैश न की गई अवैध तस्वीरों की पहचान के लिए इस्तेमाल किया जाता है। इसके अलावा, कुछ मामलों में हम संदिग्ध CSEA के खिलाफ़ कार्रवाई करने के लिए व्यवहारिक संकेतों का भी इस्तेमाल करते हैं। हम कानून के अनुसार, CSEA से संबंधित सामग्री की रिपोर्ट U.S. के गुमशुदा और शोषित बच्चों के राष्ट्रीय केंद्र (NCMEC) को देते हैं। इसके बाद, ज़रूरत पड़ने पर NCMEC घरेलू या अंतरराष्ट्रीय कानून प्रवर्तन एजेंसियों के साथ समन्वय करता है।
2025 की पहली छमाही में, हमने Snapchat पर CSEA की पहचान करने पर निम्नलिखित कार्रवाई की (या तो सक्रिय रूप से या रिपोर्ट प्राप्त होने पर):
प्रवर्तित किया गया कुल कंटेंट
अक्षम किए गए कुल अकाउंट
NCMEC* को किए गए कुल सबमिशन
9,94,337
1,87,387
3,21,587
*नोट करें कि NCMEC को किए गए सबमिशन में कई तरह का कंटेंट हो सकता है। NCMEC को सौंपें गए मीडिया सामग्री के कुल विशिष्ट टुकडें हमारे द्वारा लागू किए कुल सामग्री के बराबर हैं।
ज़रूरतमंद Snapchat यूज़र्स को संसाधन और सहायता प्रदान करने की हमारी कोशिश
Snapchat जरूरतमंद यूज़र्स को संसाधन और सहायता प्रदान करके दोस्तों को मुश्किल समय में एक-दूसरे की मदद करने का अवसर देता है।
हमारा "Here For You" सर्च टूल यूज़र्स को मानसिक स्वास्थ्य, चिंता, अवसाद, तनाव, आत्महत्या के विचार, शोक और उत्पीड़न से संबंधित विशिष्ट विषयों की खोज करने पर विशेषज्ञों के संसाधन उपलब्ध कराता है। हमने पैसे के लिए होने वाले यौन शोषण और दूसरे यौन संबंधी जोखिम और नुकसान का सामना करने के लिए भी एक पेज बनाया है, ताकि परेशान लोगों की मदद की जा सके।
जब हमारी सेफ्टी टीमों को किसी परेशान Snap चैटर के बारे में पता चलता है, तो वे उन्हें खुद को नुकसान पहुंचाने से रोकने और सपोर्ट संसाधन देने के लिए तैयार रहती हैं और ज़रूरत पड़ने पर इमरजेंसी सर्विस को भी जानकारी देती हैं। हमारे द्वारा शेयर किए गए रिसोर्स हमारी वैश्विक सुरक्षा संसाधन की सूची में उपलब्ध हैं, जो सभी Snap चैटर्स के लिए हमारे प्राइवेसी, सुरक्षा और नीति हब पर सार्वजनिक रूप से उपलब्ध है।
कुल कितनी बार आत्महत्या संसाधन साझा किए गए
36,162
अपील
नीचे 2025 की पहली छमाही में प्राप्त उन अपीलों की जानकारी दी गई है, जिनमें यूज़र्स ने कम्युनिटी दिशानिर्देश उल्लंघन के कारण उनके अकाउंट को लॉक करने के हमारे निर्णय की समीक्षा का अनुरोध किया था।
नीति कारण
कुल अपील
कुल बहालियां
कुल बरकरार रखे गए निर्णय
अपीलों को संसाधित करने का औसत टर्नअराउंड समय (दिन)
कुल
4,37,855
22,142
4,15,494
1
यौन कॉन्टेंट
1,34,358
6,175
1,28,035
1
बाल यौन शोषण तथा दुर्व्यवहार*
89,493
4,179
85,314
<1
उत्पीड़न और धमकाना
42,779
281
42,496
1
धमकी और हिंसा
3,987
77
3,909
1
आत्म-हानि और आत्महत्या
145
2
143
1
झूठी जानकारी
4
0
4
1
प्रतिरूपण
1,063
33
1,030
<1
स्पैम
13,730
3,140
10,590
1
ड्रग्स
1,28,222
7,749
1,20,409
1
हथियार
10,941
314
10,626
1
अन्य विनियमित सामान
9,719
124
9,593
1
घृणास्पद भाषा
3,310
67
3,242
1
आतंकवाद और हिंसक उग्रवाद
104
1
103
1
क्षेत्रीय व देश का अवलोकन
यह अनुभाग हमारे कम्युनिटी दिशानिर्देशों को लागू करने के लिए हमारी सुरक्षा टीमों की कार्रवाइयों का अवलोकन प्रदान करता है, — जो भौगोलिक क्षेत्रों के नमूने में, सक्रिय रूप से और उल्लंघनों की इन-ऐप रिपोर्टों के जवाब में दोनों हैं। हमारे कम्युनिटी दिशानिर्देश, Snapchat—पर सभी कॉन्टेंट और दुनिया भर के सभी Snapचैटर्स—पर लागू होते हैं, चाहे वे कहीं भी रहते हों।
ईयू के सभी देशों सहित, प्रत्येक देश की जानकारी संलग्न CSV फ़ाइल के माध्यम से डाउनलोड के लिए उपलब्ध है।
क्षेत्र
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
उत्तरी अमेरिका
34,68,315
20,46,888
यूरोप
28,15,474
18,10,223
बाकि की दुनिया
33,90,625
19,37,090
कुल
96,74,414
57,94,201
क्षेत्र
कंटेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
उत्तरी अमेरिका
57,62,412
21,25,819
13,59,763
यूरोप
59,61,962
21,44,828
14,40,907
बाकि की दुनिया
80,41,950
20,07,799
13,16,070
कुल
1,97,66,324
62,78,446
41,16,740
क्षेत्र
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
उत्तरी अमेरिका
13,42,496
7,85,067
यूरोप
6,70,646
4,22,012
बाकि की दुनिया
13,82,826
6,96,364
कुल
33,95,968
17,09,224
विज्ञापन मॉडरेशन
Snap यह सुनिश्चित करने के लिए पूरी तरह से प्रतिबद्ध है कि सभी विज्ञापन हमारी विज्ञापन नीतियों का अनुपालन करते हैं। हम विज्ञापन के प्रति ज़िम्मेदार दृष्टिकोण में विश्वास करते हैं, जिससे सभी Snap चैटर्स के लिए एक सुरक्षित अनुभव सुनिश्चित किया जा सके। सभी विज्ञापन हमारी समीक्षा और मंज़ूरी के अधीन होते हैं। इसके अलावा, हम यूज़र फ़ीडबैक के हिसाब से विज्ञापन हटाने का अधिकार रखते हैं, जिसे हम गंभीरता से लेते हैं।
नीचे हमने पेड विज्ञापनों के लिए हमारे मॉडरेशन में अंतर्दृष्टि शामिल की है जो Snapchat पर उनके प्रकाशन के बाद हमें रिपोर्ट की जाती है।
ध्यान दें कि Snapchat पर आने वाले विज्ञापन कई कारणों से हटाए जा सकते हैं, जैसा कि Snap की विज्ञापन नीतियां में बताया गया है, जिनमें भ्रामक कंटेंट, वयस्क कंटेंट, हिंसक या परेशान करने वाला कंटेंट, घृणा से भरे भाषण और बौद्धिक संपदा का उल्लंघन शामिल है। इसके अलावा, आप values.snap.com पर "पारदर्शिता" टैब के नीचे Snapchat की एड्स गैलरी देख सकते हैं।
कुल रिपोर्ट किए गए विज्ञापन
कुल हटाए गए विज्ञापन
67,789
16,410

























