20 जून, 2025
1 जुलाई, 2025
हम यह पारदर्शिता रिपोर्ट साल में दो बार प्रकाशित करते हैं, ताकि Snap की सुरक्षा संबंधी पहलों की जानकारी साझा की जा सके। सुरक्षा और पारदर्शिता के प्रति हमारी प्रतिबद्धता के तहत, हम लगातार कोशिश करते हैं कि ये रिपोर्टें और भी व्यापक और जानकारीपूर्ण हों, ताकि वे उन सभी हितधारकों के लिए उपयोगी बन सकें जो हमारे कॉन्टेंट मॉडरेशन, कानून प्रवर्तन प्रक्रियाओं और Snapchat कम्यूनिटी की सुरक्षा और भलाई को लेकर गंभीर हैं।
यह पारदर्शिता रिपोर्ट 2024 की दूसरी छमाही (1 जुलाई से 31 दिसंबर) की अवधि को कवर करती है। हम यूज़र्स द्वारा की गई रिपोर्ट और Snap द्वारा सक्रिय पहचान; कम्युनिटी दिशानिर्देश के उल्लंघन की विशिष्ट कैटेगरी में हमारी सुरक्षा टीमों द्वारा किए गए प्रवर्तन; हमने कानून प्रवर्तन और सरकारों के अनुरोधों का कैसे जवाब दिया; और हमने कॉपीराइट और ट्रेडमार्क उल्लंघन के नोटिसों का कैसे जवाब दिया, के बारे में वैश्विक डेटा साझा करते हैं। हम लिंक किए गए पेजों की एक सीरीज़ में देश-विशिष्ट जानकारी भी प्रदान करते हैं।
Snapchat पर सुरक्षा एवं गोपनीयता के अतिरिक्त संसाधनों के बारे में जानने के लिए, हमारा पारदर्शिता रिपोर्टिंग के बारे में देखें, जो इस पृष्ठ के निचले हिस्से में उपलब्ध है।
कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण अंग्रेजी संस्करण है।
हमारे कम्युनिटी दिशानिर्देश को लागू करने के लिए हमारे ट्रस्ट और सुरक्षा टीमों की कार्रवाइयों का अवलोकन
हमारी सुरक्षा टीमें हमारे कम्युनिटी दिशानिर्देशों को सक्रिय रूप से (स्वचालित पहचान उपकरणों के उपयोग के माध्यम से) और प्रतिक्रियात्मक रूप से (रिपोर्टों के जवाब में), लागू करती हैं, जैसा कि इस रिपोर्ट के निम्नलिखित अनुभागों में विस्तार से बताया गया है। इस रिपोर्टिंग अवधि (H2 2024) में, हमारी सुरक्षा टीमों ने निम्नलिखित संख्याओं में कार्रवाई की:
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
1,00,32,110
56,98,212
नीचे अलग-अलग तरह के कम्युनिटी दिशानिर्देशों के उल्लंघनों का विवरण दिया गया है, जिसमें उल्लंघन का पता लगाने (या तो सक्रिय रूप से या रिपोर्ट प्राप्त होने पर) और संबंधित कंटेंट या अकाउंट पर अंतिम कार्रवाई करने के बीच का औसत "टर्नअराउंड समय" शामिल है:
नीति कारण
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कंटेंट
38,60,331
20,99,512
2
बाल यौन शोषण
9,61,359
5,77,682
23
उत्पीड़न और धमकाना
27,16,966
20,19,439
7
धमकी और हिंसा
1,99,920
1,56,578
8
आत्म-हानि और आत्महत्या
15,910
14,445
10
झूठी जानकारी
6,539
6,176
1
पररूपधारण
8,798
8,575
2
स्पैम
3,57,999
2,48,090
1
ड्रग्स
11,13,629
7,18,952
6
हथियार
2,11,860
1,36,953
1
अन्य विनियमित सामान
2,47,535
1,77,643
8
द्वेषपूर्ण भाषा
3,24,478
2,72,025
27
आतंकवाद और हिंसक उग्रवाद
6,786
4,010
5
रिपोर्टिंग अवधि के दौरान, हमने 0.01 प्रतिशत की विओलेटिव व्यू रेट (VVR) देखा, जिसका मतलब है कि Snapchat पर हमारे कुल 10,000 Snap और स्टोरी के व्यू में से 1 कॉन्टेंट ऐसा था जो हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करता था।
कम्युनिटी दिशानिर्देश के लिए हमारी ट्रस्ट और सेफ़्टी टीम को रिपोर्ट किए गए उल्लंघन
1 जुलाई से 31 दिसंबर 2024 के बीच, हमारे कम्युनिटी दिशानिर्देशों के उल्लंघन की इन-ऐप रिपोर्ट्स के जवाब में Snap की सुरक्षा टीमों ने वैश्विक स्तर पर कुल 63,46,508 बार कार्रवाई की, जिनमें 40,75,838 अलग-अलग अकाउंट्स के खिलाफ़ कार्रवाई शामिल थी। इन रिपोर्ट्स के आधार पर हमारी सुरक्षा टीमों द्वारा कार्रवाई करने में जो औसत समय लगा, वह लगभग 6 मिनट था। हर एक रिपोर्टिंग कैटेगरी का विवरण नीचे दिया गया है।
कुल कंटेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
1,93,79,848
63,46,508
40,75,838
नीति कारण
कंटेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
Snap द्वारा लागू किए गए कुल रिपोर्ट का %
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कंटेंट
52,51,375
20,42,044
32.20%
13,87,749
_Core
बाल यौन शोषण
12,24,502
4,69,389
7.40%
3,93,384
133
उत्पीड़न और धमकाना
63,77,555
27,02,024
42.60%
20,09,573
7
धमकी और हिंसा
10,00,713
1,56,295
2.50%
1,29,077
8
आत्म-हानि और आत्महत्या
3,07,660
15,149
0.20%
13,885
10
झूठी जानकारी
5,36,886
6,454
0.10%
6,095
1
पररूपधारण
6,78,717
8,790
0.10%
8,569
2
स्पैम
17,70,216
1,80,849
2.80%
1,40,267
1
ड्रग्स
4,18,431
2,44,451
3.90%
1,59,452
23
हथियार
2,40,767
6,473
0.10%
5,252
1
अन्य विनियमित सामान
6,06,882
1,99,255
3.10%
1,43,560
8
द्वेषपूर्ण भाषा
7,68,705
3,14,134
4.90%
2,63,923
27
आतंकवाद और हिंसक उग्रवाद
1,97,439
1,201
<0.1%
1,093
_Core
पिछली रिपोर्टिंग अवधि की तुलना में, हमने सभी नीति कैटेगरी में औसतन 90% तक औसत टर्नअराउंड समय कम कर दिया है। यह कमी मुख्य रूप से हमारी समीक्षा क्षमता बढ़ाने के लिए की गई कोशिशों और हानि की गंभीरता के आधार पर रिपोर्टों की प्राथमिकता तय करने की प्रक्रिया में सुधार के कारण संभव हो सकी। हमने रिपोर्टिंग अवधि में अपनी सुरक्षा कोशिशों में कई लक्षित बदलाव भी किए, जिसका इम्पैक्ट यहाँ रिपोर्ट किए गए डेटा पर पड़ा, जिसमें हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करने वाले यूज़रनेम्स और डिस्प्ले नामों के लिए अकाउंट्स को लागू करने की हमारी कोशिशों का विस्तार, Snapchat पर कम्युनिटी के लिए बढ़ी हुई रिपोर्टिंग और सुरक्षा की शुरूआत और ऐप में सीधे हमें अतिरिक्त प्रकार के मीडिया, जैसे वॉइसनोट्स के लिए रिपोर्टिंग विकल्पों की शुरुआत शामिल है।
इन बदलावों के साथ-साथ अन्य सुरक्षा कोशिशों और बाह्य ताकतों ने पूर्व रिपोर्टिंग अवधि की तुलना में विशेष रूप से कुछ नीति क्षेत्रों को प्रभावित किया। इन नीति कैटेगरी में ये शामिल हैं: संदिग्ध बाल यौन शोषण और दुर्व्यवहार (CSEA), हानिकारक झूठी सूचना और स्पैम से संबंधित कॉन्टेंट। विशेष रूप से:
CSEA: 2024 की दूसरी छमाही में, हमने CSEA से संबंधित रिपोर्टों में 12% की कमी देखी, और रिपोर्ट की गई CSEA पर प्रतिक्रिया देने के लिए हमारे औसत टर्नअराउंड समय में 99% की कमी आई। ये रुझान मुख्य रूप से हमारे सक्रिय पहचान की कोशिशों में निरंतर प्रगति से प्रेरित हैं, जिसने हमें रिपोर्ट किए जाने से पहले ही CSEA कॉन्टेंट को हटाने में सक्षम बनाया है और हमने CSEA की रिपोर्टों की समीक्षा करने और उन पर अधिक कुशलता से कार्रवाई करने के लिए अपनी प्रक्रियाओं में सुधार किया है। इन सुधारों के बावजूद, हमारा CSEA टर्नअराउंड समय अन्य नीति क्षेत्रों की तुलना में ज़्यादा है, क्योंकि कॉन्टेंट एक विशेष प्रक्रिया के अधीन है, जिसमें विशेष रूप से प्रशिक्षित एजेंटों की एक चयनित टीम के साथ दोहरी समीक्षा शामिल है।
हानिकारक झूठी जानकारी: हमने हानिकारक झूठी सूचना से संबंधित रिपोर्ट की मात्रा में 26% की बढ़ोतरी देखी, जो मुख्य रूप से राजनीतिक घटनाओं से प्रेरित थी, जिसमें नवंबर 2024 का अमेरिकी चुनाव भी शामिल था।
स्पैम: इस रिपोर्टिंग अवधि में, हमने संदिग्ध स्पैम की रिपोर्ट के जवाब में कुल प्रवर्तन में ~50% की कमी और कुल विशिष्ट अकाउंट में ~46% की कमी देखी, जो हमारे सक्रिय पहचान और प्रवर्तन उपकरणों में सुधार को दर्शाता है। यह हमारी चल रही कोशिशों का हिस्सा है, जिसमें हम अकाउंट से मिलने वाले संकेतों के आधार पर स्पैम को पहचानते हैं और ऐसे स्पैम अकाउंट्स को उनके सक्रिय होने की शुरुआत में ही प्लेटफ़ॉर्म से हटा देते हैं। यह कोशिश पिछली रिपोर्टिंग अवधि के दौरान ही शुरू हो चुकी थी, जिस दौरान स्पैम से जुड़ी कुल कार्रवाइयों में लगभग 65% और जिन अलग-अलग अकाउंट्स पर कार्रवाई की गई, उनकी संख्या में लगभग 60% की कमी देखी गई थी।
हमारे कम्युनिटी दिशानिर्देश के उल्लंघनों का सक्रिय रूप से पता लगाने और उन्हें लागू करने के हमारे प्रयास
हम स्वचालित उपकरणों का इस्तेमाल करके कम्युनिटी दिशानिर्देशों के उल्लंघनों का पहले से पता लगाते हैं और कुछ मामलों में उन पर कार्रवाई भी करते हैं। इन उपकरणों में हैश-मैचिंग तकनीक (जिसमें PhotoDNA और Google की बच्चों के यौन शोषण से संबंधित तस्वीरों ((CSAI) की पहचानशामिल हैं), Google का कॉन्टेंट सेफ़्टी API और अन्य विशेष तकनीकें शामिल हैं जो आपत्तिजनक टेक्स्ट और मीडिया की पहचान के लिए बनाई गई हैं। इनमें कभी-कभी आर्टिफिशियल इंटेलिजेंस और मशीन लर्निंग का भी इस्तेमाल किया जाता है।
2024 की दूसरी छमाही में, हमने स्वचालित पहचान उपकरणों की मदद से कम्युनिटी दिशानिर्देशों के उल्लंघन को पहले से पहचान कर निम्नलिखित कार्रवाई की:
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
36,85,602
18,45,125
नीति कारण
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
पता करने से लेकर अंतिम कार्रवाई तक का औसतन कुल समय (मिनट)
यौन कंटेंट
18,18,287
8,28,590
<1
बाल यौन शोषण
4,91,970
1,88,877
1
उत्पीड़न और धमकाना
14,942
11,234
8
धमकी और हिंसा
43,625
29,599
9
आत्म-हानि और आत्महत्या
Snap Legal
६२४
9
झूठी जानकारी
85
81
10
पररूपधारण
8
6
19
स्पैम
1,77,150
1,10,551
<1
ड्रग्स
8,69,178
5,90,658
5
हथियार
2,05,387
1,33,079
<1
अन्य विनियमित सामान
48,280
37,028
9
द्वेषपूर्ण भाषा
10,344
8,683
10
आतंकवाद और हिंसक उग्रवाद
5,585
2,951
21
हमारे समुदाय के किसी भी सदस्य का, विशेष रूप से नाबालिगों का यौन शोषण न कि केवल गैर-कानूनी एवं निंदनीय है, बल्कि कम्युनिटी दिशा-निर्देशों द्वारा प्रतिबंधित भी है। हमारे प्लेटफ़ॉर्म पर बच्चों के यौन शोषण से संबंधित कॉन्टेंट (CSEA) को रोकना, उसका पता लगाना और उसे पूरी तरह से समाप्त करना Snap की टॉप प्राथमिकता है, और हम ऐसे अपराधों से मुकाबला करने के लिए अपनी क्षमताओं को लगातार बेहतर बना रहे हैं।
हम CSEA से संबंधित कॉन्टेंट की पहचान करने में मदद के लिए सक्रिय प्रौद्योगिकी पहचान उपकरणों का उपयोग करते हैं। इन टूल्स में हैश-मैचिंग तकनीकें शामिल हैं (जैसे PhotoDNA और Google का CSAI मैच), जो क्रमशः पहले से ज्ञात अवैध CSEA से संबंधित तस्वीरों और वीडियो की पहचान के लिए इस्तेमाल की जाती हैं। इसके अलावा, Google का कॉन्टेंट सेफ़्टी API ऐसे नए, पहले कभी हैश न किए गए अवैध तस्वीरों की पहचान के लिए इस्तेमाल किया जाता है। इसके अलावा, कुछ मामलों में हम संदिग्ध CSEA के खिलाफ़ कार्रवाई करने के लिए व्यवहारिक संकेतों का भी इस्तेमाल करते हैं। हम कानून के अनुसार, CSEA से संबंधित सामग्री की रिपोर्ट U.S. के गुमशुदा और शोषित बच्चों के राष्ट्रीय केंद्र (NCMEC) को देते हैं। इसके बाद, ज़रूरत पड़ने पर NCMEC घरेलू या अंतरराष्ट्रीय कानून प्रवर्तन एजेंसियों के साथ समन्वय करता है।
2024 की दूसरी छमाही में, हमने Snapchat पर CSEA की पहचान करने पर निम्नलिखित कार्रवाई की (या तो सक्रिय रूप से या रिपोर्ट प्राप्त होने पर):
प्रवर्तित किया गया कुल कंटेंट
अक्षम किए गए कुल अकाउंट
NCMEC* को किए गए कुल सबमिशन
12,28,929
2,42,306
4,17,842
*नोट करें कि NCMEC को किए गए सबमिशन में कई तरह का कंटेंट हो सकता है। NCMEC को सौंपें गए मीडिया सामग्री के कुल विशिष्ट टुकडें हमारे द्वारा लागू किए कुल सामग्री के बराबर हैं।
ज़रूरतमंद Snapchat यूज़र्स को संसाधन और सहायता प्रदान करने की हमारी कोशिश
Snapchat जरूरतमंद यूज़र्स को संसाधन और सहायता प्रदान करके दोस्तों को मुश्किल समय में एक-दूसरे की मदद करने का अवसर देता है।
हमारा "आपके लिए" सर्च टूल यूज़र्स को तब विशेषज्ञों द्वारा उपलब्ध कराए गए संसाधन प्रदान करता है जब वे मानसिक स्वास्थ्य, चिंता, डिप्रेशन, तनाव, आत्महत्या के विचार, शोक या बुलींग से जुड़े कुछ विशेष विषयों को खोजते हैं। हमने संकटग्रस्त लोगों का समर्थन करने के प्रयास में, फ़ाइनेन्श्यल सेक्सटॉर्शन और अन्य यौन जोखिमों और हानियों के लिए समर्पित एक पेज भी विकसित किया है। सुरक्षा संसाधनों की हमारी वैश्विक सूची हमारे गोपनीयता, सुरक्षा और नीति हब में सभी Snap चैटर्स के लिए सार्वजनिक रूप से उपलब्ध है।
जब हमारी सुरक्षा टीमों को किसी परेशान Snap चैटर की जानकारी मिलती है, तो वे आत्म-हानि की रोकथाम और सहायता से जुड़े संसाधन प्रदान करने में सक्षम होती हैं और आवश्यकता पड़ने पर आपातकालीन सेवाओं को भी सूचित कर सकती हैं। हमारे द्वारा साझा किए जाने वाले संसाधन हमारे सुरक्षा संसाधनों की वैश्विक सूची में उपलब्ध है और सभी Snap चैटर्स के लिए सार्वजानिक रूप से उपलब्ध है।
कुल कितनी बार आत्महत्या संसाधन साझा किए गए
64,094
अपील
नीचे हमने उन अपीलों से संबंधित जानकारी दी है, जो यूज़र्स ने साल 2024 की दूसरी छमाही में उनके अकाउंट को लॉक करने के हमारे फैसले की समीक्षा के लिए भेजी थी:
नीति कारण
कुल अपील
कुल बहालियां
कुल बरकरार रखे गए निर्णय
अपीलों को संसाधित करने का औसत टर्नअराउंड समय (दिन)
कुल
4,93,782
35,243
4,58,539
5
यौन कंटेंट
1,62,363
6,257
1,56,106
_Core
बाल यौन शोषण
1,02,585
15,318
87,267
6
उत्पीड़न और धमकाना
53,200
442
52,758
7
धमकी और हिंसा
4,238
83
4,155
5
आत्म-हानि और आत्महत्या
31
1
30
5
झूठी जानकारी
3
0
3
<1
पररूपधारण
Augmented Reality
33
_Core
7
स्पैम
19,533
5,090
14,443
9
ड्रग्स
1,33,478
7,598
1,25,880
_Core
हथियार
4,678
136
4,542
6
अन्य विनियमित सामान
9,153
168
8,985
6
द्वेषपूर्ण भाषा
3,541
Snapchat
3,427
7
आतंकवाद और हिंसक उग्रवाद
132
3
129
9
क्षेत्रीय व देश का अवलोकन
यह अनुभाग हमारे कम्युनिटी दिशानिर्देशों को लागू करने के लिए हमारी सुरक्षा टीमों की कार्रवाइयों का अवलोकन प्रदान करता है, — जो भौगोलिक क्षेत्रों के नमूने में, सक्रिय रूप से और उल्लंघनों की इन-ऐप रिपोर्टों के जवाब में दोनों हैं। हमारे कम्युनिटी दिशानिर्देश, Snapchat—पर सभी कॉन्टेंट और दुनिया भर के सभी Snapचैटर्स—पर लागू होते हैं, चाहे वे कहीं भी रहते हों।
ईयू के सभी देशों सहित, प्रत्येक देश की जानकारी संलग्न CSV फ़ाइल के माध्यम से डाउनलोड के लिए उपलब्ध है।
क्षेत्र
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
उत्तरी अमेरिका
38,28,389
21,17,048
यूरोप
28,07,070
17,35,054
बाकि की दुनिया
33,96,651
18,46,110
कुल
1,00,32,110
56,98,212
क्षेत्र
कंटेंट और अकाउंट रिपोर्ट
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
उत्तरी अमेरिका
59,16,815
22,29,465
13,91,304
यूरोप
57,81,317
20,85,109
13,78,883
बाकि की दुनिया
76,81,716
20,31,934
13,19,934
कुल
1,93,79,848
63,46,508
40,90,121
लागू की गई कुल कार्रवाइयां
कार्रवाई किए गए कुल विशिष्ट अकाउंट
15,98,924
8,37,012
7,21,961
4,17,218
13,64,717
6,13,969
36,85,602
18,68,199
विज्ञापन मॉडरेशन
Snap यह सुनिश्चित करने के लिए पूरी तरह से प्रतिबद्ध है कि सभी विज्ञापन हमारी विज्ञापन नीतियों का अनुपालन करते हैं। हम विज्ञापन के प्रति ज़िम्मेदार दृष्टिकोण में विश्वास करते हैं, जिससे सभी Snap चैटर्स के लिए एक सुरक्षित अनुभव सुनिश्चित किया जा सके। सभी विज्ञापन हमारी समीक्षा और मंज़ूरी के अधीन होते हैं। इसके अलावा, हम यूज़र फ़ीडबैक के हिसाब से विज्ञापन हटाने का अधिकार रखते हैं, जिसे हम गंभीरता से लेते हैं।
नीचे हमने पेड विज्ञापनों के लिए हमारे मॉडरेशन में अंतर्दृष्टि शामिल की है जो Snapchat पर उनके प्रकाशन के बाद हमें रिपोर्ट की जाती है।
ध्यान दें कि Snapchat पर आने वाले विज्ञापन कई कारणों से हटाए जा सकते हैं, जैसा कि Snap की विज्ञापन नीतियां में बताया गया है, जिनमें भ्रामक कंटेंट, वयस्क कंटेंट, हिंसक या परेशान करने वाला कंटेंट, घृणा से भरे भाषण और बौद्धिक संपदा का उल्लंघन शामिल है। इसके अलावा, अब आप Snap के पारदर्शिता हब में Snapchat’s विज्ञापन गैलरी पा सकते हैं, जिसे सीधे नेविगेशन बार के ज़रिए एक्सेस किया जा सकता है।
कुल रिपोर्ट किए गए विज्ञापन
कुल हटाए गए विज्ञापन
43,098
17,833


