Privacy, Safety, and Policy Hub
पारदर्शिता रिपोर्ट
1 जनवरी, 2022 - 30 जून, 2022

जारी की गई:

29 नवम्बर 2022

अद्यतनीकृत की गई:

29 नवम्बर 2022

Snap के सुरक्षा प्रयासों और हमारे प्लेटफ़ॉर्म पर रिपोर्ट किए गए कंटेंट के स्वभाव और संख्या से जुड़ी इनसाइट देने के लिए, हम साल में दो बार पारदर्शिता रिपोर्ट प्रकाशित करते हैं। हम इन रिपोर्टों को, उन हितधारकों के लिए और अधिक व्यापक और जानकारी से भरपूर बनाने की कोशिश करते हैं जो हमारे कंटेंट मॉडरेशन और कानून प्रवर्तन से जुड़े तरीकों और हमारे समुदाय की भलाई की परवाह करते हैं।

इस रिपोर्ट में 2022 की पहली छमाही की जानकारी है (1 जनवरी - 30 जून)। हमारी पिछली रिपोर्टों की तरह, यह रिपोर्ट इन-ऐप कंटेंट की ग्लोबल संख्या और अकाउंट लेवल पर हमें मिली रिपोर्ट और अलग-अलग श्रेणियों के उल्लंघनों के खिलाफ़ की गई कार्रवाई के बारे में डेटा शेयर करती है। साथ ही, इसमें यह भी जानकारी होती है कि हमने कानून प्रवर्तन और सरकारों के अनुरोधों पर कैसे काम किया और अलग-अलग देशों में हमने प्रवर्तन के क्या-क्या काम किए। इसमें इस रिपोर्ट में हाल ही में जोड़ी गई चीज़ें भी शामिल हैं, जिसमें Snapchat कंटेंट की वॉयलेटिव व्यू रेट, संभावित ट्रेडमार्क उल्लंघन, और प्लेटफ़ॉर्म पर झूठी जानकारी फैलाने के मामले शामिल हैं।

हमारी पारदर्शिता रिपोर्टों को बेहतर बनाने के लिए हमारी कोशिशों के एक हिस्से के रूप में, हम इस रिपोर्ट में कई नए एलिमेंट को शुरू कर रहे हैं। इस बार की रिपोर्ट और आगे आने वाली रिपोर्ट में, हम पूरी रिपोर्ट में इस्तेमाल किए गए शब्दों की शब्दावली जोड़ रहे हैं। हमारा लक्ष्य, इन शर्तों के बारे में पारदर्शिता बढ़ाना है, जिनसे यह साफ़ तौर पर पता चलता है कि हर श्रेणी के तहत किस तरह के कंटेंट को उल्लंघन माना जाता है और किन पर क्या कार्रवाई की जाती है। वैश्विक स्तर पर, झूठी जानकारी को रोकने से जुड़ी हमारी कार्य प्रणाली पर गठन करते हुए हम पहली बार झूठी जानकारी को, राष्ट्रीय स्तर पर एकल आधार, श्रेणी के रूप में भी पेश कर रहे हैं।

इसके अतिरिक्त, हम बाल यौन शोषण और बुरे व्यवहार से जुड़ी इमेजरी (CSEAI) से मुकाबला करने से जुड़ी हमारी कोशिशों के बारे में और ज़्यादा इनसाइट देने जा रहे हैं। आगे आने वाले समय में हम, उन सारे CSEAI कंटेंट पर इनसाइट शेयर करेंगे जिन्हें हटाने के लिए हमने कार्रवाई की है। साथ ही, हम CSEAI रिपोर्ट* की कुल संख्या (यानी,“ CyberTips”) शेयर करेंगे, जिसे हमने यू.एस. नेशनल सेंटर फ़ॉर मिसिंग ऐंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) के लिए बनाया है।

ऑनलाइन नुकसान से निपटने के लिए हमारी नीतियों के बारे में ज्यादा जानकारी के लिए, और हमारी रिपोर्टिंग प्रथाओं को विकसित करना जारी रखने की योजना के लिए, कृपया इस पारदर्शिता रिपोर्ट के बारे में हमारे हालिया सुरक्षा और प्रभाव ब्लॉग पढ़ें।

Snapchat पर सुरक्षा और गोपनीयता के लिए अतिरिक्त संसाधन खोजने के लिए, पेज के निचले भाग में पारदर्शिता रिपोर्टिंग के बारे में टैब देखें।

कंटेंट और अकाउंट उल्लंघनों का ओवरव्यू

1 जनवरी से 30 जून 2022 तक, हमने ग्लोबल लेवल पर, हमारी नीतियों का उल्लंघन करने वाले 56,88,970 कंटेंट पर कार्रवाई की। प्रवर्तन कार्रवाइयों में आपत्तिजनक कंटेंट को हटाना या विचाराधीन अकाउंट को ख़तम करना शामिल है।

रिपोर्टिंग अवधि के दौरान, हमने 0.04 प्रतिशत की वॉयलेटिव व्यू रेट (VVR) देखी, जिसका मतलब है कि Snapchat पर हर 10,000 Snap और स्टोरी के व्यू में से 4 में ऐसा कंटेंट था जो हमारी नीतियों का उल्लंघन करता था।

उल्लंघन के बारे में ज़्यादा जानकारी

बाल यौन शोषण और दुर्व्यवहार का विरोध

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के हिसाब से प्रतिबंधित है। हमारे प्लेटफ़ॉर्म पर बाल यौन शोषण और बुरे व्यवहार से जुड़ी इमेजरी (CSEAI) के रोकथाम, पता लगाना और उन्मूलन करना हमारे लिए सबसे बड़ी प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को लगातार विकसित कर रहे हैं।

हमारी ट्रस्ट और सुरक्षा टीमें, ज्ञात अवैध इमेज और वीडियो की पहचान करने के लिए, PhotoDNA रोबस्ट हैश-मैचिंग और Google की चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे ऐक्टिव टेक्नोलॉजी टूल का उपयोग करती हैं और उन्हें यू. एस. नेशनल सेंटर फ़ॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करती हैं, जैसा कि कानून में बताया गया है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।

2022 की पहली छमाही में, हमने ऐक्टिव रूप से, बाल यौन शोषण और बुरे व्यवहार से जुड़े रिपोर्ट किए गए कुल मामलों में से 94 प्रतिशत का पता लगाया और उन पर ऐक्शन लिया - यह आंकड़ा हमारी पिछली रिपोर्ट से 6 प्रतिशत ज़्यादा है।

*नोट करें कि NCMEC को किए गए सबमिशन में कई तरह का कंटेंट हो सकता है। NCMEC को सौंपा गया कुल मीडिया कंटेंट, उस पूरे कंटेंट के बराबर है जिस पर हमने कार्रवाई की है।

आतंकवादी और हिंसक चरमपंथी सामग्री

रिपोर्टिंग अवधि के दौरान, हमने आतंकवादी और हिंसक चरमपंथी कंटेंट से जुड़ी अपनी नीति का उल्लंघन करने वाले 73 अकाउंट को हटा दिया।

Snap पर, हम कई प्रणालियों के माध्यम से रिपोर्ट की गई आतंकवादी और हिंसक उग्रवाद कंटेंट को हटा देते हैं। इनमें यूज़र्स को हमारे इन-ऐप रिपोर्टिंग मेन्यू के ज़रिए, आतंकवादी और हिंसक चरमपंथी कंटेंट को रिपोर्ट करने के लिए प्रेरित करना शामिल है और हम Snap पर दिखाई देने वाले आतंकवाद और हिंसक कंटेंट से निपटने के लिए कानून प्रवर्तन के साथ मिलकर काम करते हैं।

खुद को नुकसान पहुंचाना और आत्महत्या से जुड़ा कंटेंट

हम Snap चैटर्स के मानसिक स्वास्थ्य और भलाई के बारे में बहुत परवाह करते हैं और इसको ध्यान में रखकर ही हम Snapchat को एक बेहतर जगह बनाने से जुड़े फ़ैसले लेते हैंं। असली फ़्रेंड्स के बीच बातचीत के लिए डिज़ाइन किए गए प्लेटफ़ॉर्म के रूप में, Snapchat मुश्किल पलों में, फ़्रेंड्स को एक दूसरे को ताकत देने में एक अनोखी भूमिका निभा सकता है।

जब हमारी ट्रस्ट और सुरक्षा टीम को यह पता चलता है कि कोई Snap चैटर्स परेशान है, तो वे खुद को नुकसान पहुंचाने से रोकने से जुड़े संसाधनों को उनके सामने पेश कर सकती है और जहां ज़रूरी हो, वहां आपातकालीन कार्यकर्ताओं को जानकारी दे सकती है। हमारे द्वारा शेयर किए गए संसाधन हमारी सुरक्षा संसाधनों की हमारी वैश्विक सूची में उपलब्ध हैं, और ये सभी Snap चैटर्स के लिए सार्वजनिक रूप से उपलब्ध हैं।

देश के बारे में अवलोकन

इस सेक्शन में एक चुने गए भौगोलिक क्षेत्र में हमारी कम्युनिटी दिशानिर्देशों को लागू करने से जुड़ा ओवरव्यू दिया गया है। हमारे दिशानिर्देश, Snapchat पर सभी कंटेंट और दुनिया भर के सभी Snap चैटर्स पर लागू होते हैं, चाहे वे कहीं भी रहते हों।

देश विशेष के मान से जानकारी, संलग्न CSV फ़ाइल के माध्यम से डाउनलोड के लिए उपलब्ध है।