Privacy, Safety, and Policy Hub
यूरोपीयन यूनियन
1 जुलाई, 2023 – 31 दिसंबर, 2023

जारी की गई:

25 अप्रैल, 2024

अपडेट की गई:

25 अप्रैल, 2024

हमारे यूरोपीय यूनियन (EU) पारदर्शिता पेज में आपका स्वागत है, जहां हम डिजिटल सेवा अधिनियम (DSA), ऑडियोविजुअल मीडिया सेवा डायरेक्टिव (AVMSD), डच मीडिया अधिनियम (DMA), और आतंकवादी कंटेंट ऑनलाइन विनियमन (TCO) द्वारा आवश्यक EU विशिष्ट जानकारी प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।

कानूनी प्रतिनिधि 

Snap Group Limited ने Snap B.V. को DSA के उद्देश्यों के लिए अपना कानूनी प्रतिनिधि नियुक्त किया है। आप हमारी सपोर्ट साइट [यहाँ] के माध्यम से, या निम्नलिखित पर, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर, TCO के लिए tco-enquiries [at] snapchat.com पर, प्रतिनिधि से संपर्क कर सकते हैं:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहां दिए गए चरणों को फ़ॉलो करें।

कृपया हमसे संपर्क करते समय अंग्रेजी या डच में बात करें।

नियामक प्राधिकरण

DSA के लिए, हमें यूरोपियन कमीशन, और नीदरलैंड्स उपभोक्ता एवं बाजार प्राधिकार (ACM) द्वारा रेगुलेट किया जाता है। AVMSD और DMA के लिए, हमें डच मीडिया प्राधिकार (CvdM) द्वारा रेगुलेट किया जाता है। TCO के लिए, ऑनलाइन आतंकवादी कंटेंट और बाल यौन दुरुपयोग सामग्री (ATKM) की रोकथाम के लिए हमें नीदरलैंड्स प्राधिकार द्वारा रेगुलेट किया जाता है।

DSA पारदर्शिता रिपोर्ट

DSA के अनुच्छेद 15, 24 और 42 के तहत Snap को Snapchat की उन सेवाओं के लिए Snap के कंटेंट के मॉडरेशन के संबंध में निर्धारित जानकारी वाली रिपोर्ट प्रकाशित करना आवश्यक है, जिन्हें "ऑनलाइन प्लैटफ़ॉर्म" माना जाता है, यानी, स्पॉटलाइट, फॉर यू, सार्वजनिक प्रोफ़ाइल, मैप्स, लेंस और विज्ञापन। यह रिपोर्ट 25 अक्टूबर 2023 से, हर 6 महीने में प्रकाशित की जानी चाहिए।

Snap के सुरक्षा प्रयासों और हमारे प्लेटफ़ॉर्म पर रिपोर्ट की गई कंटेंट की प्रकृति और मात्रा के बारे में जानकारी प्रदान करने के लिए, Snap, साल में दो बार पारदर्शिता रिपोर्ट प्रकाशित करता है। H2 2023 (1 जुलाई - 31 दिसंबर) के लिए हमारी नवीनतम रिपोर्ट यहां मिल सकती है (1 अगस्त 2024 तक के हमारे औसत मासिक सक्रिय प्राप्तकर्ता आंकड़ों के अपडेट के साथ - इस पेज के निचले हिस्से को देखें)। डिजिटल सेवा अधिनियम के लिए विशिष्ट आकड़ें इस पृष्ठ पर मिल सकते हैं।

औसत सक्रिय मासिक प्राप्तकर्ता 
(DSA अनुच्छेद 24.2 और 42.3)

31 दिसंबर 2023 तक, EU में हमारे Snapchat ऐप के 90.9 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता (“AMAR”) हैं। इसका मतलब है कि पिछले 6 महीने में, EU में औसतन 90.9 मिलियन पंजीकृत उपयोगकर्ताओं ने, एक निर्दिष्ट महीने के दौरान, Snapchat ऐप को कम-से-कम एक बार खोला है।

सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:

इन आंकड़ों की गणना वर्तमान डीएसए नियमों को पूरा करने के लिए की गई थी और केवल डीएसए के उद्देश्यों के लिए ही उन पर निर्भर किया जाना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव को मद्देनज़र रखते हुए इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।


सदस्य राज्य प्राधिकार अनुरोध
(DSA अनुच्छेद 15.1(क))

टेकडाउन अनुरोध 

इस अवधि के दौरान, हमें DSA अनुच्छेद 9 के अनुपालन में यूरोपीय संघ के सदस्य राज्यों से 0 टेकडाउन अनुरोध प्राप्त हुए हैं। 

जानकारी से जुड़े अनुरोध 

इस अवधि के दौरान, हमें DSA अनुच्छेद 10 के अनुपालन में यूरोपीय संघ के सदस्य राज्यों से जानकारी से जुड़े निम्न अनुरोध प्राप्त हुए हैं:

जानकारी से जुड़े अनुरोध को प्राप्त करने के बारे में अधिकारियों को सूचित करने का कुल औसत समय 0 मिनट है — हम अनुरोध प्राप्त होने की पुष्टि के लिए स्वचालित तौर पर जवाब देते हैं। जानकारी से जुड़े अनुरोधों को प्रभावी करने में लगने वाला कुल औसत समय ~10 दिन है। यह आंकड़ा Snap Inc. द्वारा जानकारी से जुड़े किसी अनुरोध को प्राप्त करने और Snap Inc. द्वारा उस अनुरोध के पूरी तरह समाधान में लगने वाली समयावधि को दर्शाता है। कुछ मामलों में, इस प्रोसेस में लगने वाला समय आंशिक रूप से कानूनी अधिकारियों द्वारा किसी भी अनुरोध का जवाब देने की गति पर तय करता है, जिसमें Snap Inc. से अपने अनुरोध को प्रोसेस करने के लिए ज़रूरी स्पष्टिकरण की मांग की जाती है।

कंटेंट मॉडरेशन 


Snapchat पर सभी कंटेंट को हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों के साथ-साथ सहायक शर्तों, दिशानिर्देशों और विवरणिकाओं का पालन करना होगा। सक्रिय पहचान तंत्रों और अवैध या उल्लंघनकारी कंटेंट या अकाउंट्स की रिपोर्ट्स एक पुनरावलोकन का संकेत देती है, जिस बिंदु पर, हमारे टूलिंग सिस्टम्स अनुरोध को प्रोसेस करते हैं, प्रासंगिक मेटाडेटा इकट्ठा करते हैं, और एक संरचित यूज़र इंटरफ़ेस के माध्यम से प्रासंगिक सामग्री को हमारी मॉडरेशन टीम तक पहुंचाते हैं जिसे प्रभावी और कुशल पुनरावलोकन संचालन को सुगम करने के लिए डिज़ाइन किया गया है। जब हमारी मॉडरेशन टीमें मानव पुनरावलोकन या स्वचालित माध्यमों से यह निर्धारित करती हैं कि किसी यूज़र ने हमारी शर्तों का उल्लंघन किया है, तो संभव है कि हम आपत्तिजनक कंटेंट या अकाउंट को हटा दें, संबंधित अकांउट की दृश्यता को समाप्त या सीमित कर दें, और/या कानून प्रवर्तन को सूचित कर दें जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील विवरणिका में बताया गया है।  जिन यूज़र्स के अकाउंट्स कम्यूनिटी दिशानिर्देशों के उल्लंघन के लिए हमारी सुरक्षा टीम द्वारा लॉक कर दिए गए हैं, वे लॉक किए गए अकाउंट की अपील सबमिट कर सकते हैं, और यूज़र्स कुछ कंटेंट प्रवर्तनों के खिलाफ अपील कर सकते हैं।

कंटेंट और अकाउंट से जुड़े नोटिस (DSA अनुच्छेद 15.1(ख))

Snap Inc. ने यूज़र्स और नॉन-यूज़र्स को प्लेटफ़ॉर्म पर हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों का उल्लंघन करने वाले कंटेंट और अकाउंट के बारे में Snap Inc. को सूचित करने के लिए तंत्र स्थापित किए हैं, जिसमें वे कंटेंट और अकाउंट भी शामिल हैं जिन्हें DSA अनुच्छेद 16 के अनुसार गैर-कानूनी माना जाता है।  रिपोर्ट करने के ये तंत्र ऐप में ही (मतलब कि सीधे कंटेंट के किसी हिस्से से) और हमारी वेबसाइट पर उपलब्ध हैं।

संबंधित अवधि के दौरान, हमें यूरोपीय संघ में कंटेंट और अकाउंट से जुड़े ये नोटिस प्राप्त हुए:

H2’23 में, हमने 6,64,896 नोटिसों को पूरी तरह से स्वचालित साधनों के ज़रिए संभाला है। इन सभी को हमारे कम्युनिटी दिशानिर्देश के खिलाफ लागू किया गया था क्योंकि हमारे कम्युनिटी दिशानिर्देश में गैर-कानूनी कंटेंट संपुटित है। 

यूज़र द्वारा जेनरेट किए गए कंटेंट और अकाउंट के अलावे, हम अपने प्लेटफ़ॉर्म की नीतियों का उल्लंघन करने वाले विज्ञापनों को भी नियंत्रित करते हैं। ऐसे विज्ञापन की कुल संख्या नीचे दी गई है जिनें यूरोपीय संघ में रिपोर्ट किया गया था और हटाया गया था। 

विश्वसनीय संरक्षक नोटिस (अनुच्छेद 15.1(ख))

हमारी ताज़ा पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। इसके नतीजतन, इस अवधि में ऐसे विश्वसनीय संरक्षकों द्वारा सबमिट किए गए नोटिस की संख्या शून्य (0) थी।

प्रोएक्टिव कंटेंट मॉडरेशन (अनुच्छेद 15.1(ग))

संबंधित अवधि के दौरान, Snap Inc. ने अपनी खुद की पहल पर कंटेंट मॉडरेशन को शामिल करने के बाद यूरोपीय संघ में नीचे दिए गए कंटेंट और अकाउंट को लागू किया था:

Snap Inc. के मॉडरेशन के प्रयासों से जुड़े खुद के सभी पहलों में मानवीय सहायता या स्वचालन का लाभ उठाया गया। हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:

  • मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;

  • हैश-मैचिंग टूल्स (जैसे कि PhotoDNA और Google का CSAI Match);

  • पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजी भी शामिल हैं, की नियमित रूप से अपडेट की गई सूची के आधार पर कंटेंट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना


अपील (अनुच्छेद 15.1(घ))

संबंधित अवधि के दौरान, Snap Inc. ने अपने आंतरिक शिकायत-निपटान प्रणालियों के ज़रिए यूरोपीय संघ में कंटेंट और अकाउंट से जुड़ी इन अपीलों को प्रोसेस किया:


* बाल यौन शोषण रोकना सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम उम्मीद करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार और प्रारंभिक प्रवर्तन की सटीकता में सुधार की दिशा में प्रगति को उजागर करेगी।

कंटेंट मॉडरेशन के लिए स्वचालित साधन (अनुच्छेद 15.1(e))

हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:

  • मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;

  • हैश-मैचिंग टूल्स (जैसे PhotoDNA और Google का CSAI Match);

  • पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजीस भी शामिल हैं, उनकी नियमित रूप से अद्यतन की गई सूची के आधार पर कंटेट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना।


सभी नुकसानों के लिए स्वचालित मॉडरेशन प्रौद्योगिकियों की सटीकता लगभग 96.61% थी और त्रुटि दर लगभग 3.39% थी।


कंटेंट मॉडरेशन सेफ़गार्ड (अनुच्छेद 15.1(e))

हम मानते हैं कि कंटेंट मॉडरेशन में कई तरह के जोखिम होते हैं, जिनमें अभिव्यक्ति और एकत्र होने की स्वतंत्रता के जोखिम भी शामिल हैं जो अपने आप और मानव मॉडरेटर पूर्वाग्रह और सरकारों, राजनीतिक निर्वाचन क्षेत्रों या सुव्यवस्थित व्यक्तियों की अपमानजनक रिपोर्ट के कारण हो सकते हैं। Snapchat आम तौर पर राजनीतिक या एक्टिविस्ट कंटेंट के लिए नहीं है, खासकर हमारे सार्वजनिक स्थानों में। 


फिर भी, इन जोखिमों से बचने के लिए, Snap के पास परीक्षण और प्रशिक्षण मौजूद हैं और कानून प्रवर्तन और सरकारी अधिकारियों सहित अवैध या कंटेंट के उल्लंघन की सूचना पर प्रतिक्रिया करने के लिए मज़बूत, सतत प्रक्रियाएं हैं। हम हमारे कंटेंट मॉडरेशन एल्गोरिदम का लगातार मूल्यांकन और विकास करते रहते हैं। हालांकि अभिव्यक्ति की स्वतंत्रता के संभावित नुकसान का पता लगाना मुश्किल है, हमें किसी भी महत्वपूर्ण समस्या के बारे में पता नहीं है और यदि कोई गलती होती है तो हम अपने उपयोगकर्ताओं को उनकी रिपोर्ट करने का अवसर देते हैं। 


हमारी नीतियां और प्रणालियां सतत और निष्पक्ष प्रवर्तन को बढ़ावा देते हैं और, जैसा कि ऊपर बताया गया है, Snap चैटर्स को नोटिस और अपील की प्रक्रियाओं के माध्यम से प्रवर्तन परिणामों पर सार्थक रूप से विवाद करने का अवसर देते हैं, जिसका उद्देश्य Snap चैटर के निजी अधिकारों की रक्षा करते हुए हमारी कम्युनिटी के हितों को सुरक्षित रखना है।

हम लगातार अपनी प्रवर्तन की नीतियों और प्रक्रियाओं में सुधार करने का प्रयास करते हैं और Snapchat पर संभावित हानिकारक और अवैध कंटेंट और गतिविधियों से निपटने में काफी प्रगति की है। यह हमारी नवीनतम पारदर्शिता रिपोर्ट में दर्शाई गई हमारी रिपोर्टिंग और प्रवर्तन के आंकड़ों के बढ़ते ट्रेंड्स और कुल मिलाकर Snapchat पर होने वाले उल्लंघनों की गिरावट में दिखता है। 


कोर्ट से बाहर निपटान (अनुच्छेद 24.1(a))

हमारी नवीनतम पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। परिणामस्वरूप, इस अवधि में ऐसे निकायों को प्रस्तुत किए गए विवादों की संख्या शून्य (0) थी, और हम परिणाम, निपटान के लिए औसत बदलाव का समय और उन विवादों का हिस्सा प्रदान करने में असमर्थ हैं जहां हमने निकाय के निर्णयों को लागू किया था।



अकाउंट निलंबन (अनुच्छेद 24.1(b))

2023 की दूसरी छमाही के दौरान, हमने अनुच्छेद 23 के अनुसार कोई भी अकाउंट निलंबन नहीं किया है। Snap की ट्रस्ट एंड सेफ्टी टीम के पास उपयोगकर्ता खातों द्वारा बार-बार नोटिस या शिकायतें प्रस्तुत करने की संभावना को सीमित करने के लिए प्रक्रियाएं हैं जो स्पष्ट रूप से निराधार हैं। इन प्रक्रियाओं में डुप्लिकेट रिपोर्ट निर्माण को प्रतिबंधित करना और उन उपयोगकर्ताओं को ऐसा करने से रोकने के लिए ईमेल फ़िल्टर का उपयोग शामिल है जो अक्सर स्पष्ट रूप से निराधार रिपोर्ट सबमिट करते हैं। हालांकि, Snap हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील एक्सप्लेनर में बताए गए खातों के खिलाफ उचित प्रवर्तन कार्यवाही करता है और Snap अकाउंट प्रवर्तन के स्तर के बारे में जानकारी हमारी पारदर्शिता रिपोर्ट (H2 2023) में देखी जा सकती है। ऐसे उपायों की समीक्षा और पुनरावृत्ति जारी रहेगी।


मॉडरेटर संसाधन, विशेषज्ञता और सपोर्ट (अनुच्छेद 42.2)

हमारी कंटेंट मॉडरेशन टीम दुनिया भर में काम करती है, जो हमें Snap चैटर्स को 24/7 सुरक्षित रखने में मदद करने में सक्षम बनाती है। नीचे, आपको अगस्त 2023 तक मॉडरेटर की भाषा विशेषज्ञता के आधार पर हमारे मानवीय मॉडरेशन संसाधनों का विवरण मिलेगा (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ हैं):

ऊपर दी गई तालिका में ऐसे सभी मॉडरेटर शामिल है, जो 31 दिसंबर 2023 तक यूरोपीय संघ के सदस्य राज्य भाषाओँ का समर्थन करते हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सपोर्ट की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।

मॉडरेटर्स की नियुक्ति भाषा की आवश्यकता (आवश्यकतानुसार) एक मानक कार्य विवरण का इस्तेमाल करते हुए की जाती है। भाषा की आवश्यकता के अनुसार उम्मीदवार का लिखित और मौखिक रूप से भाषा में धारा प्रवाह होना ज़रूरी है और प्रवेश स्तर के पदों के लिए उसके पास कम-से-कम एक वर्ष का कार्य अनुभव होना चाहिए। अभ्यर्थियों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके अभ्यार्थित्व पर विचार किया जा सकें। अभ्यर्थियों को अवश्य ही उस देश या क्षेत्र की मौजूदा घटनाओं की समझ भी दिखानी होगी, जहाँ वे कंटेंट मॉडरेशन को सपोर्ट करेंगे।

हमारी मॉडरेशन टीम हमारे Snapchat समुदाय को सुरक्षित रखने में मदद करने के लिए हमारी नीतियों और प्रवर्तन उपायों को लागू करती है। प्रशिक्षण कई-सप्ताह तक चलता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। प्रशिक्षण के बाद, कंटेंट को रिव्यु करने की अनुमति मिलने से पहले प्रत्येक मॉडरेटर को एक प्रमाणीकरण परीक्षा पास करनी होती है। हमारी मॉडरेशन टीम नियमित रूप से अपने वर्क फ्लो से संबंधित रिफ्रेशर प्रशिक्षण में भाग लेती है, खासकर जब हम नीति की सीमारेखा और संदर्भ-आधारित मामलों का सामना करते हैं। यह सुनिश्चित करने के लिए कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं, हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर जब महत्वपूर्ण कंटेंट ट्रेंड्स पेश आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।

हम अपनी कंटेंट मॉडरेशन टीम - Snap के "डिजिटल फ़र्स्ट रिस्पॉन्डर्स" को ऑन-द-जॉब स्वास्थ्य सपोर्ट और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच सहित महत्वपूर्ण सपोर्ट और संसाधन प्रदान करते हैं। 

बाल यौन शोषण और दुरूपयोग (सीएसईए) मीडिया स्कैनिंग रिपोर्ट


बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफार्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।


रिपोर्ट

नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।

बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


बाल यौन शोषण और दुरूपयोग (सीएसईए) मीडिया स्कैनिंग रिपोर्ट


बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफार्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।


रिपोर्ट

नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।

बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


EU DSA: औसत मासिक सक्रिय प्राप्तकर्ता (अगस्त 2024)
(DSA अनुच्छेद 24.2 और 42.3)

1 अगस्त 2024 तक, यूरोपीय संघ में हमारे Snapchat ऐप के 92.4 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता ("AMAR") हैं। इसका मतलब है कि पिछले 6 महीनों में, यूरोपीय संघ में औसतन 92.4 मिलियन पंजीकृत उपयोगकर्ताओं ने एक निर्दिष्ट महीने के दौरान Snapchat ऐप को कम से कम एक बार खोला है।

सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है: