25 अप्रैल, 2024
29 अगस्त, 2024
हमारे यूरोपीय यूनियन (EU) पारदर्शिता पेज में आपका स्वागत है, जहां हम डिजिटल सेवा अधिनियम (DSA), ऑडियोविजुअल मीडिया सेवा डायरेक्टिव (AVMSD), डच मीडिया अधिनियम (DMA), और आतंकवादी कंटेंट ऑनलाइन विनियमन (TCO) द्वारा आवश्यक EU विशिष्ट जानकारी प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।
Snap Group Limited ने Snap B.V. को DSA के उद्देश्यों के लिए अपना कानूनी प्रतिनिधि नियुक्त किया है। आप हमारी सपोर्ट साइट [यहाँ] के माध्यम से, या निम्नलिखित पर, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर, TCO के लिए tco-enquiries [at] snapchat.com पर, प्रतिनिधि से संपर्क कर सकते हैं:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहां दिए गए चरणों को फ़ॉलो करें।
कृपया हमसे संपर्क करते समय अंग्रेजी या डच में बात करें।
DSA के लिए, हमें यूरोपियन कमीशन, और नीदरलैंड्स उपभोक्ता एवं बाजार प्राधिकार (ACM) द्वारा रेगुलेट किया जाता है। AVMSD और DMA के लिए, हमें डच मीडिया प्राधिकार (CvdM) द्वारा रेगुलेट किया जाता है। TCO के लिए, ऑनलाइन आतंकवादी कंटेंट और बाल यौन दुरुपयोग सामग्री (ATKM) की रोकथाम के लिए हमें नीदरलैंड्स प्राधिकार द्वारा रेगुलेट किया जाता है।
DSA के अनुच्छेद 15, 24 और 42 के तहत Snap को Snapchat की उन सेवाओं के लिए Snap के कंटेंट के मॉडरेशन के संबंध में निर्धारित जानकारी वाली रिपोर्ट प्रकाशित करना आवश्यक है, जिन्हें "ऑनलाइन प्लैटफ़ॉर्म" माना जाता है, यानी, स्पॉटलाइट, फॉर यू, सार्वजनिक प्रोफ़ाइल, मैप्स, लेंस और विज्ञापन। यह रिपोर्ट 25 अक्टूबर 2023 से, हर 6 महीने में प्रकाशित की जानी चाहिए।
Snap के सुरक्षा प्रयासों और हमारे प्लेटफ़ॉर्म पर रिपोर्ट की गई कंटेंट की प्रकृति और मात्रा के बारे में जानकारी प्रदान करने के लिए, Snap, साल में दो बार पारदर्शिता रिपोर्ट प्रकाशित करता है। H2 2023 (1 जुलाई - 31 दिसंबर) के लिए हमारी नवीनतम रिपोर्ट यहां मिल सकती है (1 अगस्त 2024 तक के हमारे औसत मासिक सक्रिय प्राप्तकर्ता आंकड़ों के अपडेट के साथ - इस पेज के निचले हिस्से को देखें)। डिजिटल सेवा अधिनियम के लिए विशिष्ट आकड़ें इस पृष्ठ पर मिल सकते हैं।
31 दिसंबर 2023 तक, EU में हमारे Snapchat ऐप के 90.9 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता (“AMAR”) हैं। इसका मतलब है कि पिछले 6 महीने में, EU में औसतन 90.9 मिलियन पंजीकृत उपयोगकर्ताओं ने, एक निर्दिष्ट महीने के दौरान, Snapchat ऐप को कम-से-कम एक बार खोला है।
सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:
इन आंकड़ों की गणना वर्तमान डीएसए नियमों को पूरा करने के लिए की गई थी और केवल डीएसए के उद्देश्यों के लिए ही उन पर निर्भर किया जाना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव को मद्देनज़र रखते हुए इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।
टेकडाउन अनुरोध
इस अवधि के दौरान, हमें DSA अनुच्छेद 9 के अनुपालन में यूरोपीय संघ के सदस्य राज्यों से 0 टेकडाउन अनुरोध प्राप्त हुए हैं।
जानकारी से जुड़े अनुरोध
इस अवधि के दौरान, हमें यूरोपीय संघ के सदस्य देशों से निम्न जानकारी अनुरोध मिले हैं:
जानकारी से जुड़े अनुरोध को प्राप्त करने के बारे में अधिकारियों को सूचित करने का कुल औसत समय 0 मिनट है — हम अनुरोध प्राप्त होने की पुष्टि के लिए स्वचालित तौर पर जवाब देते हैं। जानकारी से जुड़े अनुरोधों को प्रभावी करने में लगने वाला कुल औसत समय ~10 दिन है। यह आंकड़ा Snap Inc. द्वारा जानकारी से जुड़े किसी अनुरोध को प्राप्त करने और Snap Inc. द्वारा उस अनुरोध के पूरी तरह समाधान में लगने वाली समयावधि को दर्शाता है। कुछ मामलों में, इस प्रोसेस में लगने वाला समय आंशिक रूप से कानूनी अधिकारियों द्वारा किसी भी अनुरोध का जवाब देने की गति पर तय करता है, जिसमें Snap Inc. से अपने अनुरोध को प्रोसेस करने के लिए ज़रूरी स्पष्टिकरण की मांग की जाती है।
Snapchat पर सभी कंटेंट को हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों के साथ-साथ सहायक शर्तों, दिशानिर्देशों और विवरणिकाओं का पालन करना होगा। सक्रिय पहचान तंत्रों और अवैध या उल्लंघनकारी कंटेंट या अकाउंट्स की रिपोर्ट्स एक पुनरावलोकन का संकेत देती है, जिस बिंदु पर, हमारे टूलिंग सिस्टम्स अनुरोध को प्रोसेस करते हैं, प्रासंगिक मेटाडेटा इकट्ठा करते हैं, और एक संरचित यूज़र इंटरफ़ेस के माध्यम से प्रासंगिक सामग्री को हमारी मॉडरेशन टीम तक पहुंचाते हैं जिसे प्रभावी और कुशल पुनरावलोकन संचालन को सुगम करने के लिए डिज़ाइन किया गया है। जब हमारी मॉडरेशन टीमें मानव पुनरावलोकन या स्वचालित माध्यमों से यह निर्धारित करती हैं कि किसी यूज़र ने हमारी शर्तों का उल्लंघन किया है, तो संभव है कि हम आपत्तिजनक कंटेंट या अकाउंट को हटा दें, संबंधित अकांउट की दृश्यता को समाप्त या सीमित कर दें, और/या कानून प्रवर्तन को सूचित कर दें जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील विवरणिका में बताया गया है। जिन यूज़र्स के अकाउंट्स कम्यूनिटी दिशानिर्देशों के उल्लंघन के लिए हमारी सुरक्षा टीम द्वारा लॉक कर दिए गए हैं, वे लॉक किए गए अकाउंट की अपील सबमिट कर सकते हैं, और यूज़र्स कुछ कंटेंट प्रवर्तनों के खिलाफ अपील कर सकते हैं।
कंटेंट और अकाउंट से जुड़े नोटिस (DSA अनुच्छेद 15.1(ख))
Snap Inc. ने यूज़र्स और नॉन-यूज़र्स को प्लेटफ़ॉर्म पर हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों का उल्लंघन करने वाले कंटेंट और अकाउंट के बारे में Snap Inc. को सूचित करने के लिए तंत्र स्थापित किए हैं, जिसमें वे कंटेंट और अकाउंट भी शामिल हैं जिन्हें DSA अनुच्छेद 16 के अनुसार गैर-कानूनी माना जाता है। रिपोर्ट करने के ये तंत्र ऐप में ही (मतलब कि सीधे कंटेंट के किसी हिस्से से) और हमारी वेबसाइट पर उपलब्ध हैं।
संबंधित अवधि के दौरान, हमें यूरोपीय संघ में कंटेंट और अकाउंट से जुड़े ये नोटिस प्राप्त हुए:
H2’23 में, हमने 6,64,896 नोटिसों को पूरी तरह से स्वचालित साधनों के ज़रिए संभाला है। इन सभी को हमारे कम्युनिटी दिशानिर्देश के खिलाफ लागू किया गया था क्योंकि हमारे कम्युनिटी दिशानिर्देश में गैर-कानूनी कंटेंट संपुटित है।
यूज़र द्वारा जेनरेट किए गए कंटेंट और अकाउंट के अलावे, हम अपने प्लेटफ़ॉर्म की नीतियों का उल्लंघन करने वाले विज्ञापनों को भी नियंत्रित करते हैं। ऐसे विज्ञापन की कुल संख्या नीचे दी गई है जिनें यूरोपीय संघ में रिपोर्ट किया गया था और हटाया गया था।
विश्वसनीय संरक्षक नोटिस (अनुच्छेद 15.1(ख))
हमारी ताज़ा पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। इसके नतीजतन, इस अवधि में ऐसे विश्वसनीय संरक्षकों द्वारा सबमिट किए गए नोटिस की संख्या शून्य (0) थी।
प्रोएक्टिव कंटेंट मॉडरेशन (अनुच्छेद 15.1(ग))
संबंधित अवधि के दौरान, Snap Inc. ने अपनी खुद की पहल पर कंटेंट मॉडरेशन को शामिल करने के बाद यूरोपीय संघ में नीचे दिए गए कंटेंट और अकाउंट को लागू किया था:
Snap Inc. के मॉडरेशन के प्रयासों से जुड़े खुद के सभी पहलों में मानवीय सहायता या स्वचालन का लाभ उठाया गया। हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:
मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;
हैश-मैचिंग टूल्स (जैसे कि PhotoDNA और Google का CSAI Match);
पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजी भी शामिल हैं, की नियमित रूप से अपडेट की गई सूची के आधार पर कंटेंट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना
अपील (अनुच्छेद 15.1(घ))
संबंधित अवधि के दौरान, Snap Inc. ने अपने आंतरिक शिकायत-निपटान प्रणालियों के ज़रिए यूरोपीय संघ में कंटेंट और अकाउंट से जुड़ी इन अपीलों को प्रोसेस किया:
* बाल यौन शोषण रोकना सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम उम्मीद करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार और प्रारंभिक प्रवर्तन की सटीकता में सुधार की दिशा में प्रगति को उजागर करेगी।
कंटेंट मॉडरेशन के लिए स्वचालित साधन (अनुच्छेद 15.1(e))
हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:
मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;
हैश-मैचिंग टूल्स (जैसे PhotoDNA और Google का CSAI Match);
पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजीस भी शामिल हैं, उनकी नियमित रूप से अद्यतन की गई सूची के आधार पर कंटेट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना।
सभी नुकसानों के लिए स्वचालित मॉडरेशन प्रौद्योगिकियों की सटीकता लगभग 96.61% थी और त्रुटि दर लगभग 3.39% थी।
हम मानते हैं कि कंटेंट मॉडरेशन में कई तरह के जोखिम होते हैं, जिनमें अभिव्यक्ति और एकत्र होने की स्वतंत्रता के जोखिम भी शामिल हैं जो अपने आप और मानव मॉडरेटर पूर्वाग्रह और सरकारों, राजनीतिक निर्वाचन क्षेत्रों या सुव्यवस्थित व्यक्तियों की अपमानजनक रिपोर्ट के कारण हो सकते हैं। Snapchat आम तौर पर राजनीतिक या एक्टिविस्ट कंटेंट के लिए नहीं है, खासकर हमारे सार्वजनिक स्थानों में।
फिर भी, इन जोखिमों से बचने के लिए, Snap के पास परीक्षण और प्रशिक्षण मौजूद हैं और कानून प्रवर्तन और सरकारी अधिकारियों सहित अवैध या कंटेंट के उल्लंघन की सूचना पर प्रतिक्रिया करने के लिए मज़बूत, सतत प्रक्रियाएं हैं। हम हमारे कंटेंट मॉडरेशन एल्गोरिदम का लगातार मूल्यांकन और विकास करते रहते हैं। हालांकि अभिव्यक्ति की स्वतंत्रता के संभावित नुकसान का पता लगाना मुश्किल है, हमें किसी भी महत्वपूर्ण समस्या के बारे में पता नहीं है और यदि कोई गलती होती है तो हम अपने उपयोगकर्ताओं को उनकी रिपोर्ट करने का अवसर देते हैं।
हमारी नीतियां और प्रणालियां सतत और निष्पक्ष प्रवर्तन को बढ़ावा देते हैं और, जैसा कि ऊपर बताया गया है, Snap चैटर्स को नोटिस और अपील की प्रक्रियाओं के माध्यम से प्रवर्तन परिणामों पर सार्थक रूप से विवाद करने का अवसर देते हैं, जिसका उद्देश्य Snap चैटर के निजी अधिकारों की रक्षा करते हुए हमारी कम्युनिटी के हितों को सुरक्षित रखना है।
हम लगातार अपनी प्रवर्तन की नीतियों और प्रक्रियाओं में सुधार करने का प्रयास करते हैं और Snapchat पर संभावित हानिकारक और अवैध कंटेंट और गतिविधियों से निपटने में काफी प्रगति की है। यह हमारी नवीनतम पारदर्शिता रिपोर्ट में दर्शाई गई हमारी रिपोर्टिंग और प्रवर्तन के आंकड़ों के बढ़ते ट्रेंड्स और कुल मिलाकर Snapchat पर होने वाले उल्लंघनों की गिरावट में दिखता है।
हमारी नवीनतम पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। परिणामस्वरूप, इस अवधि में ऐसे निकायों को प्रस्तुत किए गए विवादों की संख्या शून्य (0) थी, और हम परिणाम, निपटान के लिए औसत बदलाव का समय और उन विवादों का हिस्सा प्रदान करने में असमर्थ हैं जहां हमने निकाय के निर्णयों को लागू किया था।
2023 की दूसरी छमाही के दौरान, हमने अनुच्छेद 23 के अनुसार कोई भी अकाउंट निलंबन नहीं किया है। Snap की ट्रस्ट एंड सेफ्टी टीम के पास उपयोगकर्ता खातों द्वारा बार-बार नोटिस या शिकायतें प्रस्तुत करने की संभावना को सीमित करने के लिए प्रक्रियाएं हैं जो स्पष्ट रूप से निराधार हैं। इन प्रक्रियाओं में डुप्लिकेट रिपोर्ट निर्माण को प्रतिबंधित करना और उन उपयोगकर्ताओं को ऐसा करने से रोकने के लिए ईमेल फ़िल्टर का उपयोग शामिल है जो अक्सर स्पष्ट रूप से निराधार रिपोर्ट सबमिट करते हैं। हालांकि, Snap हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील एक्सप्लेनर में बताए गए खातों के खिलाफ उचित प्रवर्तन कार्यवाही करता है और Snap अकाउंट प्रवर्तन के स्तर के बारे में जानकारी हमारी पारदर्शिता रिपोर्ट (H2 2023) में देखी जा सकती है। ऐसे उपायों की समीक्षा और पुनरावृत्ति जारी रहेगी।
हमारी कंटेंट मॉडरेशन टीम दुनिया भर में काम करती है, जो हमें Snap चैटर्स को 24/7 सुरक्षित रखने में मदद करने में सक्षम बनाती है। नीचे, आपको अगस्त 2023 तक मॉडरेटर की भाषा विशेषज्ञता के आधार पर हमारे मानवीय मॉडरेशन संसाधनों का विवरण मिलेगा (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ हैं):
ऊपर दी गई तालिका में ऐसे सभी मॉडरेटर शामिल है, जो 31 दिसंबर 2023 तक यूरोपीय संघ के सदस्य राज्य भाषाओँ का समर्थन करते हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सहायता की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।
मॉडरेटर की भर्ती एक मानक नौकरी विवरण के आधार पर की जाती है जिसमें भाषा संबंधी आवश्यकता (आवश्यकता के आधार पर) शामिल होती है। भाषा की आवश्यकता के अनुसार उम्मीदवार का लिखित और मौखिक रूप से भाषा में धारा प्रवाह होना ज़रूरी है और प्रवेश स्तर के पदों के लिए उसके पास कम-से-कम एक वर्ष का कार्य अनुभव होना चाहिए। उम्मीदवारों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके उम्मीदवारी पर विचार किया जा सकें। अभ्यर्थियों को अवश्य ही उस देश या क्षेत्र की मौजूदा घटनाओं की समझ भी दिखानी होगी, जहाँ वे कंटेंट मॉडरेशन को सपोर्ट करेंगे।
हमारी मॉडरेशन टीम हमारे Snapchat समुदाय को सुरक्षित रखने में मदद करने के लिए हमारी नीतियों और प्रवर्तन उपायों को लागू करती है। प्रशिक्षण कई-सप्ताह तक चलता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। प्रशिक्षण के बाद, कंटेंट को रिव्यु करने की अनुमति मिलने से पहले प्रत्येक मॉडरेटर को एक प्रमाणीकरण परीक्षा पास करनी होती है। हमारी मॉडरेशन टीम नियमित रूप से अपने वर्क फ्लो से संबंधित रिफ्रेशर प्रशिक्षण में भाग लेती है, खासकर जब हम नीति की सीमारेखा और संदर्भ-आधारित मामलों का सामना करते हैं। यह सुनिश्चित करने के लिए कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं, हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर महत्वपूर्ण कंटेंट ट्रेंड्स पेश आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।
हम अपनी कंटेंट मॉडरेशन टीम - Snap के "डिजिटल फ़र्स्ट रिस्पॉन्डर्स" को ऑन-द-जॉब स्वास्थ्य सपोर्ट और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच सहित महत्वपूर्ण सपोर्ट और संसाधन प्रदान करते हैं।
बैकग्राउंड
हमारे समुदाय के किसी भी सदस्य, विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफ़ॉर्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।
ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।
रिपोर्ट
नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।
बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुरुआती प्रवर्तन में सुधार को रेखांकित करेगी।
कंटेंट मॉडरेशन सुरक्षा उपाय
CSEA मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।
प्रकाशित: 17 जून, 2024
पिछला अद्यतन: 17 जून, 2024
यह पारदर्शिता रिपोर्ट यूरोपीय संसद और यूरोपीय परिषद के विनियम 2021/784 के अनुच्छेद 7(2) और 7(3) के अनुसार प्रकाशित की गई है, जो आतंकवादी कंटेंट के ऑनलाइन प्रसारण को संबोधित करते हैं (विनियम)। यह रिपेर्टिंग अवधि 1 जनवरी - 31 दिसंबर, 2023 को कवर करती है।
अनुच्छेद 7(3)(ए): आतंकवादी कॉन्टेंट की पहचान और उसे हटाने या उस तक पहुँच को अक्षम करने के संबंध में सेवा प्रदाता के उपायों के बारे में जानकारी।
अनुच्छेद 7(3)(बी): आतंकवादी कंटेंट माने जाने के कारण पहले हटाई गई या उस तक पहुँच अक्षम की गई कंटेंट के फिर से ऑनलाइन प्रकट होने को संबोधित करने के लिए सेवा प्रदाता के उपायों के बारे में जानकारी, खासकर जहाँ स्वचालित टूल्स का उपयोग किया गया है।
आतंकवादियों, आतंकवादी संगठनों और हिंसक चरमपंथियों के Snapchat का उपयोग करने पर प्रतिबंध है। आतंकवाद या अन्य हिंसक, आपराधिक कार्यों का समर्थन, प्रचार, महिमामंडन करने या उन्हें बढ़ावा देने वाला कॉन्टेंट हमारे कम्युनिटी दिशानिर्देशों के तहत प्रतिबंधित है। यूज़र हमारे ऐप में रिपोर्टिंग मेन्यू और हमारी सपोर्ट वेबसाइट के ज़रिए हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करने वाले कॉन्टेंट की रिपोर्ट कर सकते हैं। हम स्पॉटलाइट और डिस्कवर जैसी सार्वजनिक सतहों पर उल्लंघनकारी कंटेंट की पहचान के प्रयास के लिए भी अग्रसक्रिय पहचान का उपयोग करते हैं।
. उल्लंघनकारी कंटेंट के बारे में हमें चाहे जैसे भी पता चले, हमारी विश्वसनीयता और सुरक्षा टीमें, स्वचालन और मानव मॉडरेशन के संयोजन के माध्यम से तत्काल पहचाने गए कंटेंट की समीक्षा करती हैं और प्रवर्तन संबंधी निर्णय लेती हैं। प्रवर्तन में कंटेंट को हटाना, चेतावनी देना या उल्लंघनकारी अकाउंट को लॉक करना और, यदि आवश्यक हुआ, तो कानून प्रवर्तन को उस अकाउंट की रिपोर्ट करना शामिल है। Snapchat पर आतंकवादी या अन्य हिंसक चरमपंथी कंटेंट को फिर से प्रकट होने से रोकने के लिए, कानून प्रवर्तन के साथ काम करने के अलावा, हम उल्लंघनकारी अकाउंट से जुड़े डिवाइस को ब्लॉक करने और यूज़र को दूसरा Snapchat अकाउंट बनाने से रोकने के लिए कदम उठाते हैं।
आतंकवादी कॉन्टेंट की पहचान करने और हटाने के लिए हमारे उपायों के बारे में अतिरिक्त विवरण हमारे नफ़रती कंटेंट, आतंकवाद तथा हिंसक चरमपंथ पर एक्सप्लेनर और हमारे मॉडरेशन, प्रवर्तन तथा अपीलों पर एक्सप्लेनर में देखा जा सकता है।
अनुच्छेद 7(3)(सी): हटाए गए आतंकवादी कंटेंट या हटाने के आदेश अथवा विशिष्ट उपायों के बाद जिनकी पहुँच अक्षम की गई, उनकी संख्या और हटाने के ऐसे आदेशों की संख्या जहाँ अनुच्छेद 3(7) और अनुच्छेद 3(8) के पहले उपअनुच्छेद के अनुपालन में कंटेंट हटाया नहीं गया है या उसकी पहुँच अक्षम नहीं की गई है, उनके आधारों के साथ
रिपोर्टिंग अवधि के दौरान, Snap को हटाने के कोई आदेश प्राप्त नहीं हुए, न ही हमारे लिए विनियम के अनुच्छेद 5 के अनुपालन में किन्हीं विशिष्ट उपायों को लागू करने की आवश्यकता थी। तदनुसार, हमें विनियमन के तहत प्रवर्तन कार्रवाई करने की आवश्यकता नहीं थी।
निम्नलिखित तालिका यूज़र रिपोर्टों और कंटेंट और अकाउंट्स के खिलाफ अग्रसक्रिय पहचान के आधार पर यूरोपियन यूनियन तथा दुनिया में अन्य जगहों पर की गई प्रवर्तन कार्रवाइयों का वर्णन करती है, जिन्होंने आतंकवाद और हिंसक चरमपंथी कंटेंट से संबंधित हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन किया है
अनुच्छेद 7(3)(डी): अनुच्छेद 10 के अनुपालन में होस्टिंग कंपनी द्वारा संबोधित शिकायतों की मात्रा और समाधान
अनुच्छेद 7(3)(जी): ऐसे उदाहरणों की संख्या जहां होस्टिंग सेवा प्रदाता ने सामग्री प्रदाता द्वारा शिकायत दर्ज करने के बाद पहुंच या सामग्री बहाल की
जैसा कि पहले कहा गया था, हमने विनियमन के अनुच्छेद 10 के अनुसार किसी शिकायत का निपटारा नहीं किया और रिपोर्टिंग अवधि के दौरान कोई संबंधित बहाली नहीं की, क्योंकि हम विनियमन के तहत कोई प्रवर्तन कदम उठाने के लिए बाध्य नहीं थे।
यूरोपीय संघ और अंतरराष्ट्रीय स्तर पर, हमारे सामुदायिक दिशानिर्देशों के तहत लागू आतंकवादी और हिंसक चरमपंथी सामग्री के संबंध में अपील और बहाली के बारे में जानकारी निम्नलिखित तालिका में शामिल है।
बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।
कंटेंट मॉडरेशन सेफगार्ड्स
सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।
1 अगस्त 2024 तक, यूरोपीय संघ में हमारे Snapchat ऐप के 92.4 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता ("AMAR") हैं। इसका मतलब है कि पिछले 6 महीनों में, यूरोपीय संघ में औसतन 92.4 मिलियन पंजीकृत उपयोगकर्ताओं ने एक निर्दिष्ट महीने के दौरान Snapchat ऐप को कम से कम एक बार खोला है।
सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है: