यूरोपीयन यूनियन
1 जुलाई, 2023 – 31 दिसंबर, 2023

जारी की गई:

25 अप्रैल, 2024

अपडेट की गई:

25 अप्रैल, 2024

हमारे यूरोपीय संघ (ईयू) पारदर्शिता पृष्ठ पर आपका स्वागत है, जहाँ हम ईयू डिजिटल सेवा अधिनियम (डीएसए), ऑडियो-विजुअल मीडिया सर्विस डायरेक्टिव (एवीएमएसडी) और डच मीडिया अधिनियम (डीएमए) द्वारा अनिवार्य किए गए ईयू विशिष्ट जानकारी को प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।

कानूनी प्रतिनिधि 

Snap Group लिमिटेड ने हाल ही में Snap B.V. को डीएसए के उद्देश्यों के लिए अपने कानूनी प्रतिनिधि के रूप में नियुक्त किया है। आप [यहाँ] या निम्नलिखित पर हमारी सपोर्ट साइट के माध्यम से, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर संपर्क कर सकते हैं:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहां दिए गए चरणों को फ़ॉलो करें।

नियामक प्राधिकरण

डीएसए के लिए, हम यूरोपीयन कमीशन और नीदरलैंड्स अथॉरिटी फॉर कंज्यूमर एंड मार्केट्स (एएमसी) द्वारा अधिशासित होते हैं। एवीएमएसडी (AVMSD) और डीएमए (DMA) के लिए, हम डच मीडिया ऑथरिटी (CvdM) द्वारा अधिशासित होते हैं

डीएसए पारदर्शिता रिपोर्ट

डीएसए के अनुच्छेद 15, 24 और 42 के तहत Snap को Snapchat की उन सेवाओं के लिए Snap के कंटेंट के मॉडरेशन के संबंध में निर्धारित जानकारी वाली रिपोर्ट प्रकाशित करना आवश्यक है, जिन्हें "ऑनलाइन प्लेटफार्म्स" माना जाता है, यानी, स्पॉटलाइट, आपके लिए, सार्वजनिक प्रोफ़ाइल, मैप्स, लेंस और विज्ञापन। 25 अक्टूबर 2023 से प्रारम्भ होकर यह रिपोर्ट हर 6 महीनों में प्रकाशित की जानी चाहिए।

Snap के सुरक्षा प्रयासों और हमारे प्लेटफ़ॉर्म पर रिपोर्ट किए गए कंटेंट की प्रकृति और मात्रा के बारे में जानकारी प्रदान करने के लिए Snap साल में दो बार पारदर्शिता रिपोर्ट प्रकाशित करता है। एच2 2023 (जुलाई 1- दिसंबर 31) के लिए हमारी नवीनतम रिपोर्ट यहाँदेखी जा सकती है। डिजिटल सेवा अधिनियम के लकी विशिष्ट आकड़ें इस पृष्ठ पर देखे जा सकते हैं।

औसत सक्रिय मासिक प्राप्त-कर्ता 
(डीएसए अनुच्छेद 24.2 और 42.3)

31 दिसंबर 2023 तक, ईयू में हमारे Snapchat ऐप के 90.9 मिलियन औसत मासिक सक्रिय प्राप्त-कर्ता (“AMAR”) है। इसका मतलब है कि विगत 6 महीनों के दौरान, ईयू में औसतन 90.9 लाख पंजीकृत उपयोग-कर्ताओं ने उन महीनों के दौरान Snapchat ऐप को कम-से-कम एक बार खोला हैं।

सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:

इन आंकड़ों की गणना वर्तमान डीएसए नियमों को पूरा करने के लिए की गई थी और केवल डीएसए के उद्देश्यों के लिए ही उन पर निर्भर किया जाना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव को मद्देनज़र रखते हुए इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।


सदस्य राज्य प्राधिकार अनुरोध
(DSA अनुच्छेद 15.1(क))

टेकडाउन अनुरोध 

इस अवधि के दौरान, हमें DSA अनुच्छेद 9 के अनुपालन में यूरोपीय संघ के सदस्य राज्यों से 0 टेकडाउन अनुरोध प्राप्त हुए हैं। 

जानकारी से जुड़े अनुरोध 

इस अवधि के दौरान, हमें DSA अनुच्छेद 10 के अनुपालन में यूरोपीय संघ के सदस्य राज्यों से जानकारी से जुड़े निम्न अनुरोध प्राप्त हुए हैं:

जानकारी से जुड़े अनुरोध को प्राप्त करने के बारे में अधिकारियों को सूचित करने का कुल औसत समय 0 मिनट है — हम अनुरोध प्राप्त होने की पुष्टि के लिए स्वचालित तौर पर जवाब देते हैं। जानकारी से जुड़े अनुरोधों को प्रभावी करने में लगने वाला कुल औसत समय ~10 दिन है। यह आंकड़ा Snap Inc. द्वारा जानकारी से जुड़े किसी अनुरोध को प्राप्त करने और Snap Inc. द्वारा उस अनुरोध के पूरी तरह समाधान में लगने वाली समयावधि को दर्शाता है। कुछ मामलों में, इस प्रोसेस में लगने वाला समय आंशिक रूप से कानूनी अधिकारियों द्वारा किसी भी अनुरोध का जवाब देने की गति पर तय करता है, जिसमें Snap Inc. से अपने अनुरोध को प्रोसेस करने के लिए ज़रूरी स्पष्टिकरण की मांग की जाती है।

कंटेंट मॉडरेशन 


Snapchat पर सभी कंटेंट को हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों के साथ-साथ सहायक शर्तों, दिशानिर्देशों और विवरणिकाओं का पालन करना होगा। सक्रिय पहचान तंत्रों और अवैध या उल्लंघनकारी कंटेंट या अकाउंट्स की रिपोर्ट्स एक पुनरावलोकन का संकेत देती है, जिस बिंदु पर, हमारे टूलिंग सिस्टम्स अनुरोध को प्रोसेस करते हैं, प्रासंगिक मेटाडेटा इकट्ठा करते हैं, और एक संरचित यूज़र इंटरफ़ेस के माध्यम से प्रासंगिक सामग्री को हमारी मॉडरेशन टीम तक पहुंचाते हैं जिसे प्रभावी और कुशल पुनरावलोकन संचालन को सुगम करने के लिए डिज़ाइन किया गया है। जब हमारी मॉडरेशन टीमें मानव पुनरावलोकन या स्वचालित माध्यमों से यह निर्धारित करती हैं कि किसी यूज़र ने हमारी शर्तों का उल्लंघन किया है, तो संभव है कि हम आपत्तिजनक कंटेंट या अकाउंट को हटा दें, संबंधित अकांउट की दृश्यता को समाप्त या सीमित कर दें, और/या कानून प्रवर्तन को सूचित कर दें जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील विवरणिका में बताया गया है।  जिन यूज़र्स के अकाउंट्स कम्यूनिटी दिशानिर्देशों के उल्लंघन के लिए हमारी सुरक्षा टीम द्वारा लॉक कर दिए गए हैं, वे लॉक किए गए अकाउंट की अपील सबमिट कर सकते हैं, और यूज़र्स कुछ कंटेंट प्रवर्तनों के खिलाफ अपील कर सकते हैं।

कंटेंट और अकाउंट से जुड़े नोटिस (DSA अनुच्छेद 15.1(ख))

Snap Inc. ने यूज़र्स और नॉन-यूज़र्स को प्लेटफ़ॉर्म पर हमारे कम्युनिटी दिशानिर्देश और सेवा की शर्तों का उल्लंघन करने वाले कंटेंट और अकाउंट के बारे में Snap Inc. को सूचित करने के लिए तंत्र स्थापित किए हैं, जिसमें वे कंटेंट और अकाउंट भी शामिल हैं जिन्हें DSA अनुच्छेद 16 के अनुसार गैर-कानूनी माना जाता है।  रिपोर्ट करने के ये तंत्र ऐप में ही (मतलब कि सीधे कंटेंट के किसी हिस्से से) और हमारी वेबसाइट पर उपलब्ध हैं।

संबंधित अवधि के दौरान, हमें यूरोपीय संघ में कंटेंट और अकाउंट से जुड़े ये नोटिस प्राप्त हुए:

H2’23 में, हमने 6,64,896 नोटिसों को पूरी तरह से स्वचालित साधनों के ज़रिए संभाला है। इन सभी को हमारे कम्युनिटी दिशानिर्देश के खिलाफ लागू किया गया था क्योंकि हमारे कम्युनिटी दिशानिर्देश में गैर-कानूनी कंटेंट संपुटित है। 

यूज़र द्वारा जेनरेट किए गए कंटेंट और अकाउंट के अलावे, हम अपने प्लेटफ़ॉर्म की नीतियों का उल्लंघन करने वाले विज्ञापनों को भी नियंत्रित करते हैं। ऐसे विज्ञापन की कुल संख्या नीचे दी गई है जिनें यूरोपीय संघ में रिपोर्ट किया गया था और हटाया गया था। 

विश्वसनीय संरक्षक नोटिस (अनुच्छेद 15.1(ख))

हमारी ताज़ा पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। इसके नतीजतन, इस अवधि में ऐसे विश्वसनीय संरक्षकों द्वारा सबमिट किए गए नोटिस की संख्या शून्य (0) थी।

प्रोएक्टिव कंटेंट मॉडरेशन (अनुच्छेद 15.1(ग))

संबंधित अवधि के दौरान, Snap Inc. ने अपनी खुद की पहल पर कंटेंट मॉडरेशन को शामिल करने के बाद यूरोपीय संघ में नीचे दिए गए कंटेंट और अकाउंट को लागू किया था:

Snap Inc. के मॉडरेशन के प्रयासों से जुड़े खुद के सभी पहलों में मानवीय सहायता या स्वचालन का लाभ उठाया गया। हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:

  • मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;

  • हैश-मैचिंग टूल्स (जैसे कि PhotoDNA और Google का CSAI Match);

  • पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजी भी शामिल हैं, की नियमित रूप से अपडेट की गई सूची के आधार पर कंटेंट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना


अपील (अनुच्छेद 15.1(घ))

संबंधित अवधि के दौरान, Snap Inc. ने अपने आंतरिक शिकायत-निपटान प्रणालियों के ज़रिए यूरोपीय संघ में कंटेंट और अकाउंट से जुड़ी इन अपीलों को प्रोसेस किया:


* बाल यौन शोषण रोकना सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम उम्मीद करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार और प्रारंभिक प्रवर्तन की सटीकता में सुधार की दिशा में प्रगति को उजागर करेगी।

सामग्री मॉडरेशन के लिए स्वचालित साधन (अनुच्छेद 15.1(डी))

हमारे सार्वजनिक कंटेंट की सतहों पर व्यापक ऑडिएंस के लिए वितरण का पात्र होने से पहले आम तौर पर कंटेंट स्व-मॉडरेशन और मानवीय पुनरावलोकन दोनों से होकर गुज़रता है। स्वचालित टूल्स के संबंध में, इनमें निम्नलिखित शामिल हैं:

  • मशीन लर्निंग का उपयोग करते हुए अवैध और उल्लंघनकारी कंटेंट का सक्रिय रूप से पता लगाना;

  • हैश-मैचिंग टूल्स (जैसे PhotoDNA और Google का CSAI Match);

  • पहचाने गए अपमानजनक कुंजी शब्दों जिनमें इमोजीस भी शामिल हैं, उनकी नियमित रूप से अद्यतन की गई सूची के आधार पर कंटेट को अस्वीकार करने के लिए अपमानजनक भाषा का पता लगाना।


सभी नुकसानों के लिए स्वचालित मॉडरेशन प्रौद्योगिकियों की सटीकता लगभग 96.61% थी और त्रुटि दर लगभग 3.39% थी।


कंटेंट मॉडरेशन सेफगार्ड (अनुच्छेद 15.1(d))

हम मानते हैं कि कंटेंट मॉडरेशन में कई तरह के जोखिम होते हैं, जिनमें अभिव्यक्ति और एकत्र होने की स्वतंत्रता के जोखिम भी शामिल हैं जो अपने आप और मानव मॉडरेटर पूर्वाग्रह और सरकारों, राजनीतिक निर्वाचन क्षेत्रों या सुव्यवस्थित व्यक्तियों की अपमानजनक रिपोर्ट के कारण हो सकते हैं। Snapchat आम तौर पर राजनीतिक या एक्टिविस्ट कंटेंट के लिए नहीं है, खासकर हमारे सार्वजनिक स्थानों में। 


फिर भी, इन जोखिमों से बचने के लिए, Snap के पास परीक्षण और प्रशिक्षण मौजूद हैं और कानून प्रवर्तन और सरकारी अधिकारियों सहित अवैध या कंटेंट के उल्लंघन की सूचना पर प्रतिक्रिया करने के लिए मज़बूत, सतत प्रक्रियाएं हैं। हम हमारे कंटेंट मॉडरेशन एल्गोरिदम का लगातार मूल्यांकन और विकास करते रहते हैं। हालांकि अभिव्यक्ति की स्वतंत्रता के संभावित नुकसान का पता लगाना मुश्किल है, हमें किसी भी महत्वपूर्ण समस्या के बारे में पता नहीं है और यदि कोई गलती होती है तो हम अपने उपयोगकर्ताओं को उनकी रिपोर्ट करने का अवसर देते हैं। 


हमारी नीतियां और प्रणालियां सतत और निष्पक्ष प्रवर्तन को बढ़ावा देते हैं और, जैसा कि ऊपर बताया गया है, Snap चैटर्स को नोटिस और अपील की प्रक्रियाओं के माध्यम से प्रवर्तन परिणामों पर सार्थक रूप से विवाद करने का अवसर देते हैं, जिसका उद्देश्य Snap चैटर के निजी अधिकारों की रक्षा करते हुए हमारी कम्युनिटी के हितों को सुरक्षित रखना है।

हम लगातार अपनी प्रवर्तन की नीतियों और प्रक्रियाओं में सुधार करने का प्रयास करते हैं और Snapchat पर संभावित हानिकारक और अवैध कंटेंट और गतिविधियों से निपटने में काफी प्रगति की है। यह हमारी नवीनतम पारदर्शिता रिपोर्ट में दर्शाई गई हमारी रिपोर्टिंग और प्रवर्तन के आंकड़ों के बढ़ते ट्रेंड्स और कुल मिलाकर Snapchat पर होने वाले उल्लंघनों की गिरावट में दिखता है। 


कोर्ट से बाहर निपटान (अनुच्छेद 24.1(a))

हमारी नवीनतम पारदर्शिता रिपोर्ट (H2 2023) की अवधि के लिए, DSA के तहत कोई विश्वसनीय संरक्षक औपचारिक तौर पर नियुक्त नहीं किए गए थे। परिणामस्वरूप, इस अवधि में ऐसे निकायों को प्रस्तुत किए गए विवादों की संख्या शून्य (0) थी, और हम परिणाम, निपटान के लिए औसत बदलाव का समय और उन विवादों का हिस्सा प्रदान करने में असमर्थ हैं जहां हमने निकाय के निर्णयों को लागू किया था।



अकाउंट निलंबन (अनुच्छेद 24.1(a))

2023 की दूसरी छमाही के दौरान, हमने अनुच्छेद 23 के अनुसार कोई भी अकाउंट निलंबन नहीं किया है। Snap की ट्रस्ट एंड सेफ्टी टीम के पास उपयोगकर्ता खातों द्वारा बार-बार नोटिस या शिकायतें प्रस्तुत करने की संभावना को सीमित करने के लिए प्रक्रियाएं हैं जो स्पष्ट रूप से निराधार हैं। इन प्रक्रियाओं में डुप्लिकेट रिपोर्ट निर्माण को प्रतिबंधित करना और उन उपयोगकर्ताओं को ऐसा करने से रोकने के लिए ईमेल फ़िल्टर का उपयोग शामिल है जो अक्सर स्पष्ट रूप से निराधार रिपोर्ट सबमिट करते हैं। हालांकि, Snap हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील एक्सप्लेनर में बताए गए खातों के खिलाफ उचित प्रवर्तन कार्यवाही करता है और Snap अकाउंट प्रवर्तन के स्तर के बारे में जानकारी हमारी पारदर्शिता रिपोर्ट (H2 2023) में देखी जा सकती है। ऐसे उपायों की समीक्षा और पुनरावृत्ति जारी रहेगी।


मॉडरेटर संसाधन, विशेषज्ञता और सपोर्ट (अनुच्छेद 42.2)

हमारी कंटेंट मॉडरेशन टीम दुनिया भर में काम करती है, जो हमें Snap चैटर्स को 24/7 सुरक्षित रखने में मदद करने में सक्षम बनाती है। नीचे, आपको अगस्त 2023 तक मॉडरेटर की भाषा विशेषज्ञता के आधार पर हमारे मानवीय मॉडरेशन संसाधनों का विवरण मिलेगा (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ हैं):

ऊपर दी गई तालिका में ऐसे सभी मॉडरेटर शामिल है, जो 31 दिसंबर 2023 तक यूरोपीय संघ के सदस्य राज्य भाषाओँ का समर्थन करते हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सपोर्ट की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।

मॉडरेटर्स की नियुक्ति भाषा की आवश्यकता (आवश्यकतानुसार) एक मानक कार्य विवरण का इस्तेमाल करते हुए की जाती है। भाषा की आवश्यकता के अनुसार उम्मीदवार का लिखित और मौखिक रूप से भाषा में धारा प्रवाह होना ज़रूरी है और प्रवेश स्तर के पदों के लिए उसके पास कम-से-कम एक वर्ष का कार्य अनुभव होना चाहिए। अभ्यर्थियों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके अभ्यार्थित्व पर विचार किया जा सकें। अभ्यर्थियों को अवश्य ही उस देश या क्षेत्र की मौजूदा घटनाओं की समझ भी दिखानी होगी, जहाँ वे कंटेंट मॉडरेशन को सपोर्ट करेंगे।

हमारी मॉडरेशन टीम हमारे Snapchat समुदाय को सुरक्षित रखने में मदद करने के लिए हमारी नीतियों और प्रवर्तन उपायों को लागू करती है। प्रशिक्षण कई-सप्ताह तक चलता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। प्रशिक्षण के बाद, कंटेंट को रिव्यु करने की अनुमति मिलने से पहले प्रत्येक मॉडरेटर को एक प्रमाणीकरण परीक्षा पास करनी होती है। हमारी मॉडरेशन टीम नियमित रूप से अपने वर्क फ्लो से संबंधित रिफ्रेशर प्रशिक्षण में भाग लेती है, खासकर जब हम नीति की सीमारेखा और संदर्भ-आधारित मामलों का सामना करते हैं। यह सुनिश्चित करने के लिए कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं, हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर जब महत्वपूर्ण कंटेंट ट्रेंड्स पेश आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।

हम अपनी कंटेंट मॉडरेशन टीम - Snap के "डिजिटल फ़र्स्ट रिस्पॉन्डर्स" को ऑन-द-जॉब स्वास्थ्य सपोर्ट और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच सहित महत्वपूर्ण सपोर्ट और संसाधन प्रदान करते हैं। 

बाल यौन शोषण और दुरूपयोग (सीएसईए) मीडिया स्कैनिंग रिपोर्ट


बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफार्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।


रिपोर्ट

नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।

बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


बाल यौन शोषण और दुरूपयोग (सीएसईए) मीडिया स्कैनिंग रिपोर्ट


बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफार्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।


रिपोर्ट

नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।

बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

सीएसईए मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।