Snap Values
यूरोपीयन यूनियन

हमारे यूरोपीय संघ (EU) पारदर्शिता पेज में आपका स्वागत है, जहां हम डिजिटल सेवा अधिनियम (DSA), ऑडियोविजुअल मीडिया सेवा डायरेक्टिव (AVMSD), डच मीडिया अधिनियम (DMA), और आतंकवादी कंटेंट ऑनलाइन विनियमन (TCO) द्वारा आवश्यक EU विशिष्ट जानकारी प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।

कानूनी प्रतिनिधि 

Snap Group Limited ने Snap B.V. को DSA के उद्देश्यों के लिए अपना कानूनी प्रतिनिधि नियुक्त किया है। आप हमारी सपोर्ट साइट [यहाँ] के माध्यम से, या निम्नलिखित पर, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर, TCO के लिए tco-enquiries [at] snapchat.com पर, प्रतिनिधि से संपर्क कर सकते हैं:

Snap B.V.
Keizersgracht 165, 1016 DP
ऐम्स्टरडैम, नीदरलैंड्स

यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहाँ दिए गए चरणों को फ़ॉलो करें।

कृपया हमसे संपर्क करते समय अंग्रेजी या डच में बात करें।

नियामक प्राधिकरण

DSA के लिए, हमें यूरोपियन कमीशन, और नीदरलैंड्स उपभोक्ता एवं बाजार प्राधिकार (ACM) द्वारा विनियमित किया जाता है। AVMSD और DMA के लिए, हमें डच मीडिया प्राधिकार (CvdM) द्वारा विनियमित किया जाता है। TCO के लिए, ऑनलाइन आतंकवादी कंटेंट और बाल यौन दुरुपयोग सामग्री (ATKM) की रोकथाम के लिए हमें नीदरलैंड्स प्राधिकार द्वारा विनियमित किया जाता है।

DSA पारदर्शिता रिपोर्ट

प्रकाशित: 29 अगस्त 2025

आखिरी अपडेट किया गया: : 229 अगस्त 2025

रिपोर्टिंग साइकिल:: 1 जनवरी 2025 - 30 जून 2025

हम इस रिपोर्ट को यूरोपीयन यूनियन (EU) के डिजिटल सेवा अधिनियम (विनियमन (EU) 2022/2065) ("DSA") के अनुच्छेद 15, 24 और 42 में प्रदत्त पारदर्शिता रिपोर्टिंग आवश्यकताओं के अनुसार प्रकाशित करते हैं। जहां अन्यथा नोट किया गया हो, इस रिपोर्ट में निहित जानकारी 1 जनवरी 2025 से 30 जून 2025 (2025 की पहली छमाही) तक की रिपोर्टिंग अवधि के लिए है। 

औसत मासिक सक्रिय प्राप्तकर्ता
(DSA अनुच्छेद 24.2 और 42.3)

30 जून 2025 तक, Snapchat यूरोपीय संघ में हमारे Snapchat ऐप के 94.7 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता ("AMAR") हैं। यह दर्शाता है कि यूरोपीय संघ में 94.7 मिलियन पंजीकृत उपयोगकर्ताओं ने 30 जून 2025, को समाप्त होने वाले छह महीनों में औसतन किसी दिए गए महीने में कम से कम एक बार Snapchat ऐप खोला है।

सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:

इन आंकड़ों की गणना वर्तमान DSA आवश्यकताओं के अनुपालन को पूरा करने के उद्देश्य से की गई थी और केवल DSA के उद्देश्यों के लिए ही उन पर निर्भर होना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव के मद्देनज़र इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।

2. सदस्य राज्य प्राधिकरण के अनुरोध
(DSA अनुच्छेद 15.1(क))

a) अवैध सामग्री के विरुद्ध कार्रवाई करने के आदेश

इस रिपोर्टिंग अवधि (H1 2025) के दौरान, हमें यूरोपीय संघ के सदस्य देशों के अधिकारियों की ओर से विशिष्ट रूप से पहचाने गए अवैध कॉन्टेंट के हिस्सों के खिलाफ कार्रवाई करने के लिए शून्य (0) आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 9 के अनुसार जारी किए गए आदेश शामिल हैं।


चूँकि यह संख्या शून्य (0) है, इसलिए हम संबंधित अवैध कॉन्टेंट के प्रकार या आदेश जारी करने वाले सदस्य राज्य का विवरण, अथवा प्राप्ति स्वीकृति देने या आदेश पर अमल करने का माध्य समय नहीं प्रदान कर सकते हैं।

b) जानकारी प्रदान करने के आदेश 

इस रिपोर्टिंग अवधि (H! 2025) के दौरान, हमें यूरोपीय संघ के सदस्य राज्यों के अधिकारियों की ओर से यूज़र डेटा के खुलासे के लिए निम्नलिखित संख्या में (आपातकालीन प्रकटीकरण अनुरोधों को छोड़ कर) आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 10 के अनुसार जारी किए गए आदेश शामिल हैं:

जानकारी प्रदान करने के इन आदेशों की प्राप्ति स्वीकृति के बारे में संबंधित अधिकारियों को सूचित करने का मध्यमान समय <1 मिनट था — हम प्राप्ति की पुष्टि करने का स्वचालित उत्तर प्रदान करते हैं। 

जानकारीप्रदान करने के इन आदेशों को प्रभावी करने का औसत माध्यमिक समय 14 दिन से कम था। यह मीट्रिक Snap को कोई ऑर्डर प्राप्त होने से लेकर Snap द्वारा इस मामले को पूरी तरह सुलझाया हुआ मान लिए जाने तक की समय अवधि को दर्शाता है, जिसमें अलग-अलग मामले आंशिक रूप से इस पर निर्भर कर सकते हैं कि ऑर्डर को संसाधित करने के लिए Snap द्वारा किसी स्पष्टीकरण के अनुरोध पर सदस्य राज्य के प्राधिकार द्वारा कितनी गति से उत्तर दिया जाता है।

ध्यान दें, जानकारी प्रदान करने के उपरोक्त आदेशों के बारे में संबंधित अवैध कॉन्टेंट के प्रकार के अनुसार वर्गीकृत विवरण प्रदान नहीं करते क्योंकि यह जानकारी आम तौर पर हमें उपलब्ध नहीं होती है।


3. कॉन्टेंट मॉडरेशन 


Snapchat पर समस्त कॉन्टेंट को हमारे कम्युनिटी दिशानिर्देशों और सेवा की शर्तों का पालन करना होगा। कुछ कॉन्टेंट को अतिरिक्त दिशानिर्देशों और नीतियों का पालन भी करना होगा। उदाहरण के लिए, हमारे सार्वजनिक प्रसारण माध्यमों पर व्यापक ऑडियंस को अलगोरिद्म-आधारित अनुशंसा के लिए सबमिट किए गए कॉन्टेंट को हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देश , में दिए गए अतिरिक्त, उच्चतर मानकों के अनुरूप होना चाहिए, जबकि विज्ञापनों को हमारी विज्ञापन नीतियों का पालन करना चाहिए।.

हम तकनीक और मानव समीक्षा का उपयोग करके इन नीतियों को प्रवर्तित करते हैं। हम Snap चैटर्स यूजर और नॉन-यूजर को सीधे ऐप में या हमारी वेबसाइट के माध्यम से अवैध कॉन्टेंट और गतिविधियों सहित उल्लंघनों की रिपोर्ट करने के लिए उपाय भी प्रदान करते हैं। हम सक्रिय क्षति पहचान तकनीक का भी उपयोग करते हैं। सक्रिय पहचान तंत्र और रिपोर्ट समीक्षा को प्रेरित करते हैं, जिसके बाद हमारी नीतियों के अनुसार उचित कार्रवाई करने के लिए स्वचालित उपकरणों और मानव मॉडरेटरों के मिश्रण का लाभ उठाया जा सकता है।. 

हम नीचे 2025 की पहली छमाही के दौरान दिए गए अपने कॉन्टेंट मॉडरेशन के बारे में और जानकारी प्रदान करते हैं।

ए) DSA अनुच्छेद 16 के अनुसार सबमिट किए गए नोटिस 
(DSA अनुच्छेद 15.1(बी))

DSA अनुच्छेद 16 के अनुसार, Snap ने ऐसे उपाय लागू किए हैं जिनसे यूज़र और गैर-यूज़र Snapchat पर ऐसी सूचनाओं के विशिष्ट मदों की मौजूदगी के बारे में Snap को सूचित कर सकते हैं जिन्हें वे अवैध कॉन्टेंट मानते हैं। वे सीधे Snapchat ऐप में या हमारी वेबसाइट पर कॉन्टेंट के विशिष्ट हिस्सों या अकाउंट्स की रिपोर्ट करके ऐसा कर सकते हैं। 

ऐप में या हमारी वेबसाइट के माध्यम से नोटिस प्रस्तुत करते समय, रिपोर्टर हमारे सामुदायिक दिशानिर्देशों में सूचीबद्ध उल्लंघनों की श्रेणियों (जैसे, घृणास्पद भाषण, नशीली दवाओं का उपयोग या बिक्री) को दर्शाने वाले विकल्पों के मेनू से एक विशिष्ट रिपोर्टिंग कारण का चयन कर सकते हैं।). हमारे कम्युनिटी दिशानिर्देश, जो हमारे मूल्यों पर आधारित हैं, आम तौर पर उन सामग्री और गतिविधियों की श्रेणियों को शामिल करते हैं जो यूरोपीय संघ में अवैध हैं, इसलिए कुछ मामलों में हमारे रिपोर्टिंग विकल्पों में यूरोपीय संघ में अवैध सामग्री की श्रेणियां शामिल हैं। हालांकि, यदि यूरोपीय संघ में कोई रिपोर्टर यह मानता है कि जिस कॉन्टेंट या अकाउंट की वे रिपोर्ट कर रहे हैं, वह उन कारणों से अवैध है जिनका उल्लेख हमारे रिपोर्टिंग मेनू में विशेष रूप से नहीं किया गया है, तो वे इसे "अन्य गैरकानूनी कॉन्टेंट" के रूप में रिपोर्ट कर सकते हैं और उन्हें यह स्पष्ट करने का अवसर दिया जाता है कि वे क्यों मानते हैं कि जो रिपोर्ट कर रहे हैं वह अवैध है।

रिपोर्टिंग अवधि (2025 की पहली छमाही) के दौरान, हमें उन उपयोगकर्ताओं से निम्नलिखित सूचना प्राप्त की जिसके बारे में हमारा मानना है कि वे यूरोपीय संघ में निवास करते हैं:

हम नीचे इन नोटिसों के निपटान के तरीके का सारांश प्रस्तुत कर रहे हैं, जिसमें यह दर्शाया गया है कि क्या उनका निपटान पूरी तरह से स्वचालित तरीके से किया गया या ऐसी प्रक्रिया के माध्यम से किया गया जिसमें मानवीय समीक्षा शामिल थी:

यदि, समीक्षा करने पर, हम तय करते हैं कि रिपोर्ट किए गए कॉन्टेंट या अकाउंट हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करते हैं या अन्यथा अवैध पाया जाता है, तो हम (i) आपत्तिजनक कॉन्टेंट को हटा सकते हैं, (ii) संबंधित अकाउंट धारक को चेतावनी दे सकते हैं और उस अकाउंट पर एक स्ट्राइक लगा सकते हैं, और / या (iii) संबंधित अकाउंट को लॉक कर सकते हैं, जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपीलीय स्पष्टीकरण में समझाया गया है। 

2025 की पहली छमाही में, हमने उन उपयोगकर्ताओं द्वारा पेश किए गए नोटिस की प्राप्ति के बाद निम्नलिखित प्रवर्तन कार्रवाई की, जिनके बारे में हमारा मानना है कि वे यूरोपीय संघ में हैं:

ध्यान दें: उपरोक्त चार्ट में उल्लंघन के प्रकार से पेश किए गए कुल नोटिस में हमारी सपोर्ट साइट के माध्यम से की गई सभी रिपोर्ट शामिल नहीं हैं। सपोर्ट साईट की रिपोर्ट है कि हम यूरोपीय संघ के नोटिस की कुल मात्रा का लगभग 0.4% ईयू रिपोर्टर को जिम्मेदार ठहराते हैं। हमारा इरादा भविष्य में उन सपोर्ट साइट रिपोर्ट्स को अपनी गणना में शामिल करना है।

2025 की पहली तिमाही में, हमने "अन्य अवैध कॉन्टेंट” के बारे में जिन रिपोर्टों पर कार्रवाई की, उन सभी को अंततः हमारे कम्युनिटी दिशानिर्देशों के तहत प्रवर्तित किया गया क्योंकि हमारे कम्युनिटी दिशानिर्देश संबंधित कॉन्टेंट या गतिविधि को प्रतिबंधित करते हैं। इस प्रकार हमने उपरोक्त तालिका में कम्युनिटी दिशानिर्देशों के उल्लंघन की प्रासंगिक श्रेणी के तहत इन प्रवर्तनों को वर्गीकृत किया।

उपरोक्त प्रवर्तनों के अलावा, हम अन्य Snap नीतियों और दिशानिर्देशों के अनुसार हमें सूचित किए गए कॉन्टेंट पर कार्रवाई कर सकते हैं: 

  • हमारी सार्वजनिक प्रसारण सतहों पर कंटेंट के संबंध में, अगर हमें यह तय करते है कि रिपोर्ट किया गया कंटेंट सिफारिश पात्रता मानदंडों के लिए हमारे कंटेंट दिशानिर्देशों को पूरा नहीं करता है, तो हम एल्गोरिदमिक सिफारिश के लिए कंटेंट को अस्वीकार कर सकते हैं या हम कुछ दर्शकों को बाहर करने के लिए कंटेंट के वितरण को सीमित कर सकते हैं (यदि कंटेंट अनुशंसा के लिए हमारे पात्रता मानदंडों को पूरा करता है लेकिन अन्यथा संवेदनशील या विचारोत्तेजक है)। 

2025 की पहली तिमाही में, हमने हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देशों के अनुसार यूरोपीयन यूनियन में Snapchat की सार्वजनिक प्रसारण सतहों पर रिपोर्ट किए गए कॉन्टेंट के संबंध में निम्नलिखित कार्रवाइयाँ कीं:

  • मूल्यांकन के बाद, यदि हमें पता चले कि कोई विज्ञापन हमारी विज्ञापन नीतियों का उल्लंघन करता है, तो हम उसे हटा सकते हैं।

2025 की पहली छमाही में, हमने उन उपयोगकर्ताओं द्वारा हमें रिपोर्ट किए गए विज्ञापनों के संबंध में निम्नलिखित कार्रवाई की, जिनके बारे में हमारा मानना है कि वे यूरोपीय संघ में हैं:


बी) Snap की अपनी पहल पर किए गए कॉन्टेंट मॉडरेशन 
(अनुच्छेद 15.1 (सी))

DSA अनुच्छेद 16 के अनुसार, जमा किए गए नोटिस की समीक्षा करने के अलावा, Snap की अपनी पहल पर कॉन्टेंट मॉडरेशन भी जुड़ा है। नीचे हम Snap की अपनी पहल पर किए गए कॉन्टेंट मॉडरेशन के बारे में जानकारी दे रहे हैं, जिसमें स्वचालित टूल्स के इस्तेमाल, कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए किए गए उपाय और मॉडरेशन के इन अग्रसक्रिय प्रयासों के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार शामिल है।

  • Snap की अपनी पहल पर किए गए मॉडरेशन में स्वचालित टूल्स का उपयोग

हम अपनी शर्तों और नीतियों के उल्लंघन का पहले से पता लगाने और कुछ मामलों में, उन पर कार्रवाई करने के लिए स्वचालित उपकरण तैनात करते हैं। इन उपकरणों में हैश-मैचिंग टूल्स (PhotoDNA और Google CSAI मैच सहित), Google कंटेंट सेफ़्टी API, अपमानजनक भाषा पहचान मॉडल (जो पहचान की गई और नियमित रूप से अपडेट की गई अपमानजनक कीवर्ड और इमोजी की सूची के आधार पर सामग्री का पता लगाकर उसे अस्वीकार कर देते हैं), के साथ-साथ अपमानजनक टेस्ट इमोजी का पता लगाने के लिए तैयार की गई अन्य कस्टम तकनीक और कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और बड़े भाषा मॉडल का उपयोग करने वाली तकनीकें शामिल हैं। हमारे स्वचालित उपकरणों को कम्युनिटी दिशानिर्देशों के उल्लंघन का पता लगाने के लिए और, जहां लागू हो, अनुशंसा पात्रता और विज्ञापन नीतियों के लिए हमारे कॉन्टेंट दिशानिर्देशों का पता लगाने के लिए बनाया गया है।. 

2025 की पहली छमाही में, हमारा अग्रसक्रिय रूप से पता लगाने का समस्त काम स्वचालित टूल्स के उपयोग से किया गया। In H1 2025, (कुछ मामलों में, हमारी ट्रस्ट एंड सेफ्टी टीम ने मैन्युअल रूप से ऐसे कंटेंट का पता लगाया जो या तो अवैध थे और/या Snap की नीतियों का उल्लंघन करते थे, जिसके बाद Snap की नीतियों और/या संबंधित कानूनों के अनुसार जांच की गई और प्रवर्तन किया गया।) जब हमारे स्वचालित उपकरण हमारी नीतियों के किसी संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या वे मानवीय समीक्षा के लिए एक कार्यभार बनाते हैं। इस प्रक्रिया के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार का नीचे वर्णन किया गया है।

  • Snap की अपनी पहल पर लगाए गए प्रतिबंधों की संख्या और प्रकार

2025 की पहली छमाही में, Snap ने हमारे कम्युनिटी दिशानिर्देशों के उल्लंघन का सक्रिय रूप से पता लगाने के बाद निम्नलिखित प्रवर्तन कार्रवाइयाँ कीं:

इसके अलावा, 2025 की पहली छमाही में, हमारी पब्लिक प्रसारण सतहों पर कॉन्टेंट के संबंध में, हमने स्वचालित टूल्स का उपयोग करके अनुशंसा पात्रता के लिए हमारे कंटेंट दिशानिर्देशों के उल्लंघन का सक्रिय रूप से पता लगाने के बाद निम्नलिखित कार्रवाई की:

* जो खाते लगातार या स्पष्ट रूप से अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों का उल्लंघन करते हैं, उन्हें हमारी सार्वजनिक प्रसारण सतहों पर अनुशंसाओं से अस्थायी या स्थायी रूप से अयोग्य घोषित किया जा सकता है, जैसा कि अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों में निर्दिष्ट है। हम इस क्रिया को अपने सक्रिय मॉडरेशन प्रयासों के संदर्भ में लागू करते हैं।

इसके अलावा, 2025 की पहली छमाही में, हमने स्वचालित उपकरणों का उपयोग करके अपनी विज्ञापन नीतियों के उल्लंघन का सक्रिय रूप से पता लगाने के बाद निम्नलिखित कार्रवाइयाँ कीं:

  • कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम

हमारी कॉन्टेंट मॉडरेशन टीमें हमारे Snapchap समुदाय को सुरक्षित रखने के लिए हमारी कॉन्टेंट मॉडरेशन नीतियों को लागू करती हैं। उन्हें कई-सप्ताह की अवधि के दौरान प्रशिक्षण दिया जाता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। हमारी मॉडरेशन टीमें नियमित रूप से अपने वर्कफ्लो के लिए प्रासंगिक रिफ्रेशर प्रशिक्षण में भाग लेती हैं, खासकर तब जब हमारे सामने नीति की सीमारेखा से जुड़े और संदर्भ पर निर्भर मामले आते हैं। हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं ताकि यह सुनिश्चित किया जा सकें कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर महत्वपूर्ण कंटेंट ट्रेंड्स सामने आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।

हम अपनी कॉन्टेंट मॉडरेशन टीमों को काम के दौरान कुशलता सहायता और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच सहित महत्वपूर्ण समर्थन और संसाधन प्रदान करते हैं।

c) Snap की शिकायतों (जैसे अपीलों) को संभालने वाली आंतरिक प्रणालियों के माध्यम से मिली शिकायतें 
(अनुच्छेद 15.1(डी))

ऐसे यूज़र जिनके अकाउंट हमारी सुरक्षा टीमों द्वारा कम्युनिटी दिशानिर्देश के उल्लंघन (जिसमें अवैध कॉन्टेंट और गतिविधियों के कारण शामिल हैं) के कारण लॉक किए गए हैं, वे लॉक्ड अकाउंट अपील सबमिट कर सकते हैं। यूज़र कॉन्टेंट मॉडरेशन के कुछ उपायों की भी अपील कर सकते हैं।

रिपोर्टिंग अवधि (2025 की पहली छमाही) के दौरान, स्नैप ने निम्नलिखित अपीलों (अकाउंट लॉक और कॉन्टेंट-स्तरीय मॉडरेशन निर्णयों दोनों के विरुद्ध अपील सहित) को संसाधित किया, जो उपयोगकर्ताओं से अपने आंतरिक शिकायत-प्रबंधन प्रणालियों के माध्यम से प्रस्तुत किए गए थे, जिनके बारे में हमारा मानना ​​है कि वे यूरोपीय संघ में हैं:

डी) स्वचालित तरीकों के उपयोग के माध्यम से कॉन्टेंट मॉडरेशन
(अनुच्छेद 15.1(ई) और 42.2(सी))

  • गुणात्मक विवरण और उद्देश्य

जैसा कि ऊपर अनुभाग 3(बी) में बताया गया है, हम अपनी शर्तों व नीतियों के उल्लंघन का सक्रिय रूप से पता लगाने और कुछ मामलों में, उन्हें लागू करने के लिए स्वचालित उपकरण तैनात करते हैं। इन उपकरणों में हैश-मैचिंग टूल्स (PhotoDNA और Google CSAI मैच सहित), Google कंटेंट सेफ़्टी API, अपमानजनक भाषा पहचान मॉडल (जो पहचान की गई और नियमित रूप से अपडेट की गई अपमानजनक कीवर्ड और इमोजी की सूची के आधार पर सामग्री का पता लगाकर उसे अस्वीकार कर देते हैं), के साथ-साथ अपमानजनक टेस्ट इमोजी का पता लगाने के लिए तैयार की गई अन्य कस्टम तकनीक और कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और बड़े भाषा मॉडल का उपयोग करने वाली तकनीकें शामिल हैं। हमारी स्वचालित प्रणालियाँ हमारे कम्युनिटी दिशानिर्देशों (जो अन्य बातों के अलावा, गैरकानूनी कॉन्टेंट पर रोक लगाते हैं) के उल्लंघनों की पहचान करने के लिए बनाई गई हैं, और यदि प्रासंगिक हो, तो अनुशंसा पात्रता के लिए हमारी विज्ञापन नीतियों और कॉन्टेंट दिशानिर्देशों की भी पहचान करती हैं।

जब हमारे स्वचालित उपकरण हमारी नीतियों के किसी संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या वे मानवीय समीक्षा के लिए एक कार्यभार बनाते हैं।

 

  • सटीकता के संकेतक और त्रुटि की संभावित दर, सदस्य राज्य द्वारा विभाजित

हम अपने स्वचालित उपकरणों द्वारा संसाधित कार्यों के यादृच्छिक नमूनों का चयन करके और उन्हें हमारी मानव मॉडरेशन टीमों द्वारा पुनः समीक्षा के लिए भेज कर अपने स्वचालित मॉडरेशन उपकरणों की सटीकता और त्रुटि की संभावित दर के संकेतकों पर नजर रखते हैं। सटीकता दर इन यादृच्छिक नमूनों के उन कार्यों का प्रतिशत है जिनकी मानव मॉडरेटर द्वारा पुन: समीक्षा के बाद सही मॉडरेशन निर्णय लेने की पुष्टि होती हैं। 100% और पहले बताई गई सटीकता दर के बीच के अंतर को त्रुटि दर के रूप में जाना जाता है।

हम स्वचालित मॉडरेशन उपकरणों की दो व्यापक श्रेणियों के लिए सटीकता और त्रुटि की संभावित दर की निगरानी करते हैं, जिनमें शामिल हैं: 

  • स्वचालित उपकरण जो हमारे कम्युनिटी दिशानिर्देशों के उल्लंघन का पता लगाते हैं, और/या उनके खिलाफ कार्रवाई करते हैं, और इसकी वजह से किसी उपयोगकर्ता के अकाउंट के खिलाफ कार्रवाई भी कर सकते हैं (उदाहरण के लिए, अकाउंट के खिलाफ चेतावनी देना या अकाउंट लॉक कर देना)। नमूना लेने के आधार पर, 2025 की पहली छमाही में, इन स्वचालित उपकरणों की सटीकता दर लगभग 96% थी जबकि त्रुटि दर लगभग 4% थी।

  • स्वचालित उपकरण जो हमारी सार्वजनिक प्रसारण सतहों पर मौजूद कंटेंट का पता लगाते हैं और/या उस पर कार्रवाई करते हैं जो हमारी अनुशंसा पात्रता के लिए हमारे कंटेंट दिशानिर्देशों के आधार पर कार्रवाई करते हैं। नमूना लेने के आधार पर, 2025 की पहली छमाही में, इन स्वचालित उपकरणों की सटीकता दर लगभग 88% थी जबकि त्रुटि दर लगभग 12% थी।

नमूना लेने के आधार पर, 2025 की पहली छमाही में, उपरोक्त दोनों श्रेणियों में उपयोग किए गए स्वचालित उपकरणों की संयुक्त सटीकता दर लगभग 90% थी जबकि त्रुटि दर लगभग 10% थी।

हम सदस्य देशों की प्रत्येक आधिकारिक भाषा के लिए अपने स्वचालित मॉडरेशन सिस्टम की सटीकता और त्रुटि दर का ब्यौरा देने में असमर्थ हैं, क्योंकि हम आमतौर पर Snapchat पर फ़िल्टर किए गए कॉन्टेंट की भाषा पर नजर नहीं रखते हैं। इस जानकारी के प्रमाण के रूप में, हम नीचे प्रत्येक सदस्य राज्य से उत्पन्न होने वाली स्वचालित रूप से मॉडरेटेड कंटेंट (हमारे कम्युनिटी दिशानिर्देशों और अनुशंसा पात्रता के लिए हमारे कंटेंट दिशानिर्देशों दोनों में) के लिए हमारी संयुक्त सटीकता एवं त्रुटि दर का विवरण देते हैं जिनके बारे में हमारा मानना हैं कि वे प्रत्येक सदस्य राज्य से उत्पन्न हुई हैं।

  • सुरक्षा

हम मौलिक अधिकारों पर स्वचालित मॉडरेशन उपकरणों के संभावित प्रभाव के प्रति सचेत हैं, और हम उस प्रभाव को न्यूनतम करने के लिए सुरक्षा उपाय लागू करते हैं।.

हमारे स्वचालित कॉन्टेंट मॉडरेशन टूल्स को तैनात करने से पहले परीक्षण किया जाता है। मॉडलों का प्रदर्शन के लिए ऑफ़लाइन परीक्षण किया जाता है और उत्पादन में पूरी तरह से शामिल किए जाने से पहले उनकी उचित कार्यप्रणाली सुनिश्चित करने के लिए ए/बी परीक्षण के माध्यम से उन्हें तैनात किया जाता है। हम निरंतर चलने वाले आंशिक (चरणबद्ध) रोलआउट के दौरान, लॉन्च-पूर्व गुणवत्ता आश्वासन (QA) समीक्षा, लॉन्च समीक्षा और निरंतर सटीक QA जांच करते हैं। 

हमारे स्वचालित उपकरण लॉन्च होने के बाद, हम लगातार उनकी सटीकता और प्रभावशीलता का आकलन करते हैं और आवश्यक संशोधन करते हैं। सटीकता बढ़ाने के लिए जिन मॉडलों को समायोजित करने की आवश्यकता है, उन्हें खोजने के लिए हमारे मानव मॉडरेटर स्वचालित कार्य के नमूनों की पुनः जांच करते हैं। हम कुछ सार्वजनिक सामग्री के यादृच्छिक दैनिक नमूने के माध्यम से Snapchat पर विशिष्ट नुकसान की व्यापकता की निगरानी भी करते हैं, और आगे सुधार के क्षेत्रों की पहचान करने के लिए इस जानकारी का लाभ उठाते हैं।

Snap चैटर्स को नोटिस और अपील प्रक्रियाओं के माध्यम से प्रवर्तन निर्णयों को सार्थक रूप से चुनौती देने का मौका देने के अलावा, जो व्यक्तिगत Snap चैटर अधिकारों और हमारे कम्युनिटी के हितों की रक्षा करना चाहते हैं, हमारी नीतियां और प्रणालियां हमारे स्वचालित उपकरणों के माध्यम से सुसंगत और न्यायसंगत प्रवर्तन का समर्थन करती हैं।

हम अपने स्वचालित कंटेंट मॉडरेशन उपकरणों को निरंतर विकसित करने की कोशिश करते हैं ताकि उनकी सटीकता में सुधार हो सकें और हमारी नीतियों का सुसंगत और निष्पक्ष प्रवर्तन सुनिश्चित हो सकें।

ई) अनुच्छेद 21 के अंतर्गत न्यायालय के बाहर विवाद निपटान निकायों को प्रस्तुत किए गए विवाद
(अनुच्छेद 24.1 (ए))

रिपोर्टिंग अवधि (2025 की पहली छमाही) के लिए, हम DSA अनुच्छेद 21 में संदर्भित अदालत के बाहर विवाद निपटान निकायों को Snap के खिलाफ प्रस्तुत विवादों के बारे में निम्नलिखित जानकारी प्रदान करते हैं:

उपरोक्त तालिका 30 जून 2025 तक की रिपोर्टिंग अवधि (2025 की पहली छमाही) के दौरान DSA अनुच्छेद 21 के तहत अदालत के बाहर विवाद निपटान निकायों के पास प्रस्तुत विवादों की स्थिति को दर्शाती है। सभी मेट्रिक्स में, हमने Snap द्वारा प्राप्त मामलों को शामिल किया है, भले ही उनमें पूरी तरह या आंशिक रूप से गायब जानकारी थी, जिसे Snap ने तब अनुरोधित की थी और जो बाद की तारीख तक प्राप्त नहीं हुई थी। जिन विवादों में निर्णय जारी किया गया था, उनके संबंध में हमने केवल उन विवादों को शामिल किया है जो रिपोर्टिंग अवधि के दौरान प्राप्त हुए थे। इसी तरह, शिकायतकर्ता के पक्ष में 3 निर्णयों में से, 2 वर्तमान में अपील के तहत लंबित हैं। 1 मामले में एक सफल अपील विचारार्थ पेश की गई थी; यदपि, चूंकि Snap के पक्ष में संशोधित निर्णय संबंधित रिपोर्टिंग अवधि के बाहर जारी किया गया था, इसलिए इस मामले को शिकायतकर्ता के पक्ष में निर्णय के रूप में रिपोर्ट किया जाना जारी है।


विवाद निपटान की प्रक्रियाओं को पूरा करने के लिए आवश्यक औसत समय की गणना Snap को शिकायत प्राप्त होने की तारीख से लेकर ODS बॉडी से निर्णय प्राप्त होने की तारीख तक की गई है।


ध्यान दें, हमने उन शिकायतों को उपरोक्त तालिका में शामिल नहीं किया जो अनुच्छेद 21 द्वारा प्रमाणित निकाय के समक्ष पेश की गई थीं, लेकिन यह कि संबंधित निकाय को Snap पर भेजने से पहले स्वीकार्य नहीं पाई गईं। हम इस श्रेणी में आने वाले विवादों की संख्या की पुष्टि नहीं कर सकते हैं क्योंकि कुछ, लेकिन सभी नहीं, प्रमाणित निकाय, Snap को ऐसे विवादों के बारे में सूचित करते हैं। हालांकि, हमें 2025 की पहली छमाही में इस श्रेणी में 28 शिकायतें आयी हैं।

एफ) अनुच्छेद 23 के तहत लगाया गया निलंबन
(अनुच्छेद 24.1(बी))
  • अनुच्छेद 23.1 के अनुसार निलंबन: ऐसे खातों का निलंबन जो अक्सर स्पष्ट रूप से अवैध कॉन्टेंट प्रदान करते हैं 

जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपीलीय स्पष्टीकरण में बताया गया है, हम निर्धारित करते हैं कि जिन खातों का उपयोग मुख्य रूप से हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन (जिसमें स्पष्ट रूप से अवैध कॉन्टेंट के प्रावधान के माध्यम से हुए) करने के लिए किया जाता है और जो खाते गंभीर नुकसान पहुंचाते हैं उन्हें तुरंत अक्षम कर दिया जाता है। हमारे कम्युनिटी दिशानिर्देश के अन्य उल्लंघनों के लिए, Snap आम तौर पर तीन कदम वाली प्रवर्तन प्रक्रिया का उपयोग करता है:

  • पहला कदम: उल्लंघन करने वाले कंटेंट को हटा दिया जाता है।

  • दूसरा चरण: Snap चैटर यूजर को एक अधिसूचना प्राप्त होती है जिसमें लिखा होता है कि उन्होंने हमारे कम्युनिटी दिशानिर्देश का उल्लंघन किया है, इस वजह से उनके कंटेंट को हटा दिया गया है और बार-बार उल्लंघन करने पर अतिरिक्त प्रवर्तन कार्रवाई की जाएगी जिसके तहत उनके अकाउंट को बंद भी किया जा सकता है।

  • चरण तीन: हमारी टीम Snap चैटर यूजर के खाते के खिलाफ एक स्ट्राइक दर्ज करती है।

यूरोपीय संघ में खातों पर H1 2025 में लगाए गए स्ट्राइक (यानी चेतावनियाँ) और लॉक की संख्या के बारे में जानकारी ऊपर, अनुभाग 3(ए) और 3(बी) में पाई जा सकती है।

  • अनुच्छेद 23.2 के अनुसार निलंबन: व्यक्तियों, संस्थाओं और शिकायतकर्ताओं से प्राप्त नोटिसों और शिकायतों के प्रसंस्करण पर निलंबन जो अक्सर स्पष्ट रूप से निराधार नोटिस या शिकायतें प्रस्तुत करते हैं

DSA अनुच्छेद 23.2 के अनुसार 2025 की पहली छमाही में लगाए गए नोटिस और शिकायत प्रसंस्करण निलंबनों की संख्या निम्नानुसार है, जो "स्पष्ट रूप से निराधार" नोटिस और शिकायतों की हमारी आंतरिक परिभाषा और ऐसे नोटिस और शिकायतों के बार-बार प्रस्तुत किए जाने के लिए हमारी आंतरिक सीमाओं पर आधारित है:

4. हमारी कंटेंट मॉडरेशन टीमों के बारे में जानकारी 
a) कंटेंट मॉडरेशन के लिए समर्पित मानव संसा धन, जिसमें DSA अनुच्छेद 16, 20 और 22 का अनुपालन शामिल है, सदस्य राज्यों की आधिकारिक भाषा के अनुसार विभाजित
(अनुच्छेद 42.2 (ए))


हमारी कंटेंट मॉडरेशन टीमें दुनिया भर में 24/7 काम करती हैं, जिससे हमें अपनी कम्युनिटी को सुरक्षित रखने में मदद मिलती है। 30 जून 2025 तक मॉडरेटर की प्राथमिक भाषा विशेषता के अनुसार हमारे मानव मॉडरेशन संसाधनों का विवरण नीचे दिया गया है (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ हैं, लेकिन बहुभाषी मॉडरेटर केवल एक बार गिने जाते हैं):

30 जून 2025 तक, यूरोपीय संघ के सदस्य देशों की आधिकारिक भाषाओं का समर्थन करने वाले सामग्री मॉडरेशन के लिए समर्पित सभी मानव संसाधन उपरोक्त तालिका में शामिल हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सहायता की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।



सामग्री मॉडरेटर की योग्यता और भाषाई विशेषज्ञता; प्रशिक्षण और सहायता प्रदान की गई
(अनुच्छेद 42.2 (बी)

मॉडरेटर की भर्ती एक मानक नौकरी विवरण के आधार पर की जाती है जिसमें भाषा संबंधी आवश्यकता (आवश्यकता के आधार पर) शामिल होती है। भाषा आवश्यकता के अनुसार उम्मीदवार भाषा में लिखित और बोले जाने वाले प्रवाह को प्रदर्शित करने में सक्षम होना चाहिए और, एंट्री-लेवल की पदों के लिए, उम्मीदवारों के पास कम से कम एक साल का कार्य अनुभव होना चाहिए। उम्मीदवारों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके उम्मीदवारी पर विचार किया जा सकें। उम्मीदवारों को उस देश या क्षेत्र की वर्तमान घटनाओं की समझ भी प्रदर्शित करनी होगी, जहां के कंटेट मॉडरेशन को वे सपोर्ट करेंगे। 


Snap द्वारा कंटेंट मॉडरेटर को दिए जाने वाले प्रशिक्षण और सहायता का विवरण ऊपर दिया गया है। यह DSA अनुच्छेद 15(1)(सी) के तहत अलग से आवश्यक है और इसलिए इसे धारा 3(बी) के अंतिम उपखंड में शामिल किया गया है, जिसका शीर्षक हैं: “कंटेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम।

बाल यौन शोषण और दुरूपयोग (CSEA) मीडिया स्कैनिंग रिपोर्ट

रिलीज़ की तारीख: 31 जनवरी 2025

अंतिम अपडेट: 31 जनवरी 2025

यह रिपोर्ट 1 जनवरी 2024 से 31 दिसंबर 2024 तक की अवधि को कवर करती है।

बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य, विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफ़ॉर्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


जिन तकनीकों का हम इस्तेमाल करते हैं उनमें शामिल हैं (a) PhotoDNA रोबस्ट हैश-मैचिंग और Google की चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच, ताकि CSEA की ज्ञात अवैध इमेजरी और वीडियो की पहचान की जा सके; और (b) Google की कंटेंट सेफ्टी API, ताकि नई "नेवर-बीफ़ोर-हैश्ड" CSEA इमेजरी की पहचान की जा सके। हम कानून के अनुसार, CSEA इमेजरी की रिपोर्ट U.S. के गुमशुदा और शोषित बच्चों के राष्ट्रीय केंद्र (NCMEC) को देते हैं। बदले में, NCMEC आवश्यकता के अनुसार U.S. और अन्य देशों में कानून प्रवर्तन एजेंसियों के साथ समन्वय करता है।


रिपोर्ट

नीचे दिए गए चार्ट में 2024 के दौरान CSEA इमेजरी के लिए EU यूज़र्स के संबंध में सक्रिय पहचान और परिणामी प्रवर्तन के बारे में डेटा शामिल है। (ध्यान दें कि, 2024 में उक्त सक्रिय स्कैनिंग के परिणामस्वरूप किए गए कुछ प्रवर्तन, इस रिपोर्ट के संकलन के समय तक भी अपील के अधीन हो सकते हैं और इसलिए नीचे दिए गए अपील और बहाली के डेटा में शामिल नहीं हो सकते।)

*यह श्रेणी बाल यौन शोषण को प्रतिबंधित करने वाले Snap के कम्युनिटी दिशानिर्देश के उल्लंघन से संबंधित प्रवर्तन की रिपोर्ट प्रदान करती है। Snap के कम्युनिटी दिशानिर्देश के अन्य उल्लंघनों के तहत सक्रिय रूप से पहचाना गया कंटेंट यहां रिपोर्ट नहीं किया गया है।

**किसी प्रवर्तन को तब पलटा जा सकता है जब यह निर्धारित किया जाए कि प्रवर्तन के समय हमारी नीतियों के आधार पर यह गलत था, या यदि यह सही रूप से लागू किया गया था लेकिन अपील की समीक्षा के समय हमारी लागू नीति में बदलाव हो गया है।

कंटेंट मॉडरेशन सुरक्षा उपाय

CSEA मीडिया स्कैनिंग के लिए लागू सुरक्षा उपाय उपरोक्त EU DSA पारदर्शिता रिपोर्ट में निर्दिष्ट किए गए हैं।

यूरोपीयन यूनियन आतंकवादी कंटेंट ऑनलाइन पारदर्शिता रिपोर्ट

प्रकाशित: 28 फरवरी 2025

आखिरी अपडेट: 28 फरवरी 2025

रिपोर्टिंग साइकिल: 1 जनवरी 2024 - 31 दिसंबर 2024

यह पारदर्शिता रिपोर्ट यूरोपीय संसद और यूरोपीय परिषद के विनियम 2021/784 के अनुच्छेद 7(2) और 7(3) के अनुसार प्रकाशित की गई है, जो आतंकवादी कंटेंट के ऑनलाइन प्रसारण को संबोधित करते हैं (विनियम)। इसमें 1 जनवरी से 31 दिसंबर, 2024 तक की रिपोर्टिंग अवधि शामिल है। 

सामान्य जानकारी
  • अनुच्छेद 7(3)(क): आतंकवादी कंटेंट की पहचान और उसे हटाने या उस तक पहुँच को अक्षम करने के संबंध में सेवा प्रदाता के उपायों के बारे में जानकारी।

  • अनुच्छेद 7(3)(बी): आतंकवादी कंटेंट माने जाने के कारण पहले हटाई गई या उस तक पहुँच अक्षम की गई कंटेंट के फिर से ऑनलाइन प्रकट होने को संबोधित करने के लिए सेवा प्रदाता के उपायों के बारे में जानकारी, खासकर जहाँ स्वचालित टूल्स का उपयोग किया गया है।


Snapchat पर आतंकवादी कंटेंट की बहुत कम घटनाएं हैं, और 2024 में विनियमन के तहत उसे हटाने का आदेश नहीं मिला है।

आतंकवादियों, आतंकवादी संगठनों और हिंसक चरमपंथियों के Snapchat का उपयोग करने पर प्रतिबंध है। आतंकवाद या अन्य हिंसक, आपराधिक कार्यों का समर्थन, प्रचार, महिमामंडन करने या उन्हें बढ़ावा देने वाला कंटेंट हमारे कम्युनिटी दिशानिर्देशों के तहत प्रतिबंधित है। यूज़र हमारे ऐप में रिपोर्टिंग मेन्यू और हमारी सपोर्ट वेबसाइट के ज़रिए हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करने वाले कंटेंट की रिपोर्ट कर सकते हैं। हम स्पॉटलाइट और डिस्कवर जैसी सार्वजनिक सतहों पर उल्लंघनकारी कंटेंट की पहचान के प्रयास के लिए भी अग्रसक्रिय पहचान का उपयोग करते हैं।


चाहे हमें उल्लंघनकारी सामग्री के बारे में कैसे भी पता चले, हमारी सुरक्षा टीमें स्वचालन और मानवीय नियंत्रण के संयोजन के माध्यम से, पहचानी गई सामग्री की तुरंत समीक्षा करती हैं और प्रवर्तन संबंधी निर्णय लेती हैं। प्रवर्तन में कंटेंट को हटाना, चेतावनी देना या उल्लंघनकारी अकाउंट को लॉक करना और, यदि आवश्यक हुआ, तो कानून प्रवर्तन को उस अकाउंट की रिपोर्ट करना शामिल है। Snapchat पर आतंकवादी या अन्य हिंसक चरमपंथी कंटेंट को फिर से प्रकट होने से रोकने के लिए, कानून प्रवर्तन के साथ काम करने के अलावा, हम उल्लंघनकारी अकाउंट से जुड़े डिवाइस को ब्लॉक करने और यूज़र को दूसरा Snapchat अकाउंट बनाने से रोकने के लिए कदम उठाते हैं।


आतंकवादी कॉन्टेंट की पहचान करने और हटाने के लिए हमारे उपायों के बारे में अतिरिक्त विवरण हमारे नफ़रती कंटेंट, आतंकवाद तथा हिंसक चरमपंथ पर एक्सप्लेनर और हमारे मॉडरेशन, प्रवर्तन तथा अपीलों पर एक्सप्लेनर में देखा जा सकता है। .



रिपोर्टें और प्रवर्तन 
  • अनुच्छेद 7(3)(सी): हटाए गए आतंकवादी कंटेंट या हटाने के आदेश अथवा विशिष्ट उपायों के बाद जिनकी पहुँच अक्षम की गई, उनकी संख्या और हटाने के ऐसे आदेशों की संख्या जहाँ अनुच्छेद 3(7) और अनुच्छेद 3(8) के पहले उपअनुच्छेद के अनुपालन में कंटेंट हटाया नहीं गया है या उसकी पहुँच अक्षम नहीं की गई है, उनके आधारों के साथ


रिपोर्टिंग अवधि के दौरान, Snap को हटाने के कोई आदेश प्राप्त नहीं हुए, न ही हमारे लिए विनियम के अनुच्छेद 5 के अनुपालन में किन्हीं विशिष्ट उपायों को लागू करने की आवश्यकता थी। तदनुसार, हमें विनियमन के तहत प्रवर्तन कार्रवाई करने की आवश्यकता नहीं थी।

निम्नलिखित तालिका में उपयोगकर्ता रिपोर्ट और सक्रिय पहचान के आधार पर की गई प्रवर्तन कारवाईयों का वर्णन किया गया है, जो यूरोपीय संघ और दुनिया भर में अन्यत्र ऐसे कंटेंट और अकाउंट के विरूद्ध है, जिन्होंने आंतकवाद एवं हिंसक उग्रवाद कंटेंट से संबंधित हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन किया हैं।

प्रवर्तन अपील
  • अनुच्छेद 7(3)(डी): अनुच्छेद 10 के अनुपालन में होस्टिंग कंपनी द्वारा संबोधित शिकायतों की मात्रा और समाधान

  • अनुच्छेद 7(3)(जी): ऐसे उदाहरणों की संख्या जहां होस्टिंग सेवा प्रदाता ने सामग्री प्रदाता द्वारा शिकायत दर्ज करने के बाद पहुंच या सामग्री बहाल की

जैसा कि पहले कहा गया था, हमने विनियमन के अनुच्छेद 10 के अनुसार किसी शिकायत का निपटारा नहीं किया और रिपोर्टिंग अवधि के दौरान कोई संबंधित बहाली नहीं की, क्योंकि हम विनियमन के तहत कोई प्रवर्तन कदम उठाने के लिए बाध्य नहीं थे।

यूरोपीय संघ और अंतरराष्ट्रीय स्तर पर, हमारे सामुदायिक दिशानिर्देशों के तहत लागू आतंकवादी और हिंसक चरमपंथी सामग्री के संबंध में अपील और बहाली के बारे में जानकारी निम्नलिखित तालिका में शामिल है।

न्यायिक कार्यवाही और amp; अपील
  • अनुच्छेद 7(3)(ई): होस्टिंग सेवा प्रदाता द्वारा शुरू की गई प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों की संख्या और परिणाम

  • अनुच्छेद 7(3)(एफ): ऐसे मामलों की संख्या जिनमें होस्टिंग सेवा प्रदाता के लिए प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों के परिणामस्वरूप सामग्री को बहाल करना या उसकी ऐक्सेस देना आवश्यक था।

चूंकि रिपोर्टिंग अवधि के दौरान विनियमन के तहत हमारे पास कोई प्रवर्तन कार्रवाई आवश्यक नहीं थी, जैसा कि ऊपर उल्लेख किया गया है, हमारे पास कोई संबद्ध प्रशासनिक या न्यायिक समीक्षा कार्यवाही नहीं थी और हमें ऐसी किसी भी कार्यवाही के परिणामस्वरूप कंटेंट को बहाल करने की आवश्यकता नहीं थी।

DSA जोखिम मूल्यांकन

यह रिपोर्ट विनियमन (EU) 2022/2065 के अनुच्छेद 34 और 35 के तहत Snap के दायित्वों का पालन करने के लिए तैयार की गई है और Snapchat के ऑनलाइन प्लैटफ़ॉर्म के डिज़ाइन, कार्य और उपयोग से उत्पन्न सिस्टम संबंधी जोखिमों के हमारे मूल्यांकन के परिणाम प्रदान करती है, साथ ही उन जोखिमों का मूल्यांकन करने के लिए इस्तेमाल किए जाने वाले तरीकों और उन जोखिमों को दूर करने के लिए किए गए शमन उपायों की जानकारी भी देती है।


DSA जोखिम और शमन मूल्यांकन रिपोर्ट | Snapchat | अगस्त 2023 (PDF)


DSA ऑडिट और ऑडिट कार्यान्वयन

ये रिपोर्ट्स विनियमन (EU) 2022/2065 के अनुच्छेद 37 के तहत Snap के दायित्वों का अनुपालन करने के लिए तैयार की गई हैं और निम्नलिखित प्रदान करती हैं: (i) विनियमन (EU) 2022/2065 के अध्याय III में निर्धारित दायित्वों के साथ Snap के अनुपालन के स्वतंत्र ऑडिट के परिणाम और (ii) उस स्वतंत्र ऑडिट से परिचालन सुझावों को लागू करने के लिए उठाए गए कदम।

DSA स्वतंत्र ऑडिट रिपोर्ट | Snapchat | अगस्त 2024 (PDF)

DSA ऑडिट कार्यान्वयन रिपोर्ट | Snapchat | सितंबर 2024 (PDF)



EU VSP आचरण संहिता

अनुच्छेद 1(1) (aa) AVMSD के अनुसार Snap एक "वीडियो शेयरिंग प्लेटफ़ॉर्म सर्विस ("VSP") प्रदाता है। यह आचरण संहिता (“कोड”) यह वर्णन करने के लिए तैयार की गई है कि Snap डच मीडिया अधिनियम ("DMA") और निर्देश (EU) 2010/13 (निर्देश (EU) 2018/1808 ("ऑडियो-विजुअल सेवा निर्देश" या "AVMSD") द्वारा संशोधित) के अंतर्गत VSP के रूप में अपने कर्तव्यों का निर्वहन कैसे करता है। यह संहिता संपूर्ण यूरोपीयन यूनियन के साथ-साथ यूरोपियन आर्थिक क्षेत्र में भी लागू है।

EU VSP आचार संहिता | Snapchat | मार्च 2025 (PDF)

बल्गेरियाई | क्रोएशियाई | चेक | डेनिशडच | एस्टोनियाई | फिनिश | फ्रेंच | जर्मन | ग्रीक | हंगेरियन | आयरिश | इटैलियन | लातवियाई | लिथुआनियाई | माल्टीज़ | पोलिश | पुर्तगाली | रोमानियाई | स्लोवाक | स्लोवेनियाई | स्पैनिश | स्वीडिश