हमारे यूरोपीयन यूनियन (EU) पारदर्शिता पेज में आपका स्वागत है, जहां हम डिजिटल सेवा अधिनियम (DSA), ऑडियोविजुअल मीडिया सेवा डायरेक्टिव (AVMSD), डच मीडिया अधिनियम (DMA), और आतंकवादी कॉन्टेंट ऑनलाइन विनियमन (TCO) द्वारा आवश्यक EU विशिष्ट जानकारी प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।
Snap Group Limited ने Snap B.V. को DSA के उद्देश्यों के लिए अपना कानूनी प्रतिनिधि नियुक्त किया है। आप हमारी सपोर्ट साइट [यहाँ] के माध्यम से, या निम्नलिखित पर, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर, TCO के लिए tco-enquiries [at] snapchat.com पर, प्रतिनिधि से संपर्क कर सकते हैं:
Snap B.V.
Keizersgracht 165, 1016 DP
ऐम्स्टरडैम, नीदरलैंड्स
यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहाँ दिए गए चरणों को फ़ॉलो करें।
कृपया हमसे संपर्क करते समय अंग्रेजी या डच में बात करें।
DSA के लिए, हमें यूरोपियन कमीशन, और नीदरलैंड्स उपभोक्ता एवं बाजार प्राधिकार (ACM) द्वारा विनियमित किया जाता है। AVMSD और DMA के लिए, हमें डच मीडिया प्राधिकार (CvdM) द्वारा विनियमित किया जाता है। TCO के लिए, ऑनलाइन आतंकवादी कंटेंट और बाल यौन दुरुपयोग सामग्री (ATKM) की रोकथाम के लिए हमें नीदरलैंड्स प्राधिकार द्वारा विनियमित किया जाता है।
प्रकाशित: 28 फरवरी 2025
आखिरी बार अद्यतन किया गया: : 23 अप्रैल 2025 (संस्करण 2.0)
रिपोर्टिंग साइकिल: 1 जुलाई 2024 - 31 दिसंबर 2024
हम इस रिपोर्ट को यूरोपीयन यूनियन (EU) के डिजिटल सेवा अधिनियम (विनियमन (EU) 2022/2065) ("DSA") के अनुच्छेद 15, 24 और 42 में प्रदत्त पारदर्शिता रिपोर्टिंग आवश्यकताओं के अनुसार प्रकाशित करते हैं। जहां अन्यथा उल्लेख न किया गया हो, वहां इस रिपोर्ट में निहित जानकारी 1 जुलाई 2024 से 31 दिसंबर 2024 (2024 की दूसरी छमाही) तक की रिपोर्टिंग अवधि के लिए है।).
1 जनवरी 2025, तक, यूरोपीय संघ में हमारे Snapchat ऐप के 93.7 मिलियन औसत मासिक सक्रिय Snapchat प्राप्तकर्ता ("AMAR") हैं। इसका तात्पर्य है कि यूरोपीय संघ में 93.7 पंजीकृत उपयोगकर्ताओं ने 31 दिसंबर 2024 को समाप्त हुए छमाही के दौरान औसतन किसी दिए गए माह में कम से कम एक बार Snapchat ऐप खोला है।
सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:
इन आंकड़ों की गणना वर्तमान DSA आवश्यकताओं के अनुपालन को पूरा करने के उद्देश्य से की गई थी और केवल DSA के उद्देश्यों के लिए ही उन पर निर्भर होना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव को मद्देनज़र रखते हुए इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।
इस रिपोर्टिंग अवधि (2024 की दूसरी छमाही) के दौरान, हमें यूरोपीय संघ के सदस्य देशों के अधिकारियों की ओर से विशिष्ट रूप से पहचाने गए अवैध कॉन्टेंट के हिस्सों के खिलाफ कार्रवाई करने के लिए शून्य (0) आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 9 के अनुसार जारी किए गए आदेश शामिल हैं।
चूँकि यह संख्या शून्य (0) है, इसलिए हम संबंधित अवैध कॉन्टेंट के प्रकार या आदेश जारी करने वाले सदस्य राज्य का विवरण, अथवा प्राप्ति स्वीकृति देने या आदेश पर अमल करने का माध्य समय नहीं प्रदान कर सकते हैं।
इस रिपोर्टिंग अवधि (2024 की पहली छमाही) के दौरान, हमें यूरोपीय संघ के सदस्य राज्यों के अधिकारियों की ओर से यूज़र डेटा के खुलासे के लिए निम्नलिखित आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 10 के अनुसार जारी किए गए आदेश शामिल हैं:
जानकारी प्रदान करने के इन आदेशों की प्राप्ति स्वीकृति के बारे में संबंधित अधिकारियों को सूचित करने का मध्यमान समय 0 मिनट था — हम प्राप्ति की पुष्टि करने का स्वचालित उत्तर प्रदान करते हैं।
जानकारी प्रदान करने के इन आदेशों पर अमल करने का मध्यमान समय ~12 दिन था। . यह मीट्रिक Snap को कोई ऑर्डर प्राप्त होने से लेकर Snap द्वारा इस मामले को पूरी तरह सुलझाया हुआ मान लिए जाने तक की समय अवधि को दर्शाता है, जिसमें अलग-अलग मामले आंशिक रूप से इस पर निर्भर कर सकते हैं कि ऑर्डर को संसाधित करने के लिए Snap द्वारा किसी स्पष्टीकरण के अनुरोध पर सदस्य राज्य के प्राधिकार द्वारा कितनी गति से उत्तर दिया जाता है।
ध्यान दें, जानकारी प्रदान करने के उपरोक्त आदेशों के बारे में संबंधित अवैध कॉन्टेंट के प्रकार के अनुसार वर्गीकृत विवरण प्रदान नहीं करते क्योंकि यह जानकारी आम तौर पर हमें उपलब्ध नहीं होती है।
Snapchat पर समस्त कॉन्टेंट को हमारे कम्युनिटी दिशानिर्देशों और सेवा की शर्तों का पालन करना होगा। कुछ कॉन्टेंट को अतिरिक्त दिशानिर्देशों और नीतियों का पालन भी करना होगा। उदाहरण के लिए, हमारे सार्वजनिक प्रसारण माध्यमों पर व्यापक ऑडियंस को अलगोरिद्म-आधारित अनुशंसा के लिए सबमिट किए गए कॉन्टेंट को हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देश , में दिए गए अतिरिक्त, उच्चतर मानकों के अनुरूप होना चाहिए, जबकि विज्ञापनों को हमारी विज्ञापन नीतियों का पालन करना चाहिए।
हम तकनीक और मानव समीक्षा का उपयोग करके इन नीतियों को प्रवर्तित करते हैं। हम Snap चैटर्स यूजर और नॉन-यूजर को सीधे ऐप में या हमारी वेबसाइट के माध्यम से अवैध कॉन्टेंट और गतिविधियों सहित उल्लंघनों की रिपोर्ट करने के लिए उपाय भी प्रदान करते हैं। हम सक्रिय क्षति पहचान तकनीक का भी उपयोग करते हैं। अग्रसक्रिय जांच तंत्र और रिपोर्टों के आधार पर समीक्षा की जाती है, जो फिर हमारी नीतियों के अनुसार उचित कार्रवाई करने के लिए स्वचालित टूल्स और मानव मॉडरेटर के मिले-जुले तरीकों का उपयोग करती है।
हम नीचे 2024 की दूसरी में दिए गए अपने कॉन्टेंट मॉडरेशन के बारे में और जानकारी प्रदान करते हैं।
DSA अनुच्छेद 16 के अनुसार, Snap ने ऐसे उपाय लागू किए हैं जिनसे यूज़र और गैर-यूज़र Snapchat पर ऐसी सूचनाओं के विशिष्ट मदों की मौजूदगी के बारे में Snap को सूचित कर सकते हैं जिन्हें वे अवैध कॉन्टेंट मानते हैं। वे सीधे Snapchat ऐप में या हमारी वेबसाइट पर कॉन्टेंट के विशिष्ट हिस्सों या अकाउंट्स की रिपोर्ट करके ऐसा कर सकते हैं।
ऐप में या हमारी वेबसाइट के माध्यम से नोटिस प्रस्तुत करते समय, रिपोर्टर हमारे सामुदायिक दिशानिर्देशों में सूचीबद्ध उल्लंघनों की श्रेणियों (जैसे, घृणास्पद भाषण, नशीली दवाओं का उपयोग या बिक्री) को दर्शाने वाले विकल्पों के मेनू से एक विशिष्ट रिपोर्टिंग कारण का चयन कर सकते हैं।). हमारे कम्युनिटी दिशानिर्देश उन कॉन्टेंट और गतिविधियों को प्रतिबंधित करते हैं जो यूरोपीय संघ में गैर-कानूनी हैं, इसलिए रिपोर्टिंग के हमारे कारण काफी हद तक यूरोपीय संघ में अवैध कॉन्टेंट की विशिष्ट श्रेणियों को दर्शाते हैं। हालांकि, जिस हद तक यूरोपीय संघ में किसी रिपोर्टर का मानना है कि वे जिस कॉन्टेंट या अकाउंट को रिपोर्ट कर रहे हैं वह ऐसे कारणों से गैरकानूनी है जो हमारे रिपोर्टिंग मेन्यू में विशिष्ट रूप से संदर्भित नहीं किए गए हैं, उस हद तक वे “अन्य गैरकानूनी कॉन्टेंट” के तौर पर इसकी रिपोर्ट कर सकते हैं और उन्हें यह बताने का अवसर दिया जाता है कि वे ऐसा क्यों मानते हैं कि वे जिसकी रिपोर्ट कर रहे हैं वह गैरकानूनी है।
रिपोर्टिंग अवधि (2024 की दूसरी छमाही) के दौरान, हमें यूरोपीय संघ में DSA अनुच्छेद 16 के अनुसार सबमिट की गई निम्नलिखित नोटिस प्राप्त हुईं:
हम नीचे इन नोटिसों के निपटान के तरीके का सारांश प्रस्तुत कर रहे हैं, जिसमें यह दर्शाया गया है कि क्या उनका निपटान पूरी तरह से स्वचालित तरीके से किया गया या ऐसी प्रक्रिया के माध्यम से किया गया जिसमें मानवीय समीक्षा शामिल थी:
यदि, समीक्षा करने पर, हम तय करते हैं कि रिपोर्ट किए गए कॉन्टेंट या अकाउंट हमारे कम्युनिटी दिशानिर्देशों (अवैधता के कारणों सहित) का उल्लंघन करते हैं, तो हम (i) आपत्तिजनक कॉन्टेंट को हटा सकते हैं, (ii) संबंधित अकाउंट धारक को चेतावनी दे सकते हैं और उस अकाउंट पर एक स्ट्राइक लगा सकते हैं, और / या (iii) संबंधित अकाउंट को लॉक कर सकते हैं, जैसाकि हमारे Snapchat मॉडरेशन, एनफ़ोर्समेंट और अपील्स एक्सप्लेनर में समझाया गया है।
2004 की दूसरी छमाही में, हमने यूरोपीय संघ में DSA अनुच्छेद 16 के अनुसार सबमिट की गईं नोटिस प्राप्त होने पर निम्नलिखित प्रवर्तन कार्रवाइयाँ कीं:
2024 की दूसरी छमाही में, हमने "अन्य अवैध कॉन्टेंट” के बारे में जिन रिपोर्टों पर कार्रवाई की, उन सभी को अंततः हमारे कम्युनिटी दिशानिर्देशों के तहत प्रवर्तित किया गया क्योंकि हमारे कम्युनिटी दिशानिर्देश संबंधित कॉन्टेंट या गतिविधि को प्रतिबंधित करते हैं। इस प्रकार हमने उपरोक्त तालिका में कम्युनिटी दिशानिर्देशों के उल्लंघन की प्रासंगिक श्रेणी के तहत इन प्रवर्तनों को वर्गीकृत किया।
उपरोक्त प्रवर्तनों के अलावा, हम अन्य Snap नीतियों और दिशानिर्देशों के अनुसार हमें सूचित किए गए कॉन्टेंट पर कार्रवाई कर सकते हैं:
हमारी सार्वजनिक प्रसारण सतहों पर कंटेंट के संबंध में, अगर हमें यह तय करते है कि रिपोर्ट किया गया कंटेंट सिफारिश पात्रता मानदंडों के लिए हमारे कंटेंट दिशानिर्देशों को पूरा नहीं करता है, तो हम एल्गोरिदमिक सिफारिश के लिए कंटेंट को अस्वीकार कर सकते हैं या हम कुछ दर्शकों को बाहर करने के लिए कंटेंट के वितरण को सीमित कर सकते हैं (यदि कंटेंट अनुशंसा के लिए हमारे पात्रता मानदंडों को पूरा करता है लेकिन अन्यथा संवेदनशील या विचारोत्तेजक है)।
2024 की पहली छमाही में, हमने हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देशों के अनुसार यूरोपीयन यूनियन में Snapchat की सार्वजनिक प्रसारण सतहों पर रिपोर्ट किए गए कॉन्टेंट के संबंध में निम्नलिखित कार्रवाइयाँ कीं:
मूल्यांकन के बाद, यदि हमें पता चले कि कोई विज्ञापन हमारी विज्ञापन नीतियों का उल्लंघन करता है, तो हम उसे हटा सकते हैं।
2024 की दूसरी छमाही में, हमने यूरोपीय संघ में हमें रिपोर्ट किए गए विज्ञापनों के संबंध में निम्नलिखित कार्रवाइयाँ की:
DSA अनुच्छेद 16 के अनुसार, जमा किए गए नोटिस की समीक्षा करने के अलावा, Snap की अपनी पहल पर कॉन्टेंट मॉडरेशन भी जुड़ा है। नीचे हम Snap की अपनी पहल पर किए गए कॉन्टेंट मॉडरेशन के बारे में जानकारी दे रहे हैं, जिसमें स्वचालित टूल्स के इस्तेमाल, कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए किए गए उपाय और मॉडरेशन के इन अग्रसक्रिय प्रयासों के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार शामिल है।
Snap की अपनी पहल पर किए गए मॉडरेशन में स्वचालित टूल्स का उपयोग
हम अपनी शर्तों और नीतियों के उल्लंघन का पहले से पता लगाने और कुछ मामलों में, उन पर कार्रवाई करने के लिए स्वचालित उपकरण तैनात करते हैं। इन उपकरणों में हैश-मैचिंग टूल्स (PhotoDNA और Google CSAI मैच सहित), Google कंटेंट सेफ़्टी API, अपमानजनक भाषा पहचान मॉडल (जो पहचान की गई और नियमित रूप से अपडेट की गई अपमानजनक कीवर्ड और इमोजी की सूची के आधार पर सामग्री का पता लगाकर उसे अस्वीकार कर देते हैं), और कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और बड़े भाषा मॉडल का उपयोग करने वाली तकनीकें शामिल हैं। हमारी स्वचालित प्रणालियाँ हमारे सामुदायिक दिशानिर्देशों (जो अन्य बातों के अलावा, गैरकानूनी कॉन्टेंट पर रोक लगाते हैं) के उल्लंघनों की पहचान करने के लिए बनाई गई हैं, और यदि प्रासंगिक हो, तो अनुशंसा पात्रता के लिए हमारी विज्ञापन नीतियों के साथ-साथ कॉन्टेंट दिशानिर्देशों की भी पहचान करती हैं।
2024 की पहली छमाही में, हमारा अग्रसक्रिय रूप से पता लगाने का समस्त काम स्वचालित टूल्स के उपयोग से किया गया। जब हमारे स्वचालित उपकरण हमारी नीतियों के किसी संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या वे मानवीय समीक्षा के लिए एक कार्यभार बनाते हैं। इस प्रक्रिया के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार का नीचे वर्णन किया गया है।
Snap की अपनी पहल पर लगाए गए प्रतिबंधों की संख्या और प्रकार
2024 की दूसरी छमाही में, Snap ने हमारे कम्युनिटी दिशानिर्देशों (यूरोपीय संघ और सदस्य राज्य कानूनों के तहत अवैध कंटेंट और गतिविधियों के उल्लंघन सहित) के उल्लंघन का सक्रिय रूप से पता लगाने के बाद निम्नलिखित प्रवर्तन कार्रवाई की:
इसके अलावा, 2024 की पहली छमाही में, हमने स्वचालित तकनीकों के माध्यम से Snapchat पर सक्रिय रूप से पहचान करने के बाद, अनुशंसा पात्रता के लिए हमारी कंटेंट दिशानिर्देशों के उल्लंघन के बाद हमारी सार्वजनिक प्रसारण सतहों पर सामग्री के संबंध में निम्नलिखित उपायों को लागू किया:
* जो खाते लगातार या स्पष्ट रूप से अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों का उल्लंघन करते हैं, उन्हें हमारी सार्वजनिक प्रसारण सतहों पर अनुशंसाओं से अस्थायी या स्थायी रूप से अयोग्य घोषित किया जा सकता है, जैसा कि अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों में निर्दिष्ट है। हम इस क्रिया को अपने सक्रिय मॉडरेशन प्रयासों के संदर्भ में लागू करते हैं।
साथ ही, स्वचालित तरीकों का उपयोग करके Snapchat पर हमारी विज्ञापन नीतियों के उल्लंघन की सक्रिय रूप से पहचान करने के बाद, हमने 2024 की पहली छमाही में निम्न कार्रवाई की:
कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम
हमारी कॉन्टेंट मॉडरेशन टीमें हमारे Snapchap समुदाय को सुरक्षित रखने के लिए हमारी कॉन्टेंट मॉडरेशन नीतियों को लागू करती हैं। उन्हें कई-सप्ताह की अवधि के दौरान प्रशिक्षण दिया जाता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। हमारी मॉडरेशन टीमें नियमित रूप से अपने वर्कफ्लो के लिए प्रासंगिक रिफ्रेशर प्रशिक्षण में भाग लेती हैं, खासकर तब जब हमारे सामने नीति की सीमारेखा से जुड़े और संदर्भ पर निर्भर मामले आते हैं। यह सुनिश्चित करने के लिए कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं, हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर महत्वपूर्ण कंटेंट ट्रेंड्स पेश आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।
हम अपनी कॉन्टेंट मॉडरेशन टीमों को महत्वपूर्ण समर्थन और संसाधन प्रदान करते हैं, जिसमें काम के दौरान कुशलता सहायता और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच शामिल है।
ऐसे यूज़र जिनके अकाउंट हमारी सुरक्षा टीमों द्वारा कम्युनिटी दिशानिर्देश के उल्लंघन (जिसमें अवैध कॉन्टेंट और गतिविधियों के कारण शामिल हैं) के कारण लॉक किए गए हैं, वे लॉक्ड अकाउंट अपील सबमिट कर सकते हैं। यूज़र कॉन्टेंट मॉडरेशन के कुछ उपायों की भी अपील कर सकते हैं।
रिपोर्टिंग अवधि (2024 की दूसरी छमाही) के दौरान, Snap ने यूरोपीयन यूनियन में शिकायतों को संभालने वाली इसकी आंतरिक प्रणालियों के माध्यम से सबमिट की गई निम्नलिखित अपीलों (जिनमें अकाउंट लॉक तथा कॉन्टेंट-स्तरीय मॉडरेशन दोनों के विरुद्ध अपीलें शामिल हैं) को संसाधित किया:
गुणात्मक विवरण और उद्देश्य
जैसा कि ऊपर अनुभाग 3(बी) में बताया गया है, हम अपनी शर्तों व नीतियों के उल्लंघन का सक्रिय रूप से पता लगाने और कुछ मामलों में, उन्हें लागू करने के लिए स्वचालित उपकरण तैनात करते हैं। इन उपकरणों में हैश-मैचिंग टूल्स (PhotoDNA और Google CSAI मैच सहित), Google कंटेंट सेफ़्टी API, अपमानजनक भाषा पहचान मॉडल (जो पहचान की गई और नियमित रूप से अपडेट की गई अपमानजनक कीवर्ड और इमोजी की सूची के आधार पर सामग्री का पता लगाकर उसे अस्वीकार कर देते हैं), और कृत्रिम बुद्धिमत्ता, मशीन लर्निंग और बड़े भाषा मॉडल का उपयोग करने वाली तकनीकें शामिल हैं। हमारी स्वचालित प्रणालियाँ हमारे कम्युनिटी दिशानिर्देशों (जो अन्य बातों के अलावा, गैरकानूनी कॉन्टेंट पर रोक लगाते हैं) के उल्लंघनों की पहचान करने के लिए बनाई गई हैं, और यदि प्रासंगिक हो, तो अनुशंसा पात्रता के लिए हमारी विज्ञापन नीतियों और कॉन्टेंट दिशानिर्देशों की भी पहचान करती हैं।
जब हमारे स्वचालित उपकरण हमारी नीतियों के किसी संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या वे मानवीय समीक्षा के लिए एक कार्य बनाते हैं।
सटीकता के संकेतक और त्रुटि की संभावित दर, सदस्य राज्य द्वारा विभाजित
हम अपने स्वचालित उपकरणों द्वारा संसाधित कार्यों के यादृच्छिक नमूनों का चयन करके और उन्हें हमारी मानव मॉडरेशन टीमों द्वारा पुनः समीक्षा के लिए भेज कर अपने स्वचालित मॉडरेशन उपकरणों की सटीकता और त्रुटि की संभावित दर के संकेतकों पर नजर रखते हैं। सटीकता दर इन यादृच्छिक नमूनों के उन कार्यों का प्रतिशत है जिनकी मानव मॉडरेटर द्वारा पुन: समीक्षा के बाद सही मॉडरेशन निर्णय लेने की पुष्टि होती हैं। 100% और पहले बताई गई सटीकता दर के बीच के अंतर को त्रुटि दर के रूप में जाना जाता है।
हम स्वचालित मॉडरेशन उपकरणों की दो व्यापक श्रेणियों के लिए सटीकता और त्रुटि की संभावित दर की निगरानी करते हैं, जिनमें शामिल हैं:
स्वचालित उपकरण जो हमारे कम्युनिटी दिशानिर्देशों के उल्लंघन का पता लगाते हैं और/या उनके खिलाफ कार्रवाई करते हैं, और इसकी वजह से किसी उपयोगकर्ता के अकाउंट के खिलाफ कार्रवाई भी कर सकते हैं (उदाहरण के लिए, अकाउंट के खिलाफ चेतावनी देना या अकाउंट लॉक कर देना)। नमूना लेने के आधार पर, 2024 की दूसरी छमाही में, इन स्वचालित उपकरणों की सटीकता दर लगभग 95% थी जबकि त्रुटि दर लगभग 5% थी।
स्वचालित उपकरण जो हमारी सार्वजनिक प्रसारण सतहों पर मौजूद कंटेंट का पता लगाते हैं और/या उस पर कार्रवाई करते हैं जो हमारी अनुशंसा पात्रता के लिए हमारे कंटेंट दिशानिर्देशों के आधार पर कार्रवाई करते हैं। नमूना लेने के आधार पर, 2024 की दूसरी छमाही में, इन स्वचालित उपकरणों की सटीकता दर लगभग 85% थी जबकि त्रुटि दर लगभग 15% थी।
नमूना लेने के आधार पर, 2024 की दूसरी छमाही में, उपरोक्त दोनों श्रेणियों में उपयोग किए गए स्वचालित उपकरणों की संयुक्त सटीकता दर लगभग 89% थी जबकि त्रुटि दर लगभग 11% थी।
हम सदस्य देशों की प्रत्येक आधिकारिक भाषा के लिए अपने स्वचालित मॉडरेशन सिस्टम की सटीकता और त्रुटि दर का ब्यौरा देने में असमर्थ हैं, क्योंकि हम आमतौर पर Snapchat पर फ़िल्टर किए गए कॉन्टेंट की भाषा पर नजर नहीं रखते हैं। इस जानकारी के प्रमाण के रूप में, हम नीचे प्रत्येक सदस्य राज्य से उत्पन्न होने वाली स्वचालित रूप से मॉडरेटेड कंटेंट (हमारे कम्युनिटी दिशानिर्देशों और अनुशंसा पात्रता के लिए हमारे कंटेंट दिशानिर्देशों दोनों में) के लिए हमारी संयुक्त सटीकता एवं त्रुटि दर का विवरण देते हैं।
सुरक्षा
हम मौलिक अधिकारों पर स्वचालित मॉडरेशन उपकरणों के संभावित प्रभाव के प्रति सचेत हैं, और हम उस प्रभाव को न्यूनतम करने के लिए सुरक्षा उपाय लागू करते हैं।.
हमारे स्वचालित कॉन्टेंट मॉडरेशन टूल्स को तैनात करने से पहले परीक्षण किया जाता है। मॉडलों का प्रदर्शन के लिए ऑफ़लाइन परीक्षण किया जाता है और उत्पादन में पूरी तरह से शामिल किए जाने से पहले उनकी उचित कार्यप्रणाली सुनिश्चित करने के लिए ए/बी परीक्षण के माध्यम से उन्हें तैनात किया जाता है। आंशिक (चरणबद्ध) रोलआउट के दौरान, हम लॉन्च-पूर्व गुणवत्ता आश्वासन (QA) समीक्षा, लॉन्च समीक्षा और निरंतर सटीक QA जांच करते हैं।
हमारे स्वचालित उपकरण लॉन्च होने के बाद, हम लगातार उनकी सटीकता और प्रभावशीलता का आकलन करते हैं और आवश्यक संशोधन करते हैं। सटीकता बढ़ाने के लिए जिन मॉडलों को समायोजित करने की आवश्यकता है, उन्हें खोजने के लिए हमारे मानव मॉडरेटर स्वचालित कार्य के नमूनों की पुनः जांच करते हैं। हम कुछ सार्वजनिक सामग्री के यादृच्छिक दैनिक नमूने के माध्यम से Snapchat पर विशिष्ट नुकसान की व्यापकता की निगरानी भी करते हैं, और आगे सुधार के क्षेत्रों की पहचान करने के लिए इस जानकारी का लाभ उठाते हैं।
Snap चैटर्स को नोटिस और अपील प्रक्रियाओं के माध्यम से प्रवर्तन निर्णयों को सार्थक रूप से चुनौती देने का मौका देने के अलावा, जो व्यक्तिगत Snap चैटर अधिकारों और हमारे कम्युनिटी के हितों की रक्षा करना चाहते हैं, हमारी नीतियां और प्रणालियां हमारे स्वचालित उपकरणों के माध्यम से सुसंगत और न्यायसंगत प्रवर्तन का समर्थन करती हैं।
उनकी सटीकता बढ़ाने तथा हमारी नीतियों के एकसमान और न्यायसंगत अनुप्रयोग को सुगम बनाने के लिए, हम अपनी स्वचालित कॉन्टेंट मॉडरेशन प्रौद्योगिकियों को निरंतर बेहतर बनाने के लिए कड़ी मेहनत करते हैं।
रिपोर्टिंग अवधि (2024 की पहली छमाही) के लिए, हम DSA अनुच्छेद 21 में संदर्भित अदालत के बाहर विवाद निपटान निकायों को Snap के खिलाफ प्रस्तुत विवादों के बारे में निम्नलिखित जानकारी प्रदान करते हैं:
उपरोक्त तालिका 31 दिसंबर 2024 तक की रिपोर्टिंग अवधि (H2 2024) के दौरान DSA अनुच्छेद 21 के तहत प्रमाणित अदालत के बाहर के विवाद निपटान निकायों के समक्ष प्रस्तुत किए गए विवादों की स्थिति को दर्शाती है। 31 दिसंबर 2024 तक, 2024 की दूसरी छमाही में ऐसे निकायों के समक्ष प्रस्तुत किए गए 20 विवादों में से 15 लंबित थे, और 5 विवादों का निपटान निर्णय लेने से पहले कर दिया गया था।
ध्यान दें, हमने उन शिकायतों को उपरोक्त तालिका में शामिल नहीं किया जो अनुच्छेद 21 द्वारा प्रमाणित निकाय के समक्ष पेश की गई थीं, लेकिन यह कि संबंधित निकाय को Snap पर भेजने से पहले स्वीकार्य नहीं पाई गईं। हम इस श्रेणी में आने वाले विवादों की संख्या की पुष्टि नहीं कर सकते हैं क्योंकि कुछ, लेकिन सभी नहीं, प्रमाणित निकाय, Snap को ऐसे विवादों के बारे में सूचित करते हैं। यदपि, हमें 2024 की दूसरी छमाही में इस श्रेणी में 6 शिकायतें आयी हैं।
अनुच्छेद 23.1 के अनुसार निलंबन: ऐसे खातों का निलंबन जो अक्सर स्पष्ट रूप से अवैध कॉन्टेंट प्रदान करते हैं
जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपीलीय स्पष्टीकरण में बताया गया है, हम निर्धारित करते हैं कि जिन खातों का उपयोग मुख्य रूप से हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन (जिसमें स्पष्ट रूप से अवैध कॉन्टेंट के प्रावधान के माध्यम से हुए) करने के लिए किया जाता है और जो खाते गंभीर नुकसान पहुंचाते हैं उन्हें तुरंत अक्षम कर दिया जाता है। हमारे कम्युनिटी दिशानिर्देश के अन्य उल्लंघनों के लिए, Snap आम तौर पर तीन कदम वाली प्रवर्तन प्रक्रिया का उपयोग करता है:
पहला कदम: उल्लंघन करने वाले कंटेंट को हटा दिया जाता है।
दूसरा चरण: Snap चैटर यूजर को एक अधिसूचना प्राप्त होती है जिसमें लिखा होता है कि उन्होंने हमारे कम्युनिटी दिशानिर्देश का उल्लंघन किया है, इस वजह से उनके कंटेंट को हटा दिया गया है और बार-बार उल्लंघन करने पर अतिरिक्त प्रवर्तन कार्रवाई की जाएगी जिसके तहत उनके अकाउंट को बंद भी किया जा सकता है।
चरण तीन: हमारी टीम Snap चैटर यूजर के खाते के खिलाफ एक स्ट्राइक दर्ज करती है।
यूरोपीय संघ में खातों पर 2024 की दूसरी छमाही में लगाए गए स्ट्राइक (अर्थात चेतावनियाँ) और लॉक की संख्या के बारे में जानकारी ऊपर अनुभाग 3(a) और 3(b) में पाई जा सकती है।
अनुच्छेद 23.2 के अनुसार निलंबन: व्यक्तियों, संस्थाओं और शिकायतकर्ताओं से प्राप्त नोटिसों और शिकायतों के प्रसंस्करण पर निलंबन जो अक्सर स्पष्ट रूप से निराधार नोटिस या शिकायतें प्रस्तुत करते हैं
"स्पष्ट रूप से निराधार" नोटिस और शिकायतों की हमारी आंतरिक परिभाषा, और ऐसे नोटिस और शिकायतों के बार-बार प्रस्तुत किए जाने के लिए हमारी आंतरिक सीमाओं को लागू करते हुए, DSA अनुच्छेद 23.2 के अनुसार 2024 की दूसरी छमाही में लगाए गए नोटिस और शिकायतों के प्रसंस्करण पर निलंबन की संख्या इस प्रकार है
हमारी कंटेंट मॉडरेशन टीमें दुनिया भर में 24/7 काम करती हैं, जिससे हमें अपनी कम्युनिटी को सुरक्षित रखने में मदद मिलती है। नीचे 31 दिसंबर, 2024 तक मॉडरेटर्स की भाषा विशेषज्ञता के अनुसार हमारे मानव मॉडरेशन संसाधनों का विवरण दिया गया है (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ होते हैं):
31 दिसंबर 2024 तक, यूरोपीय संघ के सदस्य देशों की आधिकारिक भाषाओं का समर्थन करने वाले सामग्री मॉडरेशन के लिए समर्पित सभी मानव संसाधन उपरोक्त तालिका में शामिल हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सहायता की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।
सामग्री मॉडरेटर की योग्यता और भाषाई विशेषज्ञता; प्रशिक्षण और सहायता प्रदान की गई
मॉडरेटर की भर्ती एक मानक नौकरी विवरण के आधार पर की जाती है जिसमें भाषा संबंधी आवश्यकता (आवश्यकता के आधार पर) शामिल होती है। भाषा आवश्यकता के अनुसार उम्मीदवार भाषा में लिखित और बोले जाने वाले प्रवाह को प्रदर्शित करने में सक्षम होना चाहिए और, एंट्री-लेवल की पदों के लिए, उम्मीदवारों के पास कम से कम एक साल का कार्य अनुभव होना चाहिए। उम्मीदवारों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके उम्मीदवारी पर विचार किया जा सकें। उम्मीदवारों को उस देश या क्षेत्र की वर्तमान घटनाओं की समझ भी प्रदर्शित करनी होगी, जहां के कंटेट मॉडरेशन को वे सपोर्ट करेंगे।
Snap द्वारा कंटेंट मॉडरेटर को दिए जाने वाले प्रशिक्षण और सहायता का विवरण ऊपर दिया गया है। यह DSA अनुच्छेद 15(1)(सी) के तहत अलग से आवश्यक है और इसलिए इसे धारा 3(बी) के अंतिम उपखंड में शामिल किया गया है, जिसका शीर्षक हैं: “, "कंटेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम।”
रिलीज़ की तारीख: 31 जनवरी 2025
अंतिम अपडेट: 31 जनवरी 2025
यह रिपोर्ट 1 जनवरी 2024 से 31 दिसंबर 2024 तक की अवधि को कवर करती है।
बैकग्राउंड
हमारे समुदाय के किसी भी सदस्य, विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफ़ॉर्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।
जिन तकनीकों का हम इस्तेमाल करते हैं उनमें शामिल हैं (a) PhotoDNA रोबस्ट हैश-मैचिंग और Google की चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच, ताकि CSEA की ज्ञात अवैध इमेजरी और वीडियो की पहचान की जा सके; और (b) Google की कंटेंट सेफ्टी API, ताकि नई "नेवर-बीफ़ोर-हैश्ड" CSEA इमेजरी की पहचान की जा सके। हम कानून के अनुसार, CSEA इमेजरी की रिपोर्ट U.S. के गुमशुदा और शोषित बच्चों के राष्ट्रीय केंद्र (NCMEC) को देते हैं। बदले में, NCMEC आवश्यकता के अनुसार U.S. और अन्य देशों में कानून प्रवर्तन एजेंसियों के साथ समन्वय करता है।
रिपोर्ट
नीचे दिए गए चार्ट में 2024 के दौरान CSEA इमेजरी के लिए EU यूज़र्स के संबंध में सक्रिय पहचान और परिणामी प्रवर्तन के बारे में डेटा शामिल है। (ध्यान दें कि, 2024 में उक्त सक्रिय स्कैनिंग के परिणामस्वरूप किए गए कुछ प्रवर्तन, इस रिपोर्ट के संकलन के समय तक भी अपील के अधीन हो सकते हैं और इसलिए नीचे दिए गए अपील और बहाली के डेटा में शामिल नहीं हो सकते।)
*यह श्रेणी बाल यौन शोषण को प्रतिबंधित करने वाले Snap के कम्युनिटी दिशानिर्देश के उल्लंघन से संबंधित प्रवर्तन की रिपोर्ट प्रदान करती है। Snap के कम्युनिटी दिशानिर्देश के अन्य उल्लंघनों के तहत सक्रिय रूप से पहचाना गया कंटेंट यहां रिपोर्ट नहीं किया गया है।
**किसी प्रवर्तन को तब पलटा जा सकता है जब यह निर्धारित किया जाए कि प्रवर्तन के समय हमारी नीतियों के आधार पर यह गलत था, या यदि यह सही रूप से लागू किया गया था लेकिन अपील की समीक्षा के समय हमारी लागू नीति में बदलाव हो गया है।
कंटेंट मॉडरेशन सुरक्षा उपाय
CSEA मीडिया स्कैनिंग के लिए लागू सुरक्षा उपाय उपरोक्त EU DSA पारदर्शिता रिपोर्ट में निर्दिष्ट किए गए हैं।
प्रकाशित: 28 फरवरी 2025
आखिरी अपडेट: 28 फरवरी 2025
रिपोर्टिंग साइकिल: 1 जनवरी 2024 - 31 दिसंबर 2024
यह पारदर्शिता रिपोर्ट यूरोपीय संसद और यूरोपीय परिषद के विनियम 2021/784 के अनुच्छेद 7(2) और 7(3) के अनुसार प्रकाशित की गई है, जो आतंकवादी कंटेंट के ऑनलाइन प्रसारण को संबोधित करते हैं (विनियम)। इसमें 1 जनवरी से 31 दिसंबर, 2024 तक की रिपोर्टिंग अवधि शामिल है।
अनुच्छेद 7(3)(क): आतंकवादी कंटेंट की पहचान और उसे हटाने या उस तक पहुँच को अक्षम करने के संबंध में सेवा प्रदाता के उपायों के बारे में जानकारी।
अनुच्छेद 7(3)(बी): आतंकवादी कंटेंट माने जाने के कारण पहले हटाई गई या उस तक पहुँच अक्षम की गई कंटेंट के फिर से ऑनलाइन प्रकट होने को संबोधित करने के लिए सेवा प्रदाता के उपायों के बारे में जानकारी, खासकर जहाँ स्वचालित टूल्स का उपयोग किया गया है।
Snapchat पर आतंकवादी कंटेंट की बहुत कम घटनाएं हैं, और 2024 में विनियमन के तहत उसे हटाने का आदेश नहीं मिला है।
आतंकवादियों, आतंकवादी संगठनों और हिंसक चरमपंथियों के Snapchat का उपयोग करने पर प्रतिबंध है। आतंकवाद या अन्य हिंसक, आपराधिक कार्यों का समर्थन, प्रचार, महिमामंडन करने या उन्हें बढ़ावा देने वाला कंटेंट हमारे कम्युनिटी दिशानिर्देशों के तहत प्रतिबंधित है। यूज़र हमारे ऐप में रिपोर्टिंग मेन्यू और हमारी सपोर्ट वेबसाइट के ज़रिए हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करने वाले कंटेंट की रिपोर्ट कर सकते हैं। हम स्पॉटलाइट और डिस्कवर जैसी सार्वजनिक सतहों पर उल्लंघनकारी कंटेंट की पहचान के प्रयास के लिए भी अग्रसक्रिय पहचान का उपयोग करते हैं।
चाहे हमें उल्लंघनकारी सामग्री के बारे में कैसे भी पता चले, हमारी सुरक्षा टीमें स्वचालन और मानवीय नियंत्रण के संयोजन के माध्यम से, पहचानी गई सामग्री की तुरंत समीक्षा करती हैं और प्रवर्तन संबंधी निर्णय लेती हैं। प्रवर्तन में कंटेंट को हटाना, चेतावनी देना या उल्लंघनकारी अकाउंट को लॉक करना और, यदि आवश्यक हुआ, तो कानून प्रवर्तन को उस अकाउंट की रिपोर्ट करना शामिल है। Snapchat पर आतंकवादी या अन्य हिंसक चरमपंथी कंटेंट को फिर से प्रकट होने से रोकने के लिए, कानून प्रवर्तन के साथ काम करने के अलावा, हम उल्लंघनकारी अकाउंट से जुड़े डिवाइस को ब्लॉक करने और यूज़र को दूसरा Snapchat अकाउंट बनाने से रोकने के लिए कदम उठाते हैं।
आतंकवादी कॉन्टेंट की पहचान करने और हटाने के लिए हमारे उपायों के बारे में अतिरिक्त विवरण हमारे नफ़रती कंटेंट, आतंकवाद तथा हिंसक चरमपंथ पर एक्सप्लेनर और हमारे मॉडरेशन, प्रवर्तन तथा अपीलों पर एक्सप्लेनर में देखा जा सकता है। .
अनुच्छेद 7(3)(सी): हटाए गए आतंकवादी कंटेंट या हटाने के आदेश अथवा विशिष्ट उपायों के बाद जिनकी पहुँच अक्षम की गई, उनकी संख्या और हटाने के ऐसे आदेशों की संख्या जहाँ अनुच्छेद 3(7) और अनुच्छेद 3(8) के पहले उपअनुच्छेद के अनुपालन में कंटेंट हटाया नहीं गया है या उसकी पहुँच अक्षम नहीं की गई है, उनके आधारों के साथ
रिपोर्टिंग अवधि के दौरान, Snap को हटाने के कोई आदेश प्राप्त नहीं हुए, न ही हमारे लिए विनियम के अनुच्छेद 5 के अनुपालन में किन्हीं विशिष्ट उपायों को लागू करने की आवश्यकता थी। तदनुसार, हमें विनियमन के तहत प्रवर्तन कार्रवाई करने की आवश्यकता नहीं थी।
निम्नलिखित तालिका में उपयोगकर्ता रिपोर्ट और सक्रिय पहचान के आधार पर की गई प्रवर्तन कारवाईयों का वर्णन किया गया है, जो यूरोपीय संघ और दुनिया भर में अन्यत्र ऐसे कंटेंट और अकाउंट के विरूद्ध है, जिन्होंने आंतकवाद एवं हिंसक उग्रवाद कंटेंट से संबंधित हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन किया हैं।
अनुच्छेद 7(3)(डी): अनुच्छेद 10 के अनुपालन में होस्टिंग कंपनी द्वारा संबोधित शिकायतों की मात्रा और समाधान
अनुच्छेद 7(3)(जी): ऐसे उदाहरणों की संख्या जहां होस्टिंग सेवा प्रदाता ने सामग्री प्रदाता द्वारा शिकायत दर्ज करने के बाद पहुंच या सामग्री बहाल की
जैसा कि पहले कहा गया था, हमने विनियमन के अनुच्छेद 10 के अनुसार किसी शिकायत का निपटारा नहीं किया और रिपोर्टिंग अवधि के दौरान कोई संबंधित बहाली नहीं की, क्योंकि हम विनियमन के तहत कोई प्रवर्तन कदम उठाने के लिए बाध्य नहीं थे।
यूरोपीय संघ और अंतरराष्ट्रीय स्तर पर, हमारे सामुदायिक दिशानिर्देशों के तहत लागू आतंकवादी और हिंसक चरमपंथी सामग्री के संबंध में अपील और बहाली के बारे में जानकारी निम्नलिखित तालिका में शामिल है।
अनुच्छेद 7(3)(ई): होस्टिंग सेवा प्रदाता द्वारा शुरू की गई प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों की संख्या और परिणाम
अनुच्छेद 7(3)(एफ): ऐसे मामलों की संख्या जिनमें होस्टिंग सेवा प्रदाता के लिए प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों के परिणामस्वरूप सामग्री को बहाल करना या उसकी ऐक्सेस देना आवश्यक था।
चूंकि रिपोर्टिंग अवधि के दौरान विनियमन के तहत हमारे पास कोई प्रवर्तन कार्रवाई आवश्यक नहीं थी, जैसा कि ऊपर उल्लेख किया गया है, हमारे पास कोई संबद्ध प्रशासनिक या न्यायिक समीक्षा कार्यवाही नहीं थी, और हमें ऐसी किसी भी कार्यवाही के परिणामस्वरूप सामग्री को बहाल करने की आवश्यकता नहीं थी।
यह रिपोर्ट विनियमन (EU) 2022/2065 के अनुच्छेद 34 और 35 के तहत Snap के दायित्वों का पालन करने के लिए तैयार की गई है और Snapchat के ऑनलाइन प्लैटफ़ॉर्म के डिज़ाइन, कार्य और उपयोग से उत्पन्न सिस्टम संबंधी जोखिमों के हमारे मूल्यांकन के परिणाम प्रदान करती है, साथ ही उन जोखिमों का मूल्यांकन करने के लिए इस्तेमाल किए जाने वाले तरीकों और उन जोखिमों को दूर करने के लिए किए गए शमन उपायों की जानकारी भी देती है।
DSA जोखिम और शमन मूल्यांकन रिपोर्ट | Snapchat | अगस्त 2023 (PDF)
ये रिपोर्ट्स विनियमन (EU) 2022/2065 के अनुच्छेद 37 के तहत Snap के दायित्वों का अनुपालन करने के लिए तैयार की गई हैं और निम्नलिखित प्रदान करती हैं: (i) विनियमन (EU) 2022/2065 के अध्याय III में निर्धारित दायित्वों के साथ Snap के अनुपालन के स्वतंत्र ऑडिट के परिणाम और (ii) उस स्वतंत्र ऑडिट से परिचालन सुझावों को लागू करने के लिए उठाए गए कदम।
DSA स्वतंत्र ऑडिट रिपोर्ट | Snapchat | अगस्त 2024 (PDF)
DSA ऑडिट कार्यान्वयन रिपोर्ट | Snapchat | सितंबर 2024 (PDF)
EU VSP आचरण संहिता
अनुच्छेद 1(1) (aa) AVMSD के अनुसार Snap एक "वीडियो शेयरिंग प्लेटफ़ॉर्म सर्विस ("VSP") प्रदाता है। यह आचरण संहिता (“कोड”) यह वर्णन करने के लिए तैयार की गई है कि Snap डच मीडिया अधिनियम ("DMA") और निर्देश (EU) 2010/13 (निर्देश (EU) 2018/1808 ("ऑडियो-विजुअल सेवा निर्देश" या "AVMSD") द्वारा संशोधित) के अंतर्गत VSP के रूप में अपने कर्तव्यों का निर्वहन कैसे करता है। यह संहिता संपूर्ण यूरोपीयन यूनियन के साथ-साथ यूरोपियन आर्थिक क्षेत्र में भी लागू है।
EU VSP आचार संहिता | Snapchat | मार्च 2025 (PDF)
बल्गेरियाई | क्रोएशियाई | चेक | डेनिशडच | एस्टोनियाई | फिनिश | फ्रेंच | जर्मन | ग्रीक | हंगेरियन | आयरिश | इटैलियन | लातवियाई | लिथुआनियाई | माल्टीज़ | पोलिश | पुर्तगाली | रोमानियाई | स्लोवाक | स्लोवेनियाई | स्पैनिश | स्वीडिश