Privacy, Safety, and Policy Hub
यूरोपीयन यूनियन
1 जनवरी, 2024 - 30 जून, 2024

जारी की गई:

25 अक्टूबर, 2024

अपडेट की गई:

17 दिसंबर, 2024

हमारे यूरोपीय यूनियन (EU) पारदर्शिता पेज में आपका स्वागत है, जहां हम डिजिटल सेवा अधिनियम (DSA), ऑडियोविजुअल मीडिया सेवा डायरेक्टिव (AVMSD), डच मीडिया अधिनियम (DMA), और आतंकवादी कंटेंट ऑनलाइन विनियमन (TCO) द्वारा आवश्यक EU विशिष्ट जानकारी प्रकाशित करते हैं। कृपया ध्यान दें कि इस पारदर्शिता रिपोर्ट का सबसे अप-टू-डेट संस्करण यूएस-अंग्रेजी में देखा जा सकता है।

कानूनी प्रतिनिधि 

Snap Group Limited ने Snap B.V. को DSA के उद्देश्यों के लिए अपना कानूनी प्रतिनिधि नियुक्त किया है। आप हमारी सपोर्ट साइट [यहाँ] के माध्यम से, या निम्नलिखित पर, DSA के लिए dsa-enquiries [at] snapchat.com पर, AVMSD और DMA के लिए vsp-enquiries [at] snapchat.com पर, TCO के लिए tco-enquiries [at] snapchat.com पर, प्रतिनिधि से संपर्क कर सकते हैं:

Snap B.V.
Keizersgracht 165, 1016 DP
ऐम्स्टरडैम, नीदरलैंड्स

यदि आप एक कानून प्रवर्तन एजेंसी हैं, तो यहां दिए गए चरणों को फ़ॉलो करें।

कृपया हमसे संपर्क करते समय अंग्रेजी या डच में बात करें।

नियामक प्राधिकरण

DSA के लिए, हमें यूरोपियन कमीशन, और नीदरलैंड्स उपभोक्ता एवं बाजार प्राधिकार (ACM) द्वारा विनियमित किया जाता है। AVMSD और DMA के लिए, हमें डच मीडिया प्राधिकार (CvdM) द्वारा विनियमित किया जाता है। TCO के लिए, ऑनलाइन आतंकवादी कंटेंट और बाल यौन दुरुपयोग सामग्री (ATKM) की रोकथाम के लिए हमें नीदरलैंड्स प्राधिकार द्वारा विनियमित किया जाता है।

DSA पारदर्शिता रिपोर्ट

अंतिम अपडेट: 25 अक्टूबर, 2024

यूरोपीय संघ (EU) के डिजिटल सेवा अधिनियम (विनियमन (EU) 2022/2065) ("DSA") के अनुच्छेद 15, 24 और 42 में उल्लिखित पारदर्शिता रिपोर्टिंग आवश्यकताओं के अनुपालन में, हम Snapchat पर हमारी सामग्री मॉडरेशन गतिविधियों के बारे में यह रिपोर्ट जारी करते हैं। इस रिपोर्ट में डेटा, जब तक कि अन्यथा इंगित न किया गया हो, Snapchat की DSA-विनियमित सुविधाओं पर सामग्री मॉडरेशन को कवर करता है और 1 जनवरी, 2024 से 30 जून, 2024 (H1 2024) तक की रिपोर्टिंग अवधि को कवर करता है।

हम अपनी रिपोर्टिंग को बेहतर बनाने के लिए निरंतर प्रयास करते रहते हैं। हमारी सामग्री मॉडरेशन गतिविधियों के बारे में अधिक जानकारी देने के लिए, हमने इस रिपोर्टिंग अवधि (H1 2024) के लिए रिपोर्ट के प्रारूप को नई, अधिक विशिष्ट तालिकाओं के साथ अपडेट किया है।

औसत मासिक सक्रिय प्राप्तकर्ता
(DSA अनुच्छेद 24.2 और 42.3)


1 अक्टूबर, 2024 तक, यूरोपीय संघ में हमारे Snapchat ऐप के 92.9 मिलियन औसत मासिक सक्रिय प्राप्तकर्ता ("AMAR") हैं। यह दर्शाता है कि यूरोपीय संघ में 92.9 मिलियन पंजीकृत उपयोगकर्ताओं ने 30 सितंबर, 2024 को समाप्त होने वाले छह महीनों में औसतन किसी दिए गए महीने में कम से कम एक बार Snapchat ऐप खोला है।

सदस्य राज्य द्वारा पेश किए गए इस आंकडे़ का विश्लेषण नीचे दिया गया है:

इन आंकड़ों की गणना वर्तमान DSA आवश्यकताओं को पूरा करने के लिए की गई थी और केवल DSA के उद्देश्यों के लिए ही उन पर निर्भर किया जाना चाहिए। हमने समय के साथ आंतरिक नीति, नियामक मार्गदर्शन और प्रौद्योगिकी में बदलाव को मद्देनज़र रखते हुए इस आंकड़े की गणना करने के तरीके को बदल दिया है और आंकड़ों का इस्तेमाल अवधि के बीच तुलना करने के लिए नहीं किया जाना चाहिए। यह उन अन्य सक्रिय यूज़र्स की गणनाओं से भी अलग हो सकता है जो हम अन्य उद्देश्यों के लिए प्रकाशित करते हैं।

2. सदस्य राज्य प्राधिकरण के अनुरोध
(DSA अनुच्छेद 15.1(क))
a) अवैध सामग्री के विरुद्ध कार्रवाई करने के आदेश


इस रिपोर्टिंग अवधि (H1 2024) के दौरान, हमें यूरोपीय संघ के सदस्य देशों के अधिकारियों की ओर से विशिष्ट रूप से पहचाने गए अवैध कॉन्टेंट के हिस्सों के खिलाफ कार्रवाई करने के लिए शून्य (0) आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 9 के अनुसार जारी किए गए आदेश शामिल हैं। 

चूँकि यह संख्या शून्य (0) है, इसलिए हम संबंधित अवैध कॉन्टेंट के प्रकार या आदेश जारी करने वाले सदस्य राज्य का विवरण, अथवा प्राप्ति स्वीकृति देने या आदेश पर अमल करने का माध्य समय नहीं प्रदान कर सकते हैं।

b) जानकारी प्रदान करने के आदेश 


इस रिपोर्टिंग अवधि (H! 2024) के दौरान, हमें यूरोपीय संघ के सदस्य राज्यों के अधिकारियों की ओर से यूज़र डेटा के खुलासे के लिए निम्नलिखित आदेश प्राप्त हुए, जिसमें DSA अनुच्छेद 10 के अनुसार जारी किए गए आदेश शामिल हैं:


जानकारी प्रदान करने के इन आदेशों की प्राप्ति स्वीकृति के बारे में संबंधित अधिकारियों को सूचित करने का मध्यमान समय 0 मिनट था — हम प्राप्ति की पुष्टि करने का स्वचालित उत्तर प्रदान करते हैं। 

जानकारी प्रदान करने के इन आदेशों पर अमल करने का मध्यमान समय ~7 दिन था। यह मीट्रिक Snap को कोई ऑर्डर प्राप्त होने से लेकर Snap द्वारा इस मामले को पूरी तरह सुलझाया हुआ मान लिए जाने तक की समय अवधि को दर्शाता है, जिसमें अलग-अलग मामले आंशिक रूप से इस पर निर्भर कर सकते हैं कि ऑर्डर को संसाधित करने के लिए Snap द्वारा किसी स्पष्टीकरण के अनुरोध पर सदस्य राज्य के प्राधिकार द्वारा कितनी गति से उत्तर दिया जाता है।

ध्यान दें, जानकारी प्रदान करने के उपरोक्त आदेशों के बारे में संबंधित अवैध कॉन्टेंट के प्रकार के अनुसार वर्गीकृत विवरण प्रदान नहीं करते क्योंकि यह जानकारी आम तौर पर हमें उपलब्ध नहीं होती है।

3. कॉन्टेंट मॉडरेशन 


Snapchat पर समस्त कॉन्टेंट को हमारे कम्युनिटी दिशानिर्देशों और सेवा की शर्तों का पालन करना होगा। कुछ कॉन्टेंट को अतिरिक्त दिशानिर्देशों और नीतियों का पालन भी करना होगा। उदाहरण के लिए, हमारे सार्वजनिक प्रसारण माध्यमों पर व्यापक ऑडियंस को अलगोरिद्म-आधारित अनुशंसा के लिए सबमिट किए गए कॉन्टेंट को हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देश में दिए गए अतिरिक्त, उच्चतर मानकों के अनुरूप होना चाहिए, जबकि विज्ञापनों को हमारी विज्ञापन नीतियों का पालन करना चाहिए।

हम तकनीक और मानव समीक्षा का उपयोग करके इन नीतियों को प्रवर्तित करते हैं। हम Snapchat करने वालों को सीधे ऐप में या हमारी वेबसाइट के माध्यम से अवैध कॉन्टेंट और गतिविधियों सहित उल्लंघनों की रिपोर्ट करने के उपाय प्रदान करते हैं। अग्रसक्रिय जांच तंत्र और रिपोर्टों के आधार पर समीक्षा की जाती है, जो फिर हमारी नीतियों के अनुसार उचित कार्रवाई करने के लिए स्वचालित टूल्स और मानव मॉडरेटर के मिले-जुले तरीकों का उपयोग करती है।

हम H1 2024 में हमारे सार्वजनिक माध्यमों पर हमारे कॉन्टेंट मॉडरेशन के बारे में नीचे और जानकारी प्रदान कर रहे हैं।

a) DSA अनुच्छेद 16 के अनुसार सबमिट किए गए नोटिस 
(DSA अनुच्छेद 15.1 (बी)

DSA अनुच्छेद 16 के अनुसार, Snap ने ऐसे उपाय लागू किए हैं जिनसे यूज़र और गैर-यूज़र Snapchat पर ऐसी सूचनाओं के विशिष्ट मदों की मौजूदगी के बारे में Snap को सूचित कर सकते हैं जिन्हें वे अवैध कॉन्टेंट मानते हैं। वे सीधे Snapchat ऐप में या हमारी वेबसाइट पर कॉन्टेंट के विशिष्ट हिस्सों या अकाउंट्स की रिपोर्ट करके ऐसा कर सकते हैं। 

रिपोर्टिंग अवधि (H1 2024) के दौरान, हमें यूरोपीय संघ में DSA अनुच्छेद 16 के अनुसार सबमिट की गई निम्नलिखित नोटिस प्राप्त हुईं:


हम नीचे इन नोटिसों के निपटान के तरीके का सारांश प्रस्तुत कर रहे हैं, जिसमें यह दर्शाया गया है कि क्या उनका निपटान पूरी तरह से स्वचालित तरीके से किया गया या ऐसी प्रक्रिया के माध्यम से किया गया जिसमें मानवीय समीक्षा शामिल थी:

ऐप में या हमारी वेबसाइट के माध्यम से नोटिस सबमिट करते समय, रिपोर्टर रिपोर्ट करने का कोई विशिष्ट कारण विकल्पों के एक मेन्यू से चुन सकते हैं जो हमारे कम्युनिटी दिशानिर्देश में सूचीबद्ध उल्लंघनों की श्रेणियों को परिलक्षित करते हैं (जैसे, नफ़रती भाषण, नशीली दवाओं का उपयोग या बिक्री)। हमारे कम्युनिटी दिशानिर्देश उन कॉन्टेंट और गतिविधियों को प्रतिबंधित करते हैं जो यूरोपीय संघ में गैर-कानूनी हैं, इसलिए रिपोर्टिंग के हमारे कारण काफी हद तक यूरोपीय संघ में अवैध कॉन्टेंट की विशिष्ट श्रेणियों को दर्शाते हैं। हालांकि, जिस हद तक यूरोपीय संघ में किसी रिपोर्टर का मानना है कि वे जिस कॉन्टेंट या अकाउंट को रिपोर्ट कर रहे हैं वह ऐसे कारणों से गैरकानूनी है जो हमारे रिपोर्टिंग मेन्यू में विशिष्ट रूप से संदर्भित नहीं किए गए हैं, उस हद तक वे “अन्य गैरकानूनी कॉन्टेंट” के तौर पर इसकी रिपोर्ट कर सकते हैं और उन्हें यह बताने का अवसर दिया जाता है कि वे ऐसा क्यों मानते हैं कि वे जिसकी रिपोर्ट कर रहे हैं वह गैरकानूनी है। 

यदि, समीक्षा करने पर, हम तय करते हैं कि रिपोर्ट किए गए कॉन्टेंट या अकाउंट हमारे कम्युनिटी दिशानिर्देशों (अवैधता के कारणों सहित) का उल्लंघन करते हैं, तो हम (i) आपत्तिजनक कॉन्टेंट को हटा सकते हैं, (ii) संबंधित अकाउंट धारक को चेतावनी दे सकते हैं और उस अकाउंट पर एक स्ट्राइक लगा सकते हैं, और / या (iii) संबंधित अकाउंट को लॉक कर सकते हैं, जैसाकि हमारे Snapchat मॉडरेशन, एनफ़ोर्समेंट और अपील्स एक्सप्लेनर में समझाया गया है। 

H1 2004 में हमने यूरोपीय संघ में DSA अनुच्छेद 16 के अनुसार सबमिट की गईं नोटिस प्राप्त होने पर निम्नलिखित प्रवर्तन कार्रवाइयाँ कीं:

H1 2024 में, हमने "अन्य अवैध कॉन्टेंट” के बारे में जिन रिपोर्टों पर कार्रवाई की, उन सभी को अंततः हमारे कम्युनिटी दिशानिर्देशों के तहत प्रवर्तित किया गया क्योंकि हमारे कम्युनिटी दिशानिर्देश संबंधित कॉन्टेंट या गतिविधि को प्रतिबंधित करते हैं। इस प्रकार हमने उपरोक्त तालिका में कम्युनिटी दिशानिर्देशों के उल्लंघन की प्रासंगिक श्रेणी के तहत इन प्रवर्तनों को वर्गीकृत किया।

उपरोक्त प्रवर्तनों के अलावा, हम अन्य Snap नीतियों और दिशानिर्देशों के अनुसार हमें सूचित किए गए कॉन्टेंट पर कार्रवाई कर सकते हैं: 

  • हमारी सार्वजनिक प्रसारण सतहों पर कॉन्टेंट के संबंध में, यदि हम यह निर्धारित करते हैं कि रिपोर्ट किया गया कॉन्टेंट हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देश के उच्चतर मानकों को पूरा नहीं करता है, तो हम एल्गोरिद्म अनुशंसा के लिए उस कॉन्टेंट को खारिज कर सकते हैं (यदि कॉन्टेंट हमारे पात्रता मानदंडों को पूरा नहीं करता है), या हम संवेदनशील ऑडियंस को बाहर रखने के लिए कॉन्टेंट के वितरण को सीमित कर सकते हैं (यदि कॉन्टेंट अनुशंसा के लिए हमारे पात्रता मानदंडों को पूरा करता है लेकिन अन्य प्रकार से संवेदनशील या उद्दीपक है)।  

H1 2024 में, हमने हमारे अनुशंसा पात्रता के लिए कॉन्टेंट दिशानिर्देशों के अनुसार यूरोपीयन यूनियन में Snapchat की सार्वजनिक प्रसारण सतहों पर रिपोर्ट किए गए कॉन्टेंट के संबंध में निम्नलिखित कार्रवाइयाँ कीं:

  • मूल्यांकन के बाद, यदि हमें पता चले कि कोई विज्ञापन हमारी विज्ञापन नीतियों का उल्लंघन करता है, तो हम उसे हटा सकते हैं।



H1 2024 में, हमने EU में हमें रिपोर्ट किए गए विज्ञापनों के संबंध में निम्नलिखित कार्रवाई की:


b) Snap की अपनी पहल पर किए गए कॉन्टेंट मॉडरेशन 
(अनुच्छेद 15.1 (सी))


DSA अनुच्छेद 16 के अनुसार सबमिट की गई नोटिस की समीक्षा करने के अलावा, Snap अपनी पहल पर Snapchat की सार्वजनिक सतहों (जैसे स्पॉटलाइट, डिस्कवर) पर कॉन्टेंट को मॉडरेट करता है। नीचे हम Snap की अपनी पहल पर किए गए कॉन्टेंट मॉडरेशन के बारे में जानकारी दे रहे हैं, जिसमें स्वचालित टूल्स के इस्तेमाल, कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए किए गए उपाय और मॉडरेशन के इन अग्रसक्रिय प्रयासों के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार शामिल है।


  • Snap की अपनी पहल पर किए गए मॉडरेशन में स्वचालित टूल्स का उपयोग


हम अपनी सार्वजनिक कॉन्टेंट सतहों पर हमारी शर्तों और नीतियों के उल्लंघन का अग्रसंक्रिया रूप से पता लगाने और, कुछ मामलों में, प्रवर्तन करने के लिए स्वचालित टूल्स को लागू करते हैं। इसमें हैश-मैचिंग टूल (जैसे PhotoDNA और Google CSAI Match) और दुर्व्यवहारयुक्त भाषा पहचान मॉडल (जो नियमित आधार पर अपडेट किए जाने वाले अपमानजनक वाक्यांशों और इमोजी की सूची के आधार पर कॉन्टेंट की पहचान करते हैं और उसे अस्वीकार करते हैं) और कृत्रिम बुद्धिमत्ता / मशीन लर्निंग प्रौद्योगिकियाँ शामिल हैं। हमारी स्वचालित प्रणालियाँ हमारे सामुदायिक दिशानिर्देशों (जो अन्य बातों के अलावा, गैरकानूनी सामग्री पर रोक लगाते हैं) के उल्लंघनों की पहचान करने के लिए बनाई गई हैं, और यदि प्रासंगिक हो, तो अनुशंसा पात्रता के लिए हमारी विज्ञापन नीतियों और सामग्री दिशानिर्देशों की भी पहचान करती हैं।


H1 2024 में, हमारा समस्त अग्रसक्रिय रूप से पता लगाने का काम स्वचालित टूल्स के उपयोग से किया गया। जब हमारे स्वचालित उपकरण हमारी नीतियों के किसी संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या वे मानवीय समीक्षा के लिए एक कार्यभार बनाते हैं। इस प्रक्रिया के परिणामस्वरूप लगाए गए प्रतिबंधों की संख्या और प्रकार का नीचे वर्णन किया गया है। 


  • Snap की अपनी पहल पर लगाए गए प्रतिबंधों की संख्या और प्रकार


H1 2024 में, Snap ने स्वचालित टूल्स के उपयोग के माध्यम से अग्रसंक्रिया से हमारे कम्युनिटी दिशानिर्देशों के उल्लंघन (जिनमें यूरोपीय यूनियन और सदस्य राज्यों में अवैध कॉन्टेंट तथा गतिविधियों से संबंधित उल्लंघन शामिल हैं) का पता लगाने के बाद निम्नलिखित प्रवर्तन कार्रवाइयाँ कीं:

इसके अलावा, H1 2024 में, हमने स्वचालित तकनीकों के माध्यम से Snapchat पर सक्रिय रूप से पहचान करने के बाद, अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों के उल्लंघन के बाद हमारी सार्वजनिक प्रसारण सतहों पर सामग्री के संबंध में निम्नलिखित उपायों को लागू किया:

* जो खाते लगातार या स्पष्ट रूप से अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों का उल्लंघन करते हैं, उन्हें हमारी सार्वजनिक प्रसारण सतहों पर अनुशंसाओं से अस्थायी या स्थायी रूप से अयोग्य घोषित किया जा सकता है, जैसा कि अनुशंसा पात्रता के लिए हमारी सामग्री दिशानिर्देशों में निर्दिष्ट है। हम इस क्रिया को अपने सक्रिय मॉडरेशन प्रयासों के संदर्भ में लागू करते हैं।

इसके अलावा, स्वचालित तरीकों का उपयोग करके Snapchat पर हमारी विज्ञापन नीतियों के उल्लंघन की सक्रिय रूप से पहचान करने के बाद, हमने H1 2024 में निम्नलिखित कार्रवाई की:

  • कॉन्टेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम


हमारी कॉन्टेंट मॉडरेशन टीमें हमारे Snapchap समुदाय को सुरक्षित रखने के लिए हमारी कॉन्टेंट मॉडरेशन नीतियों को लागू करती हैं। उन्हें कई-सप्ताह की अवधि के दौरान प्रशिक्षण दिया जाता है, जिसमें टीम के नए सदस्यों को Snap की नीतियों, टूल्स और एस्केलेशन की प्रक्रियाओं के बारे में बताया जाता है। हमारी मॉडरेशन टीमें नियमित रूप से अपने वर्कफ्लो के लिए प्रासंगिक रिफ्रेशर प्रशिक्षण में भाग लेती हैं, खासकर तब जब हमारे सामने नीति की सीमारेखा से जुड़े और संदर्भ पर निर्भर मामले आते हैं। यह सुनिश्चित करने के लिए कि सभी मॉडरेटर नवीनतम नीतियों से अवगत हैं और उनका अनुपालन करते हैं, हम कौशलवृद्धि कार्यक्रमों, प्रमाणीकरण सत्रों और क्विज का आयोजन भी करते हैं। अंत में, जब वर्तमान घटनाओं के आधार पर महत्वपूर्ण कंटेंट ट्रेंड्स पेश आते हैं, तो हम तुरंत नीति स्पष्टीकरण प्रचारित करते हैं ताकि टीमें Snap की नीतियों के अनुसार कार्य कर सकें।


हम अपनी कॉन्टेंट मॉडरेशन टीमों को महत्वपूर्ण समर्थन और संसाधन प्रदान करते हैं, जिसमें काम के दौरान कुशलता सहायता और मानसिक स्वास्थ्य सेवाओं तक आसान पहुंच शामिल है। 

c) Snap की शिकायतों (जैसे अपीलों) को संभालने वाली आंतरिक प्रणालियों के माध्यम से मिली शिकायतें 
(अनुच्छेद 15.1(डी))


ऐसे यूज़र जिनके अकाउंट हमारी सुरक्षा टीमों द्वारा कम्युनिटी दिशानिर्देश के उल्लंघन (जिसमें अवैध कॉन्टेंट और गतिविधियों के कारण शामिल हैं) के कारण लॉक किए गए हैं, वे लॉक्ड अकाउंट अपील सबमिट कर सकते हैं। यूज़र कॉन्टेंट मॉडरेशन के कुछ उपायों की भी अपील कर सकते हैं।

रिपोर्टिंग अवधि (H1 2024) के दौरान, Snap ने यूरोपीयन यूनियन में शिकायतों को संभालने वाली इसकी आंतरिक प्रणालियों के माध्यम से सबमिट की गई निम्नलिखित अपीलों (जिनमें अकाउंट लॉक तथा कॉन्टेंट-स्तरीय मॉडरेशन दोनों के विरुद्ध अपीलें शामिल हैं) को संसाधित किया:

डी) स्वचालित तरीकों के उपयोग के माध्यम से सामग्री मॉडरेशन
(अनुच्छेद 15.1 (ई) और 42.2 (सी)

  • गुणात्मक विवरण और उद्देश्य


हम स्वचालित तकनीकों का उपयोग करके सक्रिय रूप से पहचान करते हैं और, कुछ स्थितियों में, हमारी सार्वजनिक सामग्री सतहों पर हमारे नियमों और शर्तों के उल्लंघन को लागू करते हैं, जैसा कि पहले अनुभाग 3 (बी) में उल्लेख किया गया है। इसमें कृत्रिम बुद्धिमत्ता/मशीन लर्निंग प्रौद्योगिकियां, हैश-मैचिंग टूल (जैसे Google CSAI मैच और PhotoDNA) और दुर्व्यवहार भाषा पहचान मॉडल (जो नियमित आधार पर अपडेट किए जाने वाले अपमानजनक वाक्यांशों और इमोजी की सूची के आधार पर सामग्री की पहचान करते हैं और उसे अस्वीकार करते हैं) शामिल हैं। हमारी स्वचालित प्रणालियाँ हमारे सामुदायिक दिशानिर्देशों (जो अन्य बातों के अलावा, गैरकानूनी सामग्री पर रोक लगाते हैं) के उल्लंघनों की पहचान करने के लिए बनाई गई हैं, और यदि प्रासंगिक हो, तो अनुशंसा पात्रता के लिए हमारी विज्ञापन नीतियों और सामग्री दिशानिर्देशों की भी पहचान करती हैं।

जब हमारे स्वचालित उपकरण हमारी नीतियों के संभावित उल्लंघन का पता लगाते हैं, तो वे या तो स्वचालित रूप से हमारी नीतियों के अनुसार कार्रवाई करते हैं, या मानवीय समीक्षा के लिए कार्य बनाते हैं।

  • सटीकता के संकेतक और त्रुटि की संभावित दर, सदस्य राज्य द्वारा विभाजित


हमारे सार्वजनिक सतहों पर हमारे स्वचालित उपकरणों द्वारा पूर्ण किए गए कार्यों के मनमाने नमूनों को चुनकर और उन्हें हमारी मानव मॉडरेशन टीमों द्वारा पुनः जांच के लिए भेजकर, हम अपने स्वचालित मॉडरेशन उपकरणों की सटीकता पर नजर रखते हैं। इन यादृच्छिक नमूनों से कार्यों का वह अनुपात जिसे हमारे मानव मॉडरेटर्स ने पुनः परीक्षण के बाद बरकरार रखा, सटीकता दर के रूप में जाना जाता है। 100% और पहले बताई गई सटीकता दर के बीच के अंतर को त्रुटि दर के रूप में जाना जाता है।

नमूने के आधार पर, H1 2024 की पहली छमाही में उल्लंघनों की सभी श्रेणियों में उपयोग किए गए स्वचालित साधनों की सटीकता और संभावित त्रुटि दर क्रमशः 93% और 7% होने का अनुमान लगाया गया था।

हम सदस्य देशों की प्रत्येक आधिकारिक भाषा के लिए अपने स्वचालित मॉडरेशन सिस्टम की सटीकता और त्रुटि दर का ब्यौरा देने में असमर्थ हैं, क्योंकि हम आमतौर पर Snapchat पर फ़िल्टर की गई सामग्री की भाषा को ट्रैक नहीं करते हैं। नीचे प्रत्येक सदस्य राज्य से आने वाली स्वचालित रूप से निगरानी की गई सामग्री के लिए हमारी सटीकता और गलती दरों का विवरण दिया गया है, जो इस डेटा के लिए एक स्टैंड-इन के रूप में कार्य करता है।

  • सुरक्षा


हम बुनियादी अधिकारों पर स्वचालित मॉडरेशन प्रणालियों के संभावित प्रभाव को कम करने के लिए उपाय लागू करते हैं क्योंकि हम इस संभावना से अवगत हैं।

स्नैपचैट पर उपयोग किए जाने से पहले, हमारी स्वचालित सामग्री फ़िल्टरिंग प्रणालियों का परीक्षण किया जाता है। मॉडलों का प्रदर्शन के लिए ऑफ़लाइन परीक्षण किया जाता है और उत्पादन में पूरी तरह से शामिल किए जाने से पहले उनकी उचित कार्यप्रणाली सुनिश्चित करने के लिए ए/बी परीक्षण के माध्यम से उन्हें तैनात किया जाता है। आंशिक (चरणबद्ध) रोलआउट के दौरान, हम लॉन्च-पूर्व गुणवत्ता आश्वासन (QA) समीक्षा, लॉन्च समीक्षा और निरंतर सटीक QA जांच करते हैं।

हमारे स्वचालित उपकरण लॉन्च होने के बाद, हम लगातार उनकी सटीकता और प्रभावशीलता का आकलन करते हैं और आवश्यक संशोधन करते हैं। सटीकता बढ़ाने के लिए जिन मॉडलों को समायोजित करने की आवश्यकता है, उन्हें खोजने के लिए हमारे मानव मॉडरेटर स्वचालित कार्य के नमूनों की पुनः जांच करते हैं। हम Snapchat पर विशेष नुकसान की आवृत्ति को ट्रैक करने के लिए सार्वजनिक कहानियों के यादृच्छिक दैनिक नमूने का भी उपयोग करते हैं, और हम इस डेटा का उपयोग उन क्षेत्रों को इंगित करने के लिए करते हैं जहां आगे काम करने की आवश्यकता है।

Snapchatters को नोटिस और अपील प्रक्रियाओं के माध्यम से प्रवर्तन निर्णयों को सार्थक रूप से चुनौती देने का मौका देने के अलावा, जो व्यक्तिगत स्नैपचैटर अधिकारों और हमारे समुदाय के हितों की रक्षा करना चाहते हैं, हमारी नीतियां और प्रणालियां हमारे स्वचालित उपकरणों के माध्यम से सुसंगत और न्यायसंगत प्रवर्तन का समर्थन करती हैं।

उनकी सटीकता बढ़ाने तथा हमारी नीतियों के एकसमान और न्यायसंगत अनुप्रयोग को सुगम बनाने के लिए, हम अपनी स्वचालित सामग्री मॉडरेशन प्रौद्योगिकियों को निरंतर बेहतर बनाने के लिए कड़ी मेहनत करते हैं।

ई) अनुच्छेद 21 के अंतर्गत न्यायालय के बाहर विवाद निपटान निकायों को प्रस्तुत विवाद
(अनुच्छेद 24.1 (ए)

हम परिणामों, औसत समापन समय या विवादों का प्रतिशत दर्शाने वाला विवरण प्रदान करने में असमर्थ हैं, जहां Snap ने न्यायालय के बाहर विवाद निपटान निकाय के निर्णयों को लागू किया है, क्योंकि रिपोर्टिंग अवधि (H1 2024) के लिए DSA अनुच्छेद 21 के अनुसार औपचारिक रूप से प्रमाणित न्यायालय के बाहर विवाद निपटान निकायों को शून्य (0) विवाद प्रस्तुत किए गए थे।

H1 2024 में, हमें DSA अनुच्छेद 21 के तहत एक न्यायालय के बाहर विवाद निपटान निकाय के रूप में प्रमाणन की मांग करने वाले निकाय को प्रस्तुत विवादों की दो (2) सूचनाएं प्राप्त हुईं। हमने इन विवादों को ऊपर की गणना में शामिल नहीं किया क्योंकि जिस निकाय ने विवादों की इन सूचनाओं को प्रेषित किया था, वह हमारे अनुरोध पर उनकी प्रमाणन स्थिति को सत्यापित करने में असमर्थ था।

एफ) अनुच्छेद 23 के तहत लगाया गया निलंबन
(अनुच्छेद 24.1(बी)
  • अनुच्छेद 23.1 के अनुसार निलंबन: ऐसे खातों का निलंबन जो अक्सर स्पष्ट रूप से अवैध सामग्री प्रदान करते हैं

जैसा कि हमारे Snapchat मॉडरेशन, प्रवर्तन और अपील स्पष्टीकरण में बताया गया है, हम निर्धारित करते हैं कि जिन खातों का उपयोग मुख्य रूप से हमारे सामुदायिक दिशानिर्देशों का उल्लंघन करने के लिए किया जाता है (स्पष्ट रूप से अवैध सामग्री के प्रावधान के माध्यम से) और जो खाते गंभीर नुकसान पहुंचाते हैं उन्हें तुरंत अक्षम कर दिया जाता है। हमारे कम्युनिटी दिशानिर्देश के अन्य उल्लंघनों के लिए, Snap आम तौर पर तीन कदम वाली प्रवर्तन प्रक्रिया का उपयोग करता है:

  • पहला कदम: उल्लंघन करने वाले कंटेंट को हटा दिया जाता है।

  • दूसरा कदम: - Snap चैटर को एक नोटिफ़िकेशन प्राप्त होता है जिसमें लिखा होता है कि उन्होंने हमारे कम्युनिटी दिशानिर्देश का उल्लंघन किया है, उनके कंटेंट को हटा दिया गया है, और बार-बार उल्लंघन करने पर अतिरिक्त प्रवर्तन कार्रवाई की जाएगी जिसके तहत उनके अकाउंट को बंद भी किया जा सकता है।

  • चरण तीन: हमारी टीम Snap चैटर के खाते के खिलाफ एक स्ट्राइक दर्ज करती है।

Snapchat की सार्वजनिक सतहों पर सामग्री या गतिविधियों वाले यूरोपीय संघ के खातों पर H1 2024 में लगाए गए स्ट्राइक (यानी, चेतावनियाँ) और लॉक की संख्या के बारे में जानकारी ऊपर, अनुभाग 3 (ए) और 3 (बी) में पाई जा सकती है।

  • अनुच्छेद 23.2 के अनुसार निलंबन: व्यक्तियों, संस्थाओं और शिकायतकर्ताओं से नोटिस और शिकायतों के प्रसंस्करण पर निलंबन जो अक्सर नोटिस या शिकायतें प्रस्तुत करते हैं जो स्पष्ट रूप से निराधार हैं

DSA अनुच्छेद 23.2 के अनुसार H1 2024 में लगाए गए नोटिस और शिकायत प्रसंस्करण निलंबनों की संख्या निम्नानुसार है, जो "स्पष्ट रूप से निराधार" नोटिस और शिकायतों की हमारी आंतरिक परिभाषा और ऐसे नोटिस और शिकायतों के बार-बार प्रस्तुत किए जाने के लिए हमारी आंतरिक सीमाओं पर आधारित है:

4. हमारी कॉन्टेंट मॉडरेशन टीमों के बारे में जानकारी 
a) कॉन्टेंट मॉडरेशन के लिए समर्पित मानव संसाधन, जिसमें डीएसए अनुच्छेद 16, 20 और 22 का अनुपालन शामिल है, सदस्य राज्यों की आधिकारिक भाषा के अनुसार वर्गीकृत
(अनुच्छेद 42.2 (ए))


हमारी कंटेंट मॉडरेशन टीमें दुनिया भर में काम करती है, जो हमें Snap चैटर्स को 24/7 सुरक्षित रखने में मदद करने में सक्षम बनाती हैं। नीचे, आपको 30 जून 2024 तक मॉडरेटर की भाषा विशेषज्ञता के आधार पर हमारे मानवीय मॉडरेशन संसाधनों का विवरण मिलेगा (ध्यान दें कि कुछ मॉडरेटर कई भाषाओं में विशेषज्ञ हैं):

30 जून 2024 तक, यूरोपीय संघ के सदस्य देशों की आधिकारिक भाषाओं का समर्थन करने वाले सामग्री मॉडरेशन के लिए समर्पित सभी मानव संसाधन उपरोक्त तालिका में शामिल हैं। ऐसी स्थितियों में जहां हमें भाषा के अतिरिक्त सहायता की ज़रूरत होती है, हम अनुवाद सेवाओं का इस्तेमाल करते हैं।



सामग्री मॉडरेटर की योग्यता और भाषाई विशेषज्ञता; प्रशिक्षण और सहायता प्रदान की गई
(अनुच्छेद 42.2 (बी)


मॉडरेटर की भर्ती एक मानक नौकरी विवरण के आधार पर की जाती है जिसमें भाषा संबंधी आवश्यकता (आवश्यकता के आधार पर) शामिल होती है। भाषा की आवश्यकता के अनुसार उम्मीदवार का लिखित और मौखिक रूप से भाषा में धारा प्रवाह होना ज़रूरी है और प्रवेश स्तर के पदों के लिए उसके पास कम-से-कम एक वर्ष का कार्य अनुभव होना चाहिए। उम्मीदवारों को शैक्षिक एवं पृष्ठभूमि (बैकग्राउंड) संबंधी आवश्यकताओं को पूरा करना होगा, ताकि उनके उम्मीदवारी पर विचार किया जा सकें। उम्मीदवारों को उस देश या क्षेत्र की वर्तमान घटनाओं की समझ भी प्रदर्शित करनी होगी, जहां के कंटेट मॉडरेशन को वे सपोर्ट करेंगे। 


Snap द्वारा कंटेंट मॉडरेटर को दिए जाने वाले प्रशिक्षण और सहायता का विवरण ऊपर दिया गया है। यह DSA अनुच्छेद 15(1)(सी) के तहत अलग से आवश्यक है और इसलिए इसे धारा 3(बी) के अंतिम उपखंड में शामिल किया गया है, "कंटेंट मॉडरेशन के प्रभारी व्यक्तियों को प्रशिक्षण और सहायता प्रदान करने के लिए उठाए गए कदम।"

बाल यौन शोषण और दुरूपयोग (CSEA) मीडिया स्कैनिंग रिपोर्ट


बैकग्राउंड

हमारे समुदाय के किसी भी सदस्य विशेष रूप से नाबालिगों का यौन शोषण, गैर-कानूनी, निंदनीय है, और हमारे कम्युनिटी दिशानिर्देश के द्वारा प्रतिबंधित है। हमारे प्लेटफार्म पर बाल यौन शोषण और दुर्व्यवहार (CSEA) को रोकना, पता लगाना तथा उन्मूलित करना Snap पर हमारे लिए टॉप प्राथमिकता है और हम इनसे और अन्य प्रकार के अपराधों से निपटने के लिए अपनी क्षमताओं को निरंतर विकसित कर रहे हैं।


ज्ञात अवैध तस्वीरों एवं बाल यौन दुर्व्यवहार के वीडियो की पहचान करने के लिए, हम क्रमश: PhotoDNA रोबस्ट हैश-मैचिंग और Google के चाइल्ड सेक्शुअल अब्यूज़ इमेजरी (CSAI) मैच जैसे तकनीक का इस्तेमाल करते हैं और उसके बारे में यूएस नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) को रिपोर्ट करते हैं, जैसा कि कानून द्वारा करना आवश्यक है। इसके बाद, NCMEC ज़रूरत के हिसाब से, घरेलू या अंतर्राष्ट्रीय कानून प्रवर्तन के साथ मिलकर काम करता है।


रिपोर्ट

नीचे दिया गया डेटा PhotoDNA की मदद से सक्रिय स्कैनिंग के परिणामों और/या यूजर के कैमरा रोल से Snapchat पर अपलोड किए गए मीडिया का CSAI मैच के आधार पर है।

बल यौन शोषण को रोकना हमारी सर्वोच्च प्राथमिकता है। Snap इसके लिए महत्वपूर्ण संसाधन समर्पित करता है और इस तरह के आचरण के लिए शून्य सहनशीलता रखता है। सीएसई अपीलों की समीक्षा करने के लिए विशेष प्रशिक्षण की आवश्यकता होती है, और एजेंटों की एक सीमित टीम होती है जो सामग्री की ग्राफिक प्रकृति के कारण इन समीक्षाओं को संभालती है। 2023 के पतझड़ के दौरान, Snap ने नीतिगत बदलाव लागू किए जिससे कुछ सीएसई प्रवर्तनों की स्थिरता प्रभावित हुई, और हमने एजेंट पुन: प्रशिक्षण और कठोर गुणवत्ता आश्वासन के माध्यम से इन विसंगतियों को संबोधित किया है। हम आशा करते हैं कि अगली पारदर्शिता रिपोर्ट सीएसई अपीलों के लिए प्रतिक्रिया समय में सुधार की दिशा में प्रगति एवं शुरुआती प्रवर्तन में सुधार को रेखांकित करेगी।

कंटेंट मॉडरेशन सेफगार्ड्स

CSEA मीडिया स्कैनिंग के लिए लागू किए गए सुरक्षा उपायों का वर्णन हमारे डीएसए रिपोर्ट के "कंटेंट मॉडरेशन सेफगार्ड्स" अनुभाग में किया गया हैं।


यूरोपीयन यूनियन आतंकवादी कंटेंट ऑनलाइन पारदर्शिता रिपोर्ट

प्रकाशित: 17 जून, 2024

पिछला अद्यतन: 17 जून, 2024

यह पारदर्शिता रिपोर्ट यूरोपीय संसद और यूरोपीय परिषद के विनियम 2021/784 के अनुच्छेद 7(2) और 7(3) के अनुसार प्रकाशित की गई है, जो आतंकवादी कंटेंट के ऑनलाइन प्रसारण को संबोधित करते हैं (विनियम)। यह रिपेर्टिंग अवधि 1 जनवरी - 31 दिसंबर, 2023 को कवर करती है। 


सामान्य जानकारी
  • अनुच्छेद 7(3)(क): आतंकवादी कंटेंट की पहचान और उसे हटाने या उस तक पहुँच को अक्षम करने के संबंध में सेवा प्रदाता के उपायों के बारे में जानकारी।

  • अनुच्छेद 7(3)(बी): आतंकवादी कंटेंट माने जाने के कारण पहले हटाई गई या उस तक पहुँच अक्षम की गई कंटेंट के फिर से ऑनलाइन प्रकट होने को संबोधित करने के लिए सेवा प्रदाता के उपायों के बारे में जानकारी, खासकर जहाँ स्वचालित टूल्स का उपयोग किया गया है।


आतंकवादियों, आतंकवादी संगठनों और हिंसक चरमपंथियों के Snapchat का उपयोग करने पर प्रतिबंध है। आतंकवाद या अन्य हिंसक, आपराधिक कार्यों का समर्थन, प्रचार, महिमामंडन करने या उन्हें बढ़ावा देने वाला कंटेंट हमारे कम्युनिटी दिशानिर्देशों के तहत प्रतिबंधित है। यूज़र हमारे ऐप में रिपोर्टिंग मेन्यू और हमारी सपोर्ट वेबसाइट के ज़रिए हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन करने वाले कंटेंट की रिपोर्ट कर सकते हैं। हम स्पॉटलाइट और डिस्कवर जैसी सार्वजनिक सतहों पर उल्लंघनकारी कंटेंट की पहचान के प्रयास के लिए भी अग्रसक्रिय पहचान का उपयोग करते हैं।


. उल्लंघनकारी कंटेंट के बारे में हमें चाहे जैसे भी पता चले, हमारी विश्वसनीयता और सुरक्षा टीमें, स्वचालन और मानव मॉडरेशन के संयोजन के माध्यम से तत्काल पहचाने गए कंटेंट की समीक्षा करती हैं और प्रवर्तन संबंधी निर्णय लेती हैं। प्रवर्तन में कंटेंट को हटाना, चेतावनी देना या उल्लंघनकारी अकाउंट को लॉक करना और, यदि आवश्यक हुआ, तो कानून प्रवर्तन को उस अकाउंट की रिपोर्ट करना शामिल है। Snapchat पर आतंकवादी या अन्य हिंसक चरमपंथी कंटेंट को फिर से प्रकट होने से रोकने के लिए, कानून प्रवर्तन के साथ काम करने के अलावा, हम उल्लंघनकारी अकाउंट से जुड़े डिवाइस को ब्लॉक करने और यूज़र को दूसरा Snapchat अकाउंट बनाने से रोकने के लिए कदम उठाते हैं।


आतंकवादी कॉन्टेंट की पहचान करने और हटाने के लिए हमारे उपायों के बारे में अतिरिक्त विवरण हमारे नफ़रती कंटेंट, आतंकवाद तथा हिंसक चरमपंथ पर एक्सप्लेनर और हमारे मॉडरेशन, प्रवर्तन तथा अपीलों पर एक्सप्लेनर में देखा जा सकता है। 



रिपोर्टें और प्रवर्तन 
  • अनुच्छेद 7(3)(सी): हटाए गए आतंकवादी कंटेंट या हटाने के आदेश अथवा विशिष्ट उपायों के बाद जिनकी पहुँच अक्षम की गई, उनकी संख्या और हटाने के ऐसे आदेशों की संख्या जहाँ अनुच्छेद 3(7) और अनुच्छेद 3(8) के पहले उपअनुच्छेद के अनुपालन में कंटेंट हटाया नहीं गया है या उसकी पहुँच अक्षम नहीं की गई है, उनके आधारों के साथ


रिपोर्टिंग अवधि के दौरान, Snap को हटाने के कोई आदेश प्राप्त नहीं हुए, न ही हमारे लिए विनियम के अनुच्छेद 5 के अनुपालन में किन्हीं विशिष्ट उपायों को लागू करने की आवश्यकता थी। तदनुसार, हमें विनियमन के तहत प्रवर्तन कार्रवाई करने की आवश्यकता नहीं थी।


निम्नलिखित तालिका यूज़र रिपोर्टों और कंटेंट और अकाउंट्स के खिलाफ अग्रसक्रिय पहचान के आधार पर यूरोपियन यूनियन तथा दुनिया में अन्य जगहों पर की गई प्रवर्तन कार्रवाइयों का वर्णन करती है, जिन्होंने आतंकवाद और हिंसक चरमपंथी कंटेंट से संबंधित हमारे कम्युनिटी दिशानिर्देशों का उल्लंघन किया है

प्रवर्तन अपील
  • अनुच्छेद 7(3)(डी): अनुच्छेद 10 के अनुपालन में होस्टिंग कंपनी द्वारा संबोधित शिकायतों की मात्रा और समाधान

  • अनुच्छेद 7(3)(जी): ऐसे उदाहरणों की संख्या जहां होस्टिंग सेवा प्रदाता ने सामग्री प्रदाता द्वारा शिकायत दर्ज करने के बाद पहुंच या सामग्री बहाल की


जैसा कि पहले कहा गया था, हमने विनियमन के अनुच्छेद 10 के अनुसार किसी शिकायत का निपटारा नहीं किया और रिपोर्टिंग अवधि के दौरान कोई संबंधित बहाली नहीं की, क्योंकि हम विनियमन के तहत कोई प्रवर्तन कदम उठाने के लिए बाध्य नहीं थे।


यूरोपीय संघ और अंतरराष्ट्रीय स्तर पर, हमारे सामुदायिक दिशानिर्देशों के तहत लागू आतंकवादी और हिंसक चरमपंथी सामग्री के संबंध में अपील और बहाली के बारे में जानकारी निम्नलिखित तालिका में शामिल है।

न्यायिक कार्यवाहियाँ और अपीलें
  • अनुच्छेद 7(3)(ई): होस्टिंग सेवा प्रदाता द्वारा शुरू की गई प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों की संख्या और परिणाम

  • अनुच्छेद 7(3)(एफ): ऐसे मामलों की संख्या जिनमें होस्टिंग सेवा प्रदाता के लिए प्रशासनिक या न्यायिक समीक्षा कार्यवाहियों के परिणामस्वरूप सामग्री को बहाल करना या उसकी ऐक्सेस देना आवश्यक था।


चूँकि रिपोर्टिंग अवधि के दौरान नियम के तहत हमारे लिए कोई प्रवर्तन कार्रवाई आवश्यक नहीं थी, जैसा कि ऊपर उल्लेख किया गया है, इसलिए हमारे साथ कोई प्रशासनिक या न्यायिक समीक्षा कार्यवाही नहीं जुड़ी थी और हमारे लिए ऐसी किसी भी कार्यवाही के परिणामस्वरूप सामग्री को बहाल करने की आवश्यकता नहीं थी।

DSA जोखिम मूल्यांकन

यह रिपोर्ट विनियमन (EU) 2022/2065 के अनुच्छेद 34 और 35 के तहत Snap के दायित्वों का पालन करने के लिए तैयार की गई है और Snapchat के ऑनलाइन प्लैटफ़ॉर्म के डिज़ाइन, कार्य और उपयोग से उत्पन्न सिस्टम संबंधी जोखिमों के हमारे मूल्यांकन के परिणाम प्रदान करती है, साथ ही उन जोखिमों का मूल्यांकन करने के लिए इस्तेमाल किए जाने वाले तरीकों और उन जोखिमों को दूर करने के लिए किए गए शमन उपायों की जानकारी भी देती है।


DSA जोखिम और शमन मूल्यांकन रिपोर्ट | Snapchat | अगस्त 2023 (PDF)


DSA ऑडिट और ऑडिट कार्यान्वयन

ये रिपोर्ट्स विनियमन (EU) 2022/2065 के अनुच्छेद 37 के तहत Snap के दायित्वों का अनुपालन करने के लिए तैयार की गई हैं और निम्नलिखित प्रदान करती हैं: (i) विनियमन (EU) 2022/2065 के अध्याय III में निर्धारित दायित्वों के साथ Snap के अनुपालन के स्वतंत्र ऑडिट के परिणाम और (ii) उस स्वतंत्र ऑडिट से परिचालन सुझावों को लागू करने के लिए उठाए गए कदम।

DSA स्वतंत्र ऑडिट रिपोर्ट | Snapchat | अगस्त 2024 (PDF)

DSA ऑडिट कार्यान्वयन रिपोर्ट | Snapchat | सितंबर 2024 (PDF)



EU VSP आचरण संहिता

अनुच्छेद 1(1) (aa) AVMSD के अनुसार Snap एक "वीडियो शेयरिंग प्लेटफ़ॉर्म सर्विस ("VSP") प्रदाता है। यह आचरण संहिता (“कोड”) यह वर्णन करने के लिए तैयार की गई है कि Snap डच मीडिया अधिनियम ("DMA") और निर्देश (EU) 2010/13 (निर्देश (EU) 2018/1808 ("ऑडियो-विजुअल सेवा निर्देश" या "AVMSD") द्वारा संशोधित) के अंतर्गत VSP के रूप में अपने कर्तव्यों का निर्वहन कैसे करता है। यह संहिता संपूर्ण यूरोपियन यूनियन के साथ-साथ यूरोपियन आर्थिक क्षेत्र में भी लागू है।

EU VSP आचरण संहिता | Snapchat | दिसंबर 2024 (PDF)