25 اکتوبر 2024
17 دسمبر 2024
یورپی یونین (EU) کی شفافیت کے صفحے پر خوش آمدید، جہاں ہم ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویژول میڈیا سروس ڈائریکٹیو (AVMSD)، ڈچ میڈیا ایکٹ (DMA)، اور ٹیرورسٹ کانٹینٹ آن لائن ریگولیشن (TCO) کی ضرورت کے مطابق EU کی مخصوص معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ شفافیت کی ان رپورٹس کا تازہ ترین ورژن en-US کی مقامی زبان میں پایا جا سکتا ہے۔
Snap Group Limited نے Snap B.V کو DSA کے مقاصد کے لئے اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لئے dsa-enquiries [at] snapchat.com پر نمائندے سے رابطہ کر سکتے ہیں، AVMSD اور DMA کے لئے vsp-enquiries [at] snapchat.com پر رابطہ کرسکتے ہیں، اور TCO کے لئے tco-enquiries [at] snapchat.com پر رابطہ کرسکتے ہیں، ہماری سپورٹ سائٹ کے ذریعے [یہاں]، یا:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
اگر آپ قانون نافذ کرنے والی ایجنسی ہیں، تو براہ کرم یہاں بیان کردہ اقدامات پر عمل کریں۔
براہ کرم ہم سے رابطہ کرتے وقت انگریزی یا ڈچ زبان میں بات چیت کریں۔
DSA کے لیے، ہمیں یورپی کمیشن، اور نیدرلینڈز اتھارٹی فار کنزیومرز اینڈ مارکیٹس (ACM) کے ذریعے ریگولیٹ کیا جاتا ہے۔ AVMSD اور DMA کے لیے، ہمیں ڈچ میڈیا اتھارٹی (CvdM) کے ذریعے ریگولیٹ کیا جاتا ہے۔ TCO کے لیے، ہمیں نیدرلینڈز کی آن لائن دہشت گرد مواد اور بچوں کے جنسی استحصال کے مواد کو روکنے کی اتھارٹی (ATKM) کے ذریعے ریگولیٹ کیا جاتا ہے۔
آخری مرتبہ اپ ڈیٹ کردہ: 25 اکتوبر 2024
ہم یورپی یونین (EU) کے ڈیجیٹل سروسز ایکٹ (ریگولیشن (EU) 2022/2065) ("DSA") کے آرٹیکل 15، 24 اور 42 میں فراہم کردہ شفافیت کی رپورٹنگ کے تقاضوں کے مطابق Snapchat پر اپنے مواد کی ماڈریشن کی کوششوں کے بارے میں یہ رپورٹ شائع کرتے ہیں۔ اس رپورٹ میں شامل معلومات 1 جنوری 2024 سے 30 جون 2024 (H1 2024) تک رپورٹنگ کی مدت کے لیے ہیں اور DSA کے ذریعے ریگولیٹ کی جانے والی Snapchat کی خصوصیات پر مواد کی ماڈریشن کا احاطہ کرتی ہیں۔
ہم اپنی رپورٹنگ کو بہتر بنانے کے لیے مسلسل کوشش کرتے ہیں۔ اس رپورٹنگ کی مدت (H1 2024) کے لیے، ہم نے اپنے مواد میں ماڈریشن کی کوششوں میں بہتر ان سائٹ فراہم کرنے کے لیے نئے اور زیادہ منفرد ٹیبلز کے ساتھ اپنی رپورٹ کے اسٹرکچر میں تبدیلیاں کی ہیں۔
1 اکتوبر 2024 تک،EU میں ہمارے Snapchat ایپ کے اوسط ماہانہ فعال صارفین (“AMAR”) کی تعداد 92.9 ملین ہے۔ اس کا مطلب یہ ہے کہ، اوسطاً 30 ستمبر 2024 کو ختم ہونے والی گزشتہ 6 ماہ کی مدت میں، یورپی یونین میں 92.9 ملین رجسٹرڈ یوزرز نے ایک مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔
یہ اعداد و شمار رکن ریاست کے حساب سے مندرجہ ذیل طور پر تقسیم کیے گئے ہیں:
یہ اعداد و شمار موجودہ DSA کے تقاضوں کو پورا کرنے کے لیے شمار کیے گئے تھے اور صرف DSA کے مقاصد کے لیے ان پر انحصار کیا جانا چاہیئے۔ ہم نے وقت کے ساتھ ساتھ اس شمار کی گنتی کا طریقہ تبدیل کیا ہے، بشمول اندرونی پالیسی، ریگولیٹر کی ہدایات اور ٹیکنالوجی میں تبدیلی کے جواب میں، اور یہ اعداد و شمار مختلف مدتوں کے درمیان موازنہ کرنے کے لئے مقصود نہیں ہیں۔ یہ دوسرے ایکٹوو یوزر کے اعداد و شمار کے لیے استعمال کیے گئے حساب سے بھی مختلف ہو سکتا ہے جو ہم دوسرے مقاصد کے لیے شائع کرتے ہیں۔
اس رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام سے غیر قانونی مواد کے مخصوص طور پر شناخت شدہ حصوں کے خلاف کارروائی کرنے کے لیے صفر (0) آرڈرز موصول ہوئے، بشمول DSA آرٹیکل 9 کے مطابق جاری کیے گئے۔
چونکہ یہ تعداد صفر (0) ہے، اس لیے ہم متعلقہ غیر قانونی مواد کی ہر قسم یا رکن ریاست کی جانب سے جاری کردہ آرڈر، یا وصولی کو تسلیم کرنے یا آرڈرز کو نافذ کرنے کے لیے اوسط وقت کی تفصیل فراہم نہیں کر سکتے۔
اس رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاست کے حکام کی جانب سے یوزر کے ڈیٹا کو ظاہر کرنے کے لیے درج ذیل آرڈرز موصول ہوئے ہیں، بشمول DSA آرٹیکل 10 کے مطابق جاری کردہ:
معلومات فراہم کرنے کے لیے ان آرڈرز کی رسید کے بارے میں متعلقہ حکام کو مطلع کرنے کا اوسط وقت 0 منٹس تھا - ہم رسید کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔
معلومات فراہم کرنے کے لیے ان آرڈرز کو نافذ کرنے کا اوسط وقت ~7 دن تھا۔ یہ میٹرک Snap کے آرڈر موصول کرنے سے لے کر Snap کے معاملے کو مکمل طور پر حل کرنے تک کے وقت کی مدت کو ظاہر کرتا ہے، جو کہ انفرادی صورتوں میں اس اہم جزوی رفتار پر منحصر ہو سکتا ہے جو متعلقہ رکن ریاست کے اختیار نے آرڈر پراسیس کرنے کے لیے Snap کی جانب سے کسی بھی درخواستوں کی وضاحت کے لیے جواب دینے میں لیا ہو۔
نوٹ کریں، ہم متعلقہ غیر قانونی مواد کی قسم کے طور پر زمرہ بند معلومات فراہم کرنے کے لیے درج بالا آرڈرز کی تفصیل فراہم نہیں کرتے کیونکہ یہ معلومات عام طور پر ہمارے لیے دستیاب نہیں ہوتی۔
Snapchat پر موجود تمام مواد ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کے مطابق ہونا چاہیئے۔ کچھ مواد کو اضافی ہدایات اور پالیسیوں کی تعمیل بھی کرنی چاہیئے۔ مثال کے طور پر، ہماری عوامی براڈ کاسٹ کی سطحوں پر ناظرین کی بڑی تعداد کو الگورتھم کی تجویز کے لیے جمع کروائے گئے مواد کو ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں فراہم کردہ اضافی، اعلیٰ معیارات کے تقاضوں پر پورا اترنا ہو گا، جبکہ اشتہارات کو ہماری تشہیری پالیسیوں کی تعمیل کرنی ہو گی۔
ہم ٹیکنالوجی اور انسانی جائزے کا استعمال کر کے ان پالیسیوں کو نافذ کرتے ہیں۔ ہم Snapchatters کو براہ راست ان ایپ یا اپنی ویب سائٹ کے ذریعے، غیر قانونی مواد اور سرگرمیوں سمیت، خلاف ورزیوں کو رپورٹ کرنے کے لیے میکانزمز بھی فراہم کرتے ہیں۔ سراغ لگانے کے فعال میکانزمز اور رپورٹس ایک جائزے کی پرامپٹ دیتے ہیں، جو پھر ہماری پالیسیوں کے مطابق مناسب کارروائی کرنے کے لیے خودکار ٹولز اور انسانی ماڈریٹرز کے امتزاج کا استعمال کرتی ہے۔
ہم ذیل میں H1 2024 کے اندر اپنی عوامی سطحوں پر اپنے مواد کی ماڈریشن کے متعلق مزید معلومات فراہم کرتے ہیں۔
DSA آرٹیکل 16 کے مطابق، Snap نے ایسے میکانزمز تشکیل دیے ہیں جو صارفین اور غیر صارفین کو Snapchat پر اس معلومات کے مخصوص حصوں کی موجودگی کے متعلق Snap کو مطلع ہونے کے قابل بناتے ہیں جسے وہ غیر قانونی سمجھتے ہیں۔ وہ براہ راست Snapchat ایپ یا ہماری ویب سائٹ پر، مواد یا اکاؤنٹس کے مخصوص حصوں کو رپورٹ کر کے ایسا کر سکتے ہیں۔
رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین میں DSA آرٹیکل 16 کے مطابق جمع کروائے گئے درج ذیل نوٹسز موصول ہوئے ہیں:
ذیل میں، ہم اس بات کی عکاسی کرنے والی تفصیل فراہم کرتے ہیں کہ ان نوٹسز پر کس طرح عمل کیا گیا تھا – جیسا کہ، انسانی جائزے سمیت عمل کے ذریعے یا صرف خودکار ذرائع کے ذریعے:
ایپ کے اندر یا ہماری ویب سائٹ کے ذریعے نوٹسز جمع کروا کے، رپورٹرز ہماری کمیونٹی کی ہدایات (مثلاً، نفرت انگیز تقریر، منشیات کا استعمال یا اس کی فروخت) میں درج فہرست خلاف ورزیوں کے زمرہ جات کی عکاسی کرنے والے اختیارات سے رہورٹنگ کی مخصوص وجہ کو منتخب کر سکتے ہیں۔ ہماری کمیونٹی کی ہدایات یورپی یونین میں غیر قانونی مواد اور سرگرمیوں کو ممنوع کرتی ہیں، لہٰذا ہماری رپورٹنگ کی وجوہات بڑی حد تک یورپی یونین میں غیر قانونی مواد کے مخصوص زمرہ جات کی وسیع پیمانے پر عکاسی کرتی ہیں۔ تاہم، ایک حد تک یورپی یونین میں ایک رپورٹر کا ماننا ہے کہ وہ جس مواد یا اکاؤنٹ کی رپورٹنگ کر رہے ہیں وہ ان وجوہات کے باعث غیر قانونی ہے جن کا ہماری رپورٹنگ کے مینو میں مخصوص طور پر حوالہ نہیں دیا گیا، وہ اسے "دیگر غیر قانونی مواد" کے لیے رپورٹ کرنے کے قابل ہیں اور انہیں یہ وضاحت کرنے کا موقع دیا گیا ہے کہ وہ ایسا کیوں سمجھتے ہیں کہ وہ جو رپورٹ کر رہے ہیں وہ غیر قانونی ہے۔
اگر، جائزہ لینے پر، ہم نے اس بات کا تعین کیا کہ رپورٹ کردہ مواد یا اکاؤنٹ ہماری کمیونٹی کے رہنما اصولوں کی خلاف ورزی کرتا ہے (بشمول غیر قانونی وجوہات کی بنا پر)، تو ہم (i) قابل اعتراض مواد کو ہٹا سکتے ہیں، (ii) متعلقہ اکاؤنٹ ہولڈر کو تنبیہ کر سکتے اور اکاؤنٹ کے خلاف اسٹرائیک لاگو کر سکتے ہیں، اور / یا (iii) متعلقہ اکاؤنٹ کو لاک کر سکتے ہیں، جیسا کہ ہمارے Snapchat کی ماڈریشن، نفاذ، اور اپیل کی وضاحت میں مزید وضاحت کی گئی ہے۔
H1 2024 میں، ہم نے یورپی یونین میں DSA 16 کے مطابق جمع کروائے گئے نوٹسز کی وصولی پر نفاذ کی درج ذیل کارروائیاں انجام دی ہیں:
H1 2024 میں، "دیگر غیر قانونی مواد" کے لیے تمام رپورٹس جن پر ہم نے کارروائی کی وہ حتمی طور پر ہماری کمیونٹی کی ہدایات کے تحت نافذ کی گئیں کیونکہ ہماری کمیونٹی کی ہدایات نے متعلقہ مواد یا سرگرمی کو ممنوع قرار دیا تھا۔ اس طرح ہم نے درج بالا ٹیبل میں کمیونٹی کی ہدایات کی خلاف ورزی کے متعلقہ زمرے کے تحت ان نفاذات کی زمرہ بند کیا۔
درج بالا نفاذات کے علاوہ، ہم Snap کی دیگر قابل اطلاق پالیسیوں اور ہدایات کے مطابق اس مواد پر کارروائی کر سکتے ہیں جس کی ہمیں اطلاع دی گئی:
اپنی عوامی براڈ کاسٹ کی سطحوں پر مواد کے حوالے سے، اگر ہمیں اس بات کا پتہ چلتا ہے کہ رپورٹ کردہ مواد تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے اعلیٰ معیار پر پورا نہیں اترتا، تو ہم الگورتھمک سفارش کے لیے مواد کو مسترد کرسکتے ہیں (اگر مواد ہماری اہلیت کے معیار پر پورا نہیں اترتا)، یا ہم حساس ناظرین کو خارج کرنے کے لیے مواد کی تقسیم کو محدود کرسکتے ہیں (اگر مواد سفارش کے لیے ہمارے اہلیت کے معیار پر پورا اترتا ہے لیکن بصورت دیگر حساس یا تجویز کرنے والا ہے)۔
H1 2024 میں، ہم نے Snapchat کی عوامی براڈ کاسٹ کی سطحوں پر مواد کے بارے میں درج ذیل اقدامات کیے ہیں جو ہمیں یورپی یونین میں رپورٹ کیے گئے ہیں، ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے مطابق:
اگر ہمیں اس بات کا پتہ چلا کہ رپورٹ کردہ اشتہار ہماری تشہیری پالیسیوں کی خلاف ورزی کرتا ہے، تو ہم جائزہ لینے پر اس کو ہٹا سکتے ہیں۔
H1 2024 میں، ہم نے یورپی یونین میں رپورٹ کردہ اشتہارات کے بارے میں درج ذیل اقدامات کیے:
DSA آرٹیکل 16 کے مطابق جمع کروائے گئے نوٹسز کا جائزہ لینے کے علاوہ، Snap Snapchat کی عوامی سطحوں پر موجود مواد کو ماڈریٹ کرتا ہے (مثلاً، اسپاٹ لائٹ، ڈسکور)۔ ذیل میں ہم Snap کے اپنے اقدام میں موجود مواد کی ماڈریشن کے متعلق معلومات فراہم کرتے ہیں، بشمول خودکار ٹولز کا استعمال، مواد کی ماڈریشن کے انچارج افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات، اور فعال مواد کی ماڈریشن کی ان کوششوں کے نتیجے میں عائد پابندیوں کی تعداد اور اقسام۔
Snap کے اپنے اقدام کی ماڈریشن میں خودکار ٹولز کا استعمال
ہم اپنے عوامی مواد کی سطحوں پر اپنی شرائط اور پالیسیوں کی خلاف ورزیوں کا فعال طور پر پتہ لگانے اور، بعض صورتوں میں، نافذ کرنے کے لیے خودکار ٹولز تعینات کرتے ہیں۔ اس میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، ناجائز زبان کا پتہ لگانے والے ماڈل (جو توہین آمیز کی ورڈز اور ایموجیز کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ شدہ فہرست کی بنیاد پر مواد کا پتہ لگاتے اور اسے مسترد کرتے ہیں) اور آرٹیفیشل انٹیلی جنس/ مشین لرننگ ٹیکنالوجی شامل ہیں۔ ہمارے خودکار ٹولز ہماری کمیونٹی ہدایات (جو دیگر چیزوں کے علاوہ، غیر قانونی مواد کی ممانعت کرتی ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیے گئے ہیں اور، جہاں قابل اطلاق ہو، ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات اور تشہیری پالیسیاں۔
H1 2024 میں، ہماری جانب سے فعال طور پر پتہ لگانے کا کام خودکار ٹولز کا استعمال کرتے ہوئے کیا گیا تھا۔ جب ہمارے خودکار ٹولز ہماری پالیسیوں کی خلاف ورزی کا پتہ لگاتے ہیں، تو وہ خودکار طور پر ہماری پالیسیوں کے مطابق کارروائی کرتے ہیں، یا وہ انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔ اس عمل کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام کو ذیل میں بیان کیا گیا ہے۔
Snap کے اپنے اقدام پر عائد کردہ پابندیوں کی تعداد اور اقسام
H1 2024 میں، Snap نے خودکار ٹولز کے استعمال کے ذریعے، ہماری کمیونٹی ہدایات کی خلاف ورزیوں (بشمول یورپی یونین اور ریاست کے رکن کے قوانین کے تحت غیر قانونی مواد اور سرگرمیوں کی خلاف ورزیوں) کا فعال طور پر پتہ لگانے کے بعد نفاذ کی درج ذیل کارروائیاں انجام دی ہیں:
اس کے علاوہ، H1 2024 میں، ہماری عوامی براڈ کاسٹ کی سطحوں پر مواد کے حوالے سے، ہم نے خودکار ٹولز کے استعمال کے ذریعے، Snapchat پر اپنی تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی خلاف ورزیوں کا فعال طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں۔
* جیسا کہ ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں بیان کیا گیا ہے، وہ اکاؤنٹس جو ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی متواتر یا شدید خلاف ورزی کرتے ہیں انہیں ہماری عوامی براڈ کاسٹ کی سطحوں پر تجاویز سے عارضی یا مستقل طور پر نااہل قرار دیا جاسکتا ہے۔ ہم اس کارروائی کو اپنی فعال ماڈریشن کی کوششوں کے تناظر میں لاگو کرتے ہیں۔
اس کے علاوہ، H1 2024 میں، ہم نے Snapchat پر فعال طور پر، اپنی تشہیری پالیسیوں کی خلاف ورزیوں کے خودکار ٹولز کے استعمال کے ذریعے پتہ لگانے کے بعد درج ذیل اقدامات کیے:
مواد کی ماڈریشن کے ان چارج افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات
ہمارے مواد کی ماڈریشن ٹیمز ہماری Snapchat کمیونٹی کی حفاظت میں مدد کے لیے ہماری مواد کی ماڈریشن کی پالیسیوں کا اطلاق کرتی ہیں۔ انہیں کئی ہفتوں تک ترتبیت دی جاتی ہے، جس میں ٹیم کے نئے اراکین کو Snap کی پالیسیوں، ٹولز، اور ایسکیلیشنز کے طریقہ کار کے بارے میں تعلیم دی جاتی ہے۔ ہماری ماڈریشن ٹیمز باقاعدگی سے اپنے ورک فلوز سے متعلق ریفریشر تربیت میں حصہ لیتی ہیں، خاص طور پر جب ہم پالیسی کی بارڈر لائن اور سیاق و سباق پر منحصر صورتوں کا سامنا کرتے ہیں۔ ہم هنر میں اضافے کے پروگرام، سرٹیفیکیشن سیشنز، اور کوئزز بھی منعقد کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹرز موجودہ اور تمام اپ ڈیٹ کردہ پالیسیوں کے مطابق ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کا ٹرینڈ سامنے آتا ہے، تو ہم فوری طور پر پالیسی کی وضاحتیں پھیلا دیتے ہیں تاکہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہوں۔
ہم اپنی مواد کی ماڈریشن ٹیمز کو خاطر خواہ معاونت اور وسائل فراہم کرتے ہیں، بشمول کام پر تندرست رہنے کے حوالے سے معاونت اور دماغی صحت کی سروسز تک آسان رسائی۔
جن یوزرز کے اکاؤنٹس کمیونٹی کی ہدایات کی خلاف ورزیوں (بشمول غیر قانونی مواد اور سرگرمیوں کی غرض سے) کے لیے ہماری حفاظتی ٹیمز کی جانب سے لاک کیے گئے ہیں وہ لاک اکاؤنٹ کی درخواست جمع کروا سکتے ہیں۔ یوزرز مواد میں ماڈریشن کے کچھ فیصلوں کے خلاف بھی درخواست دے سکتے ہیں۔
رپورٹنگ کی مدت (H1 2024) کے دوران، Snap نے یورپی یونین میں اپنے اندرونی شکایات پر عمل درآمد کرنے کے سسٹم کے ذریعے جمع کروائی گئی درج ذیل درخواستوں (بشمول اکاؤنٹ لاک اور مواد کی سطح کے ماڈریشن کے فیصلوں کے خلاف درخواستوں) پر کارروائی کی:
معیاری وضاحت اور مقاصد
جیسا کہ اوپر سیکشن 3(b) میں وضاحت کی گئی ہے، ہم اپنی عوامی مواد کی سطحوں پر اپنی شرائط اور پالیسیوں کی خلاف ورزیوں کا فعال طور پر پتہ لگانے اور، بعض صورتوں میں، نافذ کرنے کے لیے خودکار ٹولز تعینات کرتے ہیں۔ اس میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، ناجائز زبان کا پتہ لگانے والے ماڈلز (جو توہین آمیز کی ورڈز اور ایموجیز کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ شدہ فہرست کی بنیاد پر مواد کا پتہ لگاتے اور اسے مسترد کرتے ہیں) اور آرٹیفیشل انٹیلیجنس/ مشین لرننگ ٹیکنالوجی شامل ہیں۔ ہمارے خودکار ٹولز ہماری کمیونٹی ہدایات (جو دیگر چیزوں کے علاوہ، غیر قانونی مواد کی ممانعت کرتی ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیے گئے ہیں اور، جہاں قابل اطلاق ہو، ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات اور تشہیری پالیسیاں۔
جب ہمارے خودکار ٹولز ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتہ لگاتے ہیں، تو وہ خودکار طور پر ہماری پالیسیوں کے مطابق کارروائی کرتے ہیں، یا وہ انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔
درستگی اور نقص کی ممکنہ شرح کے انڈیکیٹرز، ریاست کے رکن کے لحاظ سے منظم کردہ
ہم اپنی عوامی سطحوں پر اپنے خودکار ٹولز کے ذریعے پراسیس کردہ ٹاسکس کے بے ترتیب نمونوں کا انتخاب کر کے اور انہیں اپنی انسانی ماڈریشن ٹیمز کے ذریعے دوبارہ جائزہ لینے کے لیے جمع کروا کے اپنے خودکار ماڈریشن ٹولز کی درستگی کی نگرانی کرتے ہیں۔ درستگی کی شرح ان بے ترتیب نمونوں سے ٹاسکس کی شرح فیصد ہے جنہیں ہمارے انسانی ماڈریٹرز نے دوبارہ جائزہ لینے پر برقرار رکھا تھا۔ نقص کی شرح 100% اور درستگی کی شرح کے درمیان فرق ہے جیسا کہ اوپر حساب کیا گیا ہے۔
نمونہ سازی کی بنیاد پر، H1 2024 میں، خلاف ورزیوں کے تمام زمرہ جات میں استعمال ہونے والے خودکار ذرائع کی درستگی اور نقص کی ممکنہ شرح کے اندیکیٹرز تقریباً 93% اور نقص کی شرح تقریباً 7% تھی۔
ہم عام طور پر Snapchat پر اپنے ماڈریٹ کردہ مواد کی زبان کو ٹریک نہیں کرتے، اور اس لیے ریاست کے رکن کی ہر آفیشل زبان کی غرض سے اپنے خودکار ماڈریشن ٹولز کے لیے درستگی اور نقص کی شرح کی تفصیل فراہم نہیں کر سکتے۔ اس معلومات کے لیے متبادل کے طور پر، ہم ذیل میں ہر ریاست کے رکن کے خود کار طور پر ماڈریٹ کردہ مواد کے لیے اپنی درستگی اور نقص کی شرح کی تفصیل فراہم کرتے ہیں۔
حفاظتی اقدامات
ہم بنیادی حقوق پر خودکار ماڈریشن ٹولز کے ممکنہ اثر سے آگاہ ہیں، اور اس اثر کو کم کرنے کے لیے حفاظتی اقدامات تعینات کرتے ہیں۔
Snapchat پر تعینات ہونے سے قبل ہمارے خودکار مواد کے ماڈریشن ٹولز کو ٹیسٹ کیا جاتا ہے۔ ماڈلز کو کارکردگی کے لیے آف لائن ٹیسٹ کیا جاتا ہے اور پیداوار کے لیے مکمل طور پر شامل کیے جانےسے قبل ان کے صحیح طور پر کام کرنے کو یقینی بنانے کے لیے A/B ٹیسٹنگ کے ذریعے تعینات کیا جاتا ہے۔ ہم جزوی (مرحلہ وار) رول آؤٹس کے دوران پری لانچ کوالٹی اشورنس (QA) کے جائزے، لانچ کے جائزے، اور درستگی کے جاری QA چیکس انجام دیتے ہیں۔
اپنے خودکار ٹولز لانچ کرنے کے بعد، ہم مستقل بنیاد پر ان کی کارکردگی اور درستگی کا جائزہ لیتے ہیں، اور ضرورت کے مطابق ایڈجسٹمنٹس کرتے ہیں۔ اس عمل میں ہمارے انسانی ماڈریٹرز کے ذریعے خودکار کاموں کے نمونوں کا دوبارہ جائزہ لینا شامل ہے تاکہ ایسے ماڈلز کی شناخت کی جا سکے جن کی درستگی کو بہتر بنانے کے لیے ایڈجسٹمنٹس کی ضرورت ہوتی ہے۔ ہم عوامی کہانیوں کی بے ترتیب یومیہ نمونہ سازی کے ذریعے Snapchat پر مخصوص نقصانات کے پھیلاؤ کی نگرانی کرتے ہیں، اور مزید بہتری کے لیے شعبوں کی شناخت کرنے کی غرض سے اس معلومات کو استعمال کرتے ہیں۔
ہماری پالیسیاں اور نظام مسلسل اور منصفانہ نفاذ کو فروغ دیتے ہیں، بشمول ہمارے خودکار ٹولز کی جانب سے، اور اسنیپ چیٹرز
کو نوٹس اور اپیل کے عمل کے ذریعے نفاذ کے نتائج پر بامعنی تنازعہ کرنے کا موقع فراہم کرتے ہیں جن کا مقصد انفرادی سنیپ چیٹر کے حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔
ہم اپنے خودکار مواد کے ماڈریشن ٹولز کو بہتر بنانے کی کوشش کرتے ہیں تاکہ ان کی درستگی کو بہتر بنایا جا سکے اور ہماری پالیسیوں کے مستقل اور غیر جانبدار نفاذ کی حمایت کی جا سکے۔
رپورٹنگ کی مدت (H1 2024) کے لیے، DSA آرٹیکل 21 کے باضابطہ طور پر تصدیق شدہ عدالت سے باہر تنازعات کے تصفیے کے اداروں کو جمع کروائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تکیمل کے اوسط اوقات، یا تنازعات کے حصے کو ظاہر کرنے والی تفصیل فراہم کرنے سے قاصر ہیں جہاں Snap نے عدالت سے باہر تنازعات کے تصفیے کے اداروں پر عمل درآمد کیا۔
نوٹ کریں، کہ H1 2024 میں ہمیں تنازعات کے دو (2) نوٹسز موصول ہوئے جو DSA آرٹیکل 21 کے تحت عدالت سے باہر تنازعات کے تصفیے کے ادارے کے طور پر سرٹیفکیشن کے لیے پیش کیے گئے تھے۔ ہم نے ان تنازعات کو درج بالا تعداد میں شامل نہیں کیا کیونکہ تنازعات کے ان نوٹسز کو بھیجنے والا ادارہ ہماری درخواست پر ان کے سرٹیفیکشن اسٹیٹس کی تصدیق کرنے سے قاصر تھا۔
آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: اکثر واضح طور پر غیر قانونی مواد فراہم کرنے والے اکاؤنٹس کی معطلی
جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور درخواستوں کے وضاحت کار میں وضاحت کی گئی ہے، ہم جن اکاؤنٹس کا تعین کرتے ہیں وہ بنیادی طور پر ہماری کمیونٹی کی ہدایات (بشمول واضح طور پر غیر قانونی مواد کی فراہمی کے ذریعے) کی خلاف ورزی کرنے کے لیے استعمال ہوتے ہیں اور ایسے اکاؤنٹس جو سنگین نقصانات کا باعث بنتے ہیں انہیں فوری طور پر غیر فعال کر دیا جاتا ہے۔ کمیونٹی کی ہدایات کی دیگر تمام خلاف ورزیوں کے لیے، Snap عام طور پر تین حصوں پر مشتمل نفاذ کا اطلاق کرتا ہے:
پہلا مرحلہ: خلاف ورزی کرنے والا مواد ہٹا دیا جاتا ہے۔
دوسرا مرحلہ: سنیپ چیٹر نوٹیفکیشن حاصل کرتا ہے، جس سے یہ ظاہر ہوتا ہے کہ انہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی ہے، ان کا مواد ہٹا دیا گیا ہے، اور بار بار خلاف ورزیوں کے نتیجے میں ان کے اکاؤنٹ کو غیر فعال کرنے سمیت اضافی نفاذ کی کارروائیاں ہوں گی۔
تیسرا مرحلہ: ہماری ٹیم سنیپ چیٹر کے اکاؤنٹ کے خلاف ایک سٹرائیک ریکارڈ کرتی ہے۔
Snapchat کی عوامی سطحوں پر مواد یا سرگرمیوں کے سلسلے میں یورپی یونین میں اکاؤنٹس پر H1 2024 میں نافذ کردہ اسٹرائیکس (یعنی انتباہات) اور لاک کی تعداد کے بارے میں معلومات درج بالا، سیکشن 3 (a) اور 3 (b) میں دیکھی جا سکتی ہیں۔
آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: ایسے افراد، اداروں اور شکایت کنندگان کی جانب سے نوٹسز اور شکایات کی پروسیسنگ پر معطلی جو اکثر واضح طور پر بے بنیاد نوٹسز یا شکایات پیش کرتے ہیں۔
"واضح طور پر بے بنیاد" نوٹسز اور شکایات کی ہماری مخصوص اصطلاح، اور اس طرح کے نوٹسز اور شکایات کی متواتر جمع بندی کے لیے ہماری اندرونی تھریش ہولڈز کا اطلاق کرتے ہوئے، DSA آرٹیکل 23.2 کے تحت H1 2024 میں نافذ کردہ نوٹسز اور شکایات کی پروسیسنگ پر معطلی کی تعداد درج ذیل ہے:
ہماری مواد کی ماڈریشن ٹیمز دنیا بھر میں کام کرتی ہیں، جو ہمیں اس قابل بناتی ہیں کہ ہم سنیپ چیٹرز
کو 24/7 محفوظ رکھ سکیں۔ ذیل میں، آپ کو 30 جون 2024 تک ماڈریٹرز کی زبان کی خصوصیات (نوٹ کریں کہ کچھ ماڈریٹرز متعدد زبانوں میں مہارت رکھتے ہیں) کے ذریعے ہمارے انسانی ماڈریشن کے وسائل کا اسٹرکچر نظر آئے گا
:
درج بالا ٹیبل میں مواد کی ماڈریشن کے لیے مختص کردہ تمام انسانی وسائل شامل ہیں جو 30 جون 2024 تک یورپی یونین کی رکن ریاستوں کی آفیشل زبانوں کی معاونت کرتے ہیں۔ ایسے حالات میں جہاں ہمیں زبان کی اضافی سپورٹ کی ضرورت ہوتی ہے، ہم ترجمے کی خدمات استعمال کرتے ہیں۔
ماڈریٹرز کو ملازمت کی معیاری تفصیل کا استعمال کرتے ہوئے بھرتی کیا جاتا ہے جس میں زبان کی شق شامل ہوتی ہے (ضرورت کے مطابق)۔ زبان کے تقاضے میں کہا گیا ہے کہ امیدوار کو زبان میں تحریری اور بولی جانے والی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور انٹری لیول کے عہدوں کے لیے کم از کم ایک سال کام کا تجربہ ہونا چاہیے۔
امیدواروں کو زیر غور آنے کے لیے تعلیمی اور پس منظر کے تقاضوں کو پورا کرنا بھی لازمی ہوگا۔ امیدواروں کو بھی مواد کی ماڈریشن کے ملک یا علاقے کے موجودہ واقعات کی سمجھ کا مظاہرہ کرنا ہوگا جسے وہ سپورٹ کریں گے۔
Snap کی جانب سے مواد کے ماڈریٹرز کو فراہم کی جانے والی تربیت اور معاونت کے بارے میں معلومات کے لیے مندرجہ بالا معلومات ملاحظہ کریں، جو DSA آرٹیکل 15(1)(c) کے تحت الگ طور پر ضروری ہے اور اس طرح سیکشن 3 (b) میں شامل ہے، جس کا عنوان ہے: "مواد کی ماڈریشن کے ان چارج دار افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات"
پس منظر
ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔
ہم معلوم شدہ غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کے لیے PhotoDNA کی مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصاویر (CSAI) میچ جیسے فعال ٹیکنالوجی والے شناختی ٹولز، بالترتیب، استعمال کرتے ہیں اور قانون کے تقاضے کے مطابق ان کی اطلاع امریکی قومی مرکز برائے گمشدہ و استحصال شدہ اطفال (NCMEC) کو دیتے ہیں۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔
اطلاع دیں
درج ذیل ڈیٹا Snapchat پر یوزر کے کیمرہ رول کے ذریعے اپ لوڈ کردہ میڈیا کے PhotoDNA اور/یا CSAI میچ کا استعمال کر کے پیشگی فعال سکیننگ کے نتیجے پر مبنی ہے۔
بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہوتی ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔
مواد کی ماڈریشن کی حفاظتیں
CSEA میڈیا سکیننگ پر لاگو حفاظتیں درج بالا "مواد کی ماڈریسشن کی حفاظتیں" میں ہماری DSA رپورٹ کے نیچے ترتیب دی گئی ہیں۔
شائع کردہ: 17 جون 2024
آخری مرتبہ اپ ڈیٹ کیا گیا: 17 جون 2024
یہ شفافیت کی رپورٹ یورپی پارلیمنٹ اور یورپی یونین کی کونسل کے ریگولیشن 2021/784 کے آرٹیکلز (2)7 اور (3)7 کے مطابق شائع کی گئی ہے، جو کہ دہشت گردی کے مواد کی آن لائن تشہیر (ریگولیشن) کی نشاندہی کرتی ہے۔ یہ 1 جنوری تا 31 دسمبر، 2023کے رپورٹنگ کے دورانیے کا احاطہ کرتی ہے۔
آرٹیکل (a)(3)7: دہشت گردی کے مواد تک رسائی کی شناخت کرنے اور ہٹانے یا غیر فعال کرنے کے حوالے سے ہوسٹنگ سروس کے فراہم کنندہ کے اقدامات کے متعلق معلومات
آرٹیکل (b)(3)7: ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے ایسے مواد کے دوبارہ آن لائن ظاہر ہونے کو روکنے کے لیے اقدامات کے متعلق معلومات جو پہلے ہٹا دی گئی یا جس تک رسائی غیر فعال کر دی گئی کیونکہ اسے دہشت گردی کا مواد تصور کیا گیا تھا، خاص طور پر جہاں خودکار ٹولز کا استعمال کیا گیا ہو
دہشت گردوں، دہشت گرد تنظیموں، اور پرتشدد انتہا پسندوں پر Snapchat استعمال کرنے کے حوالے سے پابندی عائد ہے۔ ہماری کمیونٹی کی ہدایات کے تحت دہشت گردی یا دیگر پرتشدد، مجرمانہ کارروائیوں کی حمایت، تشہیر، تعریف کرنے، یا اس کو فروغ دینے والے مواد پر پابندی عائد ہے۔ صارفین ہمارے ان ایپ رپورٹنگ مینو اور ہماری سپورٹ سائٹ کے ذریعے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرنے والے مواد کو رپورٹ کرنے کے قابل ہیں۔ ہم Spotlight اور ڈسکور جیسی عوامی سطحوں پر خلاف ورزی کرنے والے مواد کی شناخت کرنے کی کوشش کرنے کے لیے سراغ لگانے کا فعال اختیار بھی استعمال کرتے ہیں۔
اس بات سے قطع نظر کہ ہمیں مواد کی خلاف ورزی کا پتہ کیسے چل سکتا ہے، ہماری ٹرسٹ اینڈ سیفٹی کی ٹیمز، آٹومیشن اور انسانی ماڈریشن کے مجموعے کے ذریعے، فوری طور پر شناخت شدہ مواد کا جائزہ لیتی ہیں اور نفاذ کے متعلق فیصلہ سازی کرتی ہیں۔ نفاذ کاریوں میں مواد کو ہٹانا، خلاف ورزی کرنے والے اکاؤنٹ کو تنبیہ دینا یا لاک کرنا، اور، اگر ضروری ہو، تو اکاؤنٹ قانونی نافذ کرنے والوں کو رپورٹ کرنا شامل ہو سکتا ہے۔ Snapchat پر دہشت گرد یا دیگر پرتشدد انتہا پسندی کے مواد کے دوبارہ ظاہر ہونے کو روکنے کے لیے، ہم قانون نافذ کرنے والے اداروں کے ساتھ کام کرنے کے علاوہ، خلاف ورزی کرنے والے اکاؤنٹ کے ساتھ منسلک ڈیوائس کو بلاک کرنے اور یوزر کو دوسرا Snapchat اکاؤنٹ بنانے سے روکنے کے لیے اقدامات کرتے ہیں۔
دہشت گردی کے مواد کی شناخت کرنے اور انہیں ہٹانے کے لیے ہماری جانب سے کیے جانے والے اقدامات کے بارے میں اضافی تفصیلات ہمارے نفرت انگیز مواد، دہشت گردی، اور پرتشدد انتہا پسندی کے وضاحت کار اور ہماریماڈریشن، نفاذ، اور اپیلوں کے وضاحت کار میں دیکھی جا سکتی ہیں۔
آرٹیکل (c)(3)7: ہٹانے کے احکامات یا مخصوص اقدامات کے بعد ہٹائے گئے دہشت گرد مواد کے آئٹمز کی تعداد یا جن تک رسائی غیر فعال کردی گئی ہے، اور ہٹانے کے آرڈرز کی تعداد جہاں مواد کو ہٹایا نہیں گیا یا آرٹیکل (7)3 کے پہلے ذیلی پیراگراف اور آرٹیکل (8)3 کے پہلے ذیلی پیراگراف کے مطابق جن تک رسائی غیر فعال نہیں کی گئی، اس کے اسباب کے ساتھ
رپورٹنگ کی مدت کے دوران، Snap نے ہٹانے کے کوئی آرڈرز موصول نہیں کیے، اور نہ ہی ہمیں ریگولیشن کے آرٹیکل 5 کے مطابق کسی مخصوص اقدامات کو نافذ کرنے کی ضرورت تھی۔ اس کے مطابق، ہمیں ریگولیشن کے تحت نفاذ کی کارروائی کرنے کی ضرورت نہیں تھی۔
درج ذیل ٹیبل یورپی یونین اور دنیا بھر میں، ایسے مواد اور اکاؤنٹس کے خلاف یوزر کی رپورٹس اور فعال نشاندہی کی بنیاد پر کی گئی نفاذ کی کارروائیوں کی وضاحت کرتا ہے، جو دہشت گردی اور پرتشدد انتہا پسندی کے مواد سے متعلق ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرتے ہیں
آرٹیکل 7(3)(d): آرٹیکل 10 کے مطابق ہوسٹنگ سروس کے فراہم کنندہ کے ذریعے ہینڈل کی جانے والی شکایات کی تعداد اور نتائج
آرٹیکل 7(3)(g): ان کیسز کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ نے مواد کے فراہم کنندہ کی جانب سے شکایت کے بعد مواد یا اس تک رسائی کو بحال کیا۔
چونکہ ہمیں رپورٹنگ کی مدت کے دوران ریگولیشن کے تحت نفاذ کی کوئی کارروائی کرنے کی ضرورت نہیں تھی جیسا کہ اوپر ذکر کیا گیا ہے، اس لیے ہم نے ریگولیشن کے آرٹیکل 10 کے مطابق کوئی شکایات ہینڈل نہیں کیں اور اس سے وابستہ بحالی کا کوئی عمل انجام نہیں دیا گیا۔
درج ذیل ٹیبل یورپی یونین اور دنیا بھر میں درخواستوں اور بحالیوں سے متعلق معلومات پر مشتمل ہے، جس میں ہماری کمیونٹی کی ہدایات کے تحت نافذ دہشت گرد اور پرتشدد انتہا پسند مواد شامل ہے۔
آرٹیکل 7(3)(e): ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے پیش کردہ انتظامی یا عدالتی جائزے کی کارروائی کی تعداد اور نتیجہ
آرٹیکل 7(3)(f): ان کیسز کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ کو انتظامی یا عدالتی جائزے کی کارروائیوں کے نتیجے میں مواد یا اس تک رسائی بحال کرنے کی ضرورت تھی۔
چونکہ رپورٹنگ کی مدت کے دوران ہمیں ریگولیشن کے تحت نفاذ کی کوئی کارروائیاں کرنے کی ضرورت نہیں تھی، جیسا کہ اوپر ذکر کیا گیا ہے، اس لیے ہمارے پاس کوئی متعلقہ انتظامی یا عدالتی جائزے کی کارروائیاں نہیں تھی، اور نہ ہی ہمیں ایسی کسی بھی کارروائیوں کے نتیجے میں مواد کو بحال کرنے کی ضرورت تھی۔
یہ رپورٹ ریگولیشن (EU) 2022/2065 کے آرٹیکلز 34 اور 35 کے تحت Snap کی ذمہ داریوں کی تعمیل کرنے کے لیے تیار کی گئی ہے اور Snapchat کے آن لائن پلیٹ فارمز کے ڈیزائن، فنکشن اور استعمال سے ہونے والے سسٹم کے خطرات کے ہمارے جائزے کے نتائج فراہم کرتی ہے، اسی کے ساتھ ان خطرات کا اندازہ لگانے کے لیے استعمال کیے جانے والے طریقہ کار اور ان خطرات سے نمٹنے کے لیے کیے گئے تخفیف کے اقدامات کے ساتھ ہے۔
DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat | اگست 2023 (PDF)
یہ رپورٹس ریگولیشن (EU) 2022/2065 کے آرٹیکل 37 کے تحت Snap کی ذمہ داریوں کی تعمیل کرنے کے لیے تیار کی گئی ہیں اور : (i) ریگولیشن (EU) 2022/2065 کے باب III میں متعین کردہ ذمہ داریوں کے ساتھ Snap کی تعمیل کے آزاد آڈٹ کے نتائج اور (ii) اس آزاد آڈٹ کی آپریشنل سفارشات کو نافذ کرنے کے لیے کیے گئے اقدامات فراہم کرتی ہیں۔
DSA آزاد آڈٹ رپورٹ | Snapchat | اگست 2024 (PDF)
DSA آڈٹ نافذ کرنے والی رپورٹ | Snapchat | ستمبر 2024 (PDF)
EU VSP کوڈ آف پریکٹس
(عملی ضابطہ)
Snap ایک "ویڈیو شیئرنگ پلیٹ-فارم سروس" ("VSP") فراہم کنندہ ہے جیسا کہ آرٹیکل 1(1)(aa) AVMSD میں بیان کیا گیا ہے۔ یہ ضابطہ اخلاق ("کوڈ") اس بات کی وضاحت کے لیے تیار کیا گیا ہے کہ Snap اپنے ڈچ میڈیا ایکٹ ("DMA") اور ڈائیریکٹیو (EU) 2010/13 (جیسا کہ ڈائیریکٹیو (EU) 2018/1808 کے تحت ترمیم شدہ ہے ("آڈیوزویول میڈیا سروسز ڈائریکٹیوو" یا "AVMSD")) کے تحت اپنے VSP کے طور پر اپنی ذمہ داریوں کو کس طرح پورا کرتا ہے۔ یہ کوڈ یورپی یونین کے تمام ارکان اور اس کے ساتھ ساتھ یورپی اقتصادی علاقوں میں بھی قابلِ نفاذ ہے۔
EU VSP کوڈ آف کنڈکٹ (ضابطہ اخلاق) | Snapchat | دسمبر 2024 (PDF)