ہمارے یورپی یونین (EU) کے شفافیت کے صفحے پر خوش آمدید، جہاں ہم ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویزوئل میڈیا سروس (AVMSD)، ڈچ میڈیا ایکٹ (DMA) اور آن لائن دہشت گردی کے مواد سے متعلق ضابطے (TCO) پر EU سے متعلق معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ ان شفافیت کی رپورٹس کا تازہ ترین ورژن en-US لوکیل میں دستیاب ہے۔
Snap Group Limited نے DSA کے مقاصد کے لیے .Snap B.V کو اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لیے dsa-enquiries [at] snapchat.com پر، AVMSD اور DMA کے لیے vsp-enquiries [at] snapchat.com پر، TCO کے لیے tco-enquiries [at] snapchat.com، ہماری سپورٹ سائٹ یہاں کے ذریعے نمائندے سے رابطہ کر سکتے ہیں، یا اس پر کر سکتے ہیں:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
اگر آپ نفاذ قانون کا ادارہ ہیں، تو براہ کرم یہاں بتائے گئے اقدامات کی پیروی کریں۔
ہم سے رابطہ کرتے وقت براہ کرم انگریزی یا ڈچ زبان میں مواصلت کریں۔
DSA کے لیے، ہم یورپی کمیشن، اور نیدرلینڈ اتھارٹی فار کنزیومر اینڈ مارکیٹس (ACM) کے ذریعے ریگولیٹ ہوتے ہیں۔ AVMSD اور DMA کے لیے، ہم ڈچ میڈیا اتھارٹی (CvdM) کے ذریعے ریگولیٹ ہوتے ہیں۔ TCO کے لیے، ہم آن لائن دہشت گردی کے مواد اور بچوں کے جنسی استحصال کے مواد (ATKM) کی روک تھام کے لیے نیدرلینڈ کی اتھارٹی کے ذریعے ریگولیٹ ہوتے ہیں۔
شائع کردہ: 25 اکتوبر 2024
آخری بار اپ ڈیٹ کیا گیا: 02 جنوری 2025
ہم یہ رپورٹ سنیپ چیٹ پر اپنے مواد کی نگرانی کی کوششوں کے حوالے سے یورپی یونین (یورپی یونین (EU) کے ڈیجیٹل سروسز ایکٹ (ریگولیشن (EU) 2022/2065) (“DSA”) میں فراہم کردہ شفافیت کی رپورٹنگ کے تقاضوں کے مطابق شائع کرتے ہیں۔ سوائے اس کے کہ جہاں دوسری صورت میں ذکر کیا گیا ہو، اس رپورٹ میں شامل معلومات 1 جنوری 2024 سے 30 جون 2024 (H1 2024) تک کی رپورٹنگ کی مدت کے لیے ہے اور اس میں سنیپ چیٹ کے ان خصوصیات پر مواد کی نگرانی کا احاطہ کیا گیا ہے جو DSA کی جانب سے ریگولیٹ کیے گئے ہیں۔
ہم اپنی رپورٹنگ کو بہتر بنانے کی مسلسل کوشش کرتے ہیں۔ اس رپورٹنگ کی مدت (H1 2024) کے لیے، ہم نے اپنی رپورٹ کے ساخت میں تبدیلیاں کی ہیں اور ہماری مواد کی نگرانی کی کوششوں کے بارے میں بہتر بصیرت فراہم کرنے کے لیے نئے اور زیادہ الگ میزیں شامل کی ہیں۔
1 اکتوبر 2024 سے، ہمارے پاس یورپی یونین میں ہماری Snapchat ایپ کے 92.9 ملین ماہانہ فعال وصول کنندگان (“AMAR”) ہیں۔ اس کا مطلب یہ ہے کہ، 30 ستمبر 2024 کو ختم ہونے والی 6 ماہ کی مدت کے دوران اوسطاً، یورپی یونین میں 92.9 ملین رجسٹرڈ یوزرز نے کسی دیے گئے مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔
رکن ریاست کی جانب سے اس اعداد و شمار کو درج ذیل طور پر بیان کیا گیا ہے:
ان اعداد و شمار کو موجودہ DSA کے تقاضوں کو پورا کرنے کے حوالے سے حساب میں لایا گیا ہے اور ان پر صرف DSA کے مقاصد کے لیے انحصار کیا جانا چاہیے۔ وقت کے ساتھ ساتھ، اندرونی پالیسیوں، ریگولیٹری ہدایات، اور ٹیکنالوجی میں ہونے والی تبدیلیوں کے پیشِ نظر، ہم نے اس اعداد و شمار کے حساب کے طریقے میں تبدیلی کی ہے، اسی لیے مختلف ادوار کے اعداد و شمار کا موازنہ کرنا مناسب نہیں ہے۔ یہ دیگر فعال یوزر کے اعداد و شمار کے لیے استعمال ہونے والے حساب کتاب سے بھی مختلف ہو سکتے ہیں جسے ہم دیگر مقاصد کے لیے شائع کرتے ہیں۔
اس رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے خاص طور پر شناخت شدہ غیر قانونی مواد کے خلاف کارروائی کے لیے صفر (0) احکامات موصول ہوئے ہیں، جن میں DSA آرٹیکل 9 کے مطابق جاری کیے احکامات بھی شامل ہیں۔
چونکہ یہ تعداد صفر (0) ہے، لہٰذا ہم متعلقہ غیر قانونی مواد کی قسم یا آرڈر جاری کرنے والی رکن ریاستوں کی تفصیل، یا آرڈر وصولی کی تصدیق یا ان پر عمل درآمد کے لیے درمیانی اوقات فراہم نہیں کر سکتے۔
اس رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے یوزر کے ڈیٹا کے افشا کے حوالے سے درج ذیل احکامات موصول ہوئے ہیں، بشمول DSA آرٹیکل 10 کے مطابق جاری کیے گئے:
متعلقہ حکام کو ان احکامات کی وصولی سے متعلق مطلع کرنے کے لیے اوسط وقت 0 منٹ تھا — ہم اس کی وصولی کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔
ان آرڈرز پر عمل درآمد کرتے ہوئے معلومات فراہم کرنے کااوسط درمیانی وقت تقریباً 7 دن تھا۔ یہ میٹرک اس وقت کی مدت کی عکاسی کرتا ہے جب Snap کو آرڈر موصول ہونے سے لے کر کب تک Snap اس معاملے کو مکمل طور پر حل شدہ سمجھتا ہے۔ انفرادی معاملات میں یہ مدت کسی حد تک اس رفتار پر بھی منحصر ہو سکتی ہے جس کے ساتھ متعلقہ رکن ریاست کا ادارہ Snap کی جانب سے آرڈر کی کارروائی کے لیے ضروری وضاحتوں کی کسی بھی درخواست کا جواب دیتا ہے۔
نوٹ کریں کہ ہم متعلقہ غیر قانونی مواد کی قسم کے مطابق درجہ بندی کی گئی معلومات فراہم کرنے کے لیے اوپر کے آرڈرز کی تفصیل فراہم نہیں کرتے ہیں کیونکہ یہ معلومات عام طور پر ہمیں دستیاب نہیں ہیں۔
Snapchat پر موجود تمام مواد کو ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کے مطابق ہونا ہو گا۔ کچھ مواد کو اضافی ہدایات اور پالیسیوں کی بھی پاسداری کرنا ہو گی۔ مثال کے طور پر، ہمارے عوامی نشریاتی پلیٹ فارمز پر وسیع تر ناظرین کو الگورتھمک تجویز کے لیے جمع کردہ مواد کو ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات
میں موجود اضافی اور اعلیٰ معیارات پر پورا اترنا ضروری ہے، جبکہ اشتہارات کو ہماری تشہیری پالیسیوں کی تعمیل کرنا ضروری ہے۔
ہم ٹیکنالوجی اور انسانی جائزے کا استعمال کرتے ہوئے ان پالیسیوں کو نافذ کرتے ہیں۔ ہم سنیپ چیٹرز اور غیر صارفین کے لیے براہ راست ایپ میں یا ہماری ویب سائٹ کے ذریعے غیر قانونی مواد اور سرگرمیوں سمیت خلاف ورزیوں کی رپورٹ کرنے کے لیے میکانزم فراہم کرتے ہیں۔ پیشگی شناخت کے میکانیزم اور رپورٹس ایک جائزے کا مطالبہ کرتی ہیں، جس کے بعد خودکار ٹولز اور انسانی منتظمین کے امتزاج سے ہماری پالیسیوں کے مطابق مناسب اقدام عمل میں لایا جاتا ہے۔
ہم درج ذیل H1 2024 میں اپنے مواد کی نگرانی کے بارے میں مزید معلومات فراہم کرتے ہیں۔
DSA کے آرٹیکل 16 کے مطابق، Snap نے ایسے میکانزم کو نافذ کیا ہے جو صارفین اور غیر صارفین کو Snap کو Snapchat پر ان معلومات کی مخصوص اشیاء کی موجودگی سے مطلع کرنے کے قابل بناتا ہے جن کو وہ غیر قانونی مواد سمجھتے ہیں۔ وہ مخصوص مواد یا اکاؤنٹس کی رپورٹ کر سکتے ہیں، یا تو براہ راست Snapchat ایپ میں یا ہماری ویب سائٹ پر۔
رپورٹنگ کی مدت (H1 2024) کے دوران، ہمیں یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ درج ذیل نوٹسز موصول ہوئے ہیں:
ذیل میں، ہم یہ تفصیل فراہم کرتے ہیں کہ ان نوٹسز پر کس طرح کارروائی کی گئی – یعنی ایسا انسانی جائزے سمیت کسی عمل کے ذریعے ہوا یا صرف خودکار ذرائع سے ایسا کیا گیا:
ایپ کے اندر یا ہماری ویب سائٹ کے ذریعے نوٹسز جمع کروانے میں، رپورٹر ان اختیارات کی فہرست سے رپورٹنگ کی مخصوص وجہ کا انتخاب کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات میں درج کردہ خلاف ورزیوں کے زمرے کی عکاسی کرتے ہیں (مثال کے طور پر، نفرت انگیز تقریر، نشہ کا استعمال یا نشہ فروشی)۔ ہماری کمیونٹی کی ہدایات ایسے مواد اور سرگرمیوں پر پابندی عائد کرتی ہیں جو یورپی یونین میں غیر قانونی ہیں، لہٰذا ہماری رپورٹنگ کی وجوہات بڑی حد تک یورپی یونین میں غیر قانونی مواد کے مخصوص زمرے کی عکاسی کرتی ہیں۔ تاہم، اگر یورپی یونین کا رپورٹر اس حد تک یہ سمجھتا ہے کہ جو مواد یا اکاؤنٹ وہ رپورٹ کر رہا ہے وہ ان وجوہات کی بنا پر غیر قانونی ہے جو ہمارے رپورٹنگ مینو میں خاص طور پر بیان نہیں کی گئی ہیں، تو وہ اسے "دیگر غیر قانونی مواد" کے طور پر رپورٹ کر سکتا ہے اور اسے یہ بیان کرنے کا موقع دیا جاتا ہے کہ اسے کیوں یقین ہے کہ جو مواد وہ رپورٹ کر رہے ہیں وہ غیر قانونی ہے۔
اگر جائزے کے بعد، ہم یہ طے کریں کہ رپورٹ کردہ مواد یا اکاؤنٹ ہماری کمیونٹی کی ہدایات (بشمول غیر قانونی ہونے کی وجوہات) کی خلاف ورزی کرتا ہے، تو ہم (i) ناگوار مواد کو ہٹا سکتے ہیں، (ii) متعلقہ اکاؤنٹ ہولڈر کو متنبہ کر سکتے ہیں اور اکاؤنٹ کے خلاف اسٹرائیک بھیج سکتے ہیں، اور/یا (iii) جیسا کہ ہمارے Snapchat کی ماڈریشن، نفاذ اور اپیلوں کی وضاحت کنندہ میں بیان کیا گیا ہے ہم متعلقہ اکاؤنٹ کو لاک کر سکتے ہیں۔
H1 2024 میں، ہم نے یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ نوٹسز موصول ہونے پر درج ذیل نفاذ کے اقدامات کیے ہیں:
H1 2024 میں، "دیگر غیر قانونی مواد" سے متعلق ایسی تمام رپورٹیں جن پر ہم نے کارروائی کی تھی بالآخر ہماری کمیونٹی کی ہدایات کے تحت نافذ کر دی گئی ہیں کیونکہ ہماری کمیونٹی کی ہدایات متعلقہ مواد یا سرگرمی پر پابندی عائد کرتی تھی۔ اس طرح ہم نے ان نفاذ کی کارروائیوں کو مندرجہ بالا جدول میں کمیونٹی کی ہدایات کی خلاف ورزی کے متعلقہ زمرے کے تحت درجہ بند کیا ہے۔
اوپر دیے گئے نفاذ کے علاوہ، ہم Snap کی دیگر قابل اطلاق پالیسیوں اور ہدایات کے مطابق مطلع کردہ مواد پر کارروائی کر سکتے ہیں:
ہمارے عوامی نشریاتی پلیٹ فارم پر موجود مواد کے حوالے سے، اگر ہمیں یہ معلوم ہو جاتا ہے کہ رپورٹ کردہ مواد تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے معیار پر پورا نہیں اترتا، تو ہم الگورتھمک تجویز کے لیے مواد کو مسترد کر سکتے ہیں یا ہم مواد کی اشاعت کو مخصوص ناظرین تک محدود کر سکتے ہیں (اگر مواد تجویز کے لیے ہمارے اہلیتی معیار پر پورا تو اترتا ہے لیکن حساس ہے یا حساس معاملات کے لیے اشارہ نما ہے)۔
H1 2024 میں، ہم نے Snapchat کے عوامی نشریاتی پلیٹ فارمز پر موجود اس مواد کے حوالے سے درج ذیل اقدامات کیے ہیں جو ہمیں یورپی یونین پر رپورٹ کیا گیا تھا، اور جو تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے مطابق تھا:
اگر ہمیں یہ معلوم ہو جاتا ہے کہ رپورٹ کردہ اشتہار ہماری تشہیری پالیسیوں کی خلاف ورزی کرتا ہے، تو ہم جائزے کے بعد اسے ہٹا سکتے ہیں۔
H1 2024 میں، ہم نے یورپی یونین میں رپورٹ کردہ اشتہارات کے حوالے سے درج ذیل اقدامات کیے ہیں:
DSA کے آرٹیکل 16 کے مطابق جمع کروائے گئے نوٹسز کا جائزہ لینے کے علاوہ، Snap اپنے اقدام سے مواد کی ماڈریشن میں بھی مشغول ہے۔ ذیل میں ہم Snap کے اپنے اقدام سے وابستہ مواد کی ماڈریٹر کے بارے میں معلومات فراہم کرتے ہیں، جس میں خودکار ٹولز کے استعمال، مواد کی نگرانی کے انچارج افراد کو تربیت اور معاونت کی فراہمی کے لیے اٹھائے گئے اقدامات، اور مواد کی ان فعال کوششوں کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام شامل ہیں۔
سنیپ کے اپنے اقدام سے ماڈریشن میں خودکار ٹولز کا استعمال
ہم خودکار ٹولز کا استعمال کرتے ہیں تاکہ پیشگی طور پر پتہ لگایا جا سکے، اور بعض صورتوں میں ان کے شرائط اور پالیسیوں کی خلاف ورزیوں کو نافذ کیا جا سکے۔ اس میں ہیش میچنگ کے ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، بدعنوانی کا پتہ لگانے والے ماڈلز (جو توہین آمیز مطلوبہ الفاظ اور ایموجی کی شناخت اور باقاعدگی سے تازہ ترین فہرست پر مبنی مواد کا پتہ لگانے اور مسترد کرتے ہیں)، اور مصنوعی ذہانت / مشین لرننگ ٹیکنالوجی شامل ہے۔ ہمارے خودکار ٹولز کو ہماری کمیونٹی کی ہدایات کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے (جو دیگر چیزوں کے ساتھ ساتھ غیر قانونی مواد کی ممانعت کرتے ہیں) اور جہاں قابل اطلاق ہو وہاں اہلیت اور تشہیری پالیسیوں کی سفارش کے لیے ہمارے مواد کی ہدایات کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے۔
H1 2024 میں، ہماری عملی طور پر تمام فعال نشاندہی خودکار ٹولز سے فائدہ اٹھاتے ہوئے کی گئی تھی۔ جب ہمارے خودکار آلات ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتا لگاتے ہیں، تو وہ یا تو ہماری پالیسیوں کے مطابق خودکار کارروائی کرتے ہیں، یا پھر انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔ اس عمل کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام درج ذیل میں بیان کی گئی ہیں۔
سنیپ کے اپنے اقدام سے عائد کردہ پابندیوں کی تعداد اور اقسام
H1 2024 میں، سنیپ نے ہماری کمیونٹی کی ہدایات کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل نفاذ کے اقدامات کیے ہیں (بشمول یورپی یونین اور رکن ریاستوں کے قوانین کے تحت غیر قانونی مواد اور سرگرمیوں کی خلاف ورزیاں):
اس کے علاوہ، H1 2024 میں، اپنے عوامی نشریاتی پلیٹ فارمز پر موجود مواد کے حوالے سے، ہم نے خودکار ٹولز کے استعمال سے Snapchat پر تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں:
* جیسا کہ تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں بتایا گیا ہے، ایسے اکاؤنٹس جو بار بار یا انتہائی سنگین طور پر تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی خلاف ورزی کرتے ہیں انہیں ہمارے عوامی نشریاتی پلیٹ فارمز پر دی گئی سفارشات سے عارضی یا مستقل طور پر نااہل قرار دیا جا سکتا ہے۔ ہم اس کارروائی کا اپنی پیشگی نگرانی کی کوششوں کے تناظر میں اطلاق کرتے ہیں۔
اس کے علاوہ، H1 2024 میں، ہم نے خودکار ٹولز کے استعمال سے سنیپ چیٹ پر اپنی تشہیری پالیسیوں کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں:
مواد کی نگرانی کے ذمہ دار افراد کو تربیت اور معاونت فراہم کرنے کے لیے کیے گئے اقدامات
ہماری مواد کی ماڈریشن کی ٹیمیں ہماری سنیپ چیٹ کمیونٹی کی حفاظت میں مدد کے لیے ہماری مواد کی ماڈریشن کی پالیسیوں کا اطلاق کرتی ہیں۔ انہیں کثیر ہفتوں کی مدت کے دوران تربیت دی جاتی ہے، جس کے دوران ٹیم کے نئے ممبرز کو Snap کی پالیسیوں، ٹولز اور اضافے کے طریقہ کار سے آگاہ کیا جاتا ہے۔ ہماری ماڈریشن کی ٹیمیں اپنے ورک فلو سے متعلق تازہ ترین تربیت میں باقاعدگی سے شرکت کرتی ہیں، خاص طور پر جب ہمیں پالیسی سے متعلق اور سیاق و سباق سے متعلق کیسز کا سامنا کرنا پڑتا ہے۔ ہم ہنر کو بہتر بنانے والے پروگرامز اور سرٹیفیکیشن سیشن بھی چلاتے ہیں، اور کوئز کا انتظام کرتے ہیں، تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹر موجودہ ہیں اور تمام تازہ ترین پالیسیوں کی تعمیل کرتے ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کے رجحانات سامنے آتے ہیں، تو ہم فوری طور پر پالیسی کی وضاحت جاری کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہیں۔
ہم اپنی مواد کی ماڈریشن کی ٹیموں کو نمایاں معاونت اور وسائل فراہم کرتے ہیں، جن میں ملازمت کے دوران فلاح و بہبود کی معاونت اور ذہنی صحت کی خدمات تک آسان رسائی شامل ہے۔
وہ صارفین جن کے اکاؤنٹ ہماری حفاظتی ٹیموں نے کمیونٹی کی ہدایات کی خلاف ورزیوں (بشمول غیر قانونی مواد اور سرگرمیوں کا) کی وجہ سے لاک کردہ ہیں وہ لاک کردہ اکاؤنٹ کی اپیل جمع کروا سکتے ہیں یوزرز مواد کی ماڈریشن کے کچھ فیصلوں کے خلاف بھی اپیل کر سکتے ہیں۔
رپورٹنگ کی مدت (H1 2024) کے دوران، سنیپ نے یورپی یونین میں اپنے اندرونی شکایات سے نمٹنے کے نظام کے ذریعے جمع کروائے گئے درج ذیل اپیلوں پر کارروائی کی (بشمول اکاؤنٹ کے لاک اور مواد کی سطح پر ماڈریشن کے فیصلے دونوں کے خلاف اپیل) درج ذیل ہے:
معیار پر مبنی وضاحت اور مقاصد
جیسا کہ اوپر سیکشن (b)3 میں بیان کیا گیا ہے، ہم خودکار ٹولز کو متعین کرتے ہیں تاکہ پیشگی طور پر ہماری شرائط اور پالیسیوں کی خلاف ورزیوں کا پتہ لگایا جا سکے، اور بعض صورتوں میں ان کی خلاف ورزیوں کو نافذ کیا جا سکے۔ اس میں ہیش میچنگ کے ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، بدعنوان زباندانی کا پتہ لگانے والے ماڈلز (جو توہین آمیز مطلوبہ الفاظ اور ایموجی کی شناخت اور باقاعدگی سے تازہ ترین فہرست پر مبنی مواد کا پتہ لگانے اور مسترد کرتے ہیں)، اور مصنوعی ذہانت / مشین لرننگ ٹیکنالوجی شامل ہے۔ ہمارے خودکار ٹولز کو ہماری کمیونٹی کی ہدایات کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے (جو دیگر چیزوں کے ساتھ ساتھ غیر قانونی مواد کی ممانعت کرتے ہیں) اور جہاں قابل اطلاق ہو وہاں اہلیت اور تشہیری پالیسیوں کی سفارش کے لیے ہمارے مواد کی ہدایات کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے۔
جب ہمارے خودکار آلات ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتا لگاتے ہیں، تو وہ یا تو ہماری پالیسیوں کے مطابق خودکار کارروائی کرتے ہیں، یا پھر انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔
درستگی اور نقص کی ممکنہ شرح کے اشارے، جسے رکن ریاست کی جانب سے توڑا گیا
ہم اپنے خودکار ٹولز کی جانب سے پراسیس کیے گئے ٹاسکس کے بے ترتیب نمونوں کو منتخب کر کے اور انہیں ہماری انسانی نگرانی کی ٹیموں کی جانب سے دوبارہ جائزے کے لیے جمع کروا کر اپنے خودکار نگرانی ٹولز کی درستگی اور نقص کی ممکنہ شرح کے اشارے پر نظر رکھتے ہیں۔ درستگی کی شرح ان بے ترتیب نمونوں سے جمع کردہ ٹاسکس کی فیصد ہے جن کی تصدیق ہمارے انسانی منتظمین کی جانب سے دوبارہ جائزے پر کی گئی تھی۔ نقص کی شرح %100 اور اوپر بیان کردہ حساب کتاب کی درستگی کی شرح کے درمیان فرق ہے۔
نمونے کی بنیاد پر، H1 2024 میں، تمام زمروں کی خلاف ورزیوں میں استعمال ہونے والے خودکار ذرائع کی درستگی کی شرح تقریباً 93 فیصد اور نقص کی شرح تقریباً 7 فیصد تھی۔
ہم عام طور پر Snapchat پر جس مواد کی نگرانی کرتے ہیں اس کی زبان کو ٹریک نہیں کرتے اور اس طرح ہم رکن ریاستوں کی ہر سرکاری زبان میں اپنے خودکار نگرانی کے ٹولز کی درستگی اور نقص کی شرح کو فراہم نہیں کر سکتے ہیں۔ اس معلومات کے متبادل کے طور پر، ہم ہر رکن ریاست سے شروع ہونے والے مواد کی درستی اور نقص کی شرح کا تفصیل ذیل میں فراہم کرتے ہیں۔
حفاظتی اقدامات
ہم بنیادی حقوق پر خودکار نگرانی کے ٹولز کے ممکنہ اثرات سے واقف ہیں، اور ہم اس اثر کو کم سے کم کرنے میں مدد کے لیے حفاظتی اقدامات اپناتے ہیں۔
ہمارے خودکار مواد کی نگرانی کے ٹولز کے سنیپ چیٹ پر تعین کرنے سے قبل ٹیسٹ کیا جاتا ہے۔ ماڈلز کی کارکردگی کے لیے آف لائن جانچ کی جاتی ہے اور A/B ٹیسٹنگ کے ذریعے انہیں تعینات کیا جاتا ہے تاکہ پیداوار میں مکمل طور پر مرحلہ وار ہونے سے پہلے ان کی مناسب کارکردگی کو یقینی بنایا جا سکے۔ ہم لانچ سے قبل کوالٹی اشورینس (QA) کے جائزے، لانچ کے جائزے، اور جزوی(مرحلہ وار) اجرا کے دوران جاری QA کی درست جانچ سرانجام دیتے ہیں۔
اپنے خودکار ٹولز کی لانچ کے بعد، ہم جاری بنیادوں پر ان کی کارکردگی اور درستی کا جائزہ لیتے ہیں، اور ضرورت کے مطابق ایڈجسٹمنٹ کرتے ہیں۔ اس عمل میں ہمارے انسانی نگرانوں کی جانب سے خودکار کاموں کے نمونوں کا دوبارہ جائزہ لینا شامل ہے تاکہ ان ماڈلز کی شناخت کی جا سکے جن کی درستی کو بہتر بنانے کے لیے ایڈجسٹمنٹ کی ضرورت ہے۔ ہم روزانہ کی بنیاد پر عوامی کہانیوں کے بے ترتیب نمونہ سازی کے ذریعے سنیپ چیٹ پر مخصوص نقصانات کے پھیلاؤ کی بھی نگرانی کرتے ہیں، اور اس معلومات سے مزید بہتری کی گنجائش والی جگہوں کی شناخت کرتے ہیں۔
ہماری پالیسیاں اور نظام ہمارے خودکار ٹولز سمیت مسلسل اور منصفانہ نفاذ کو فروغ دیتا ہے، اور سنیپ چیٹرز
کو نوٹسز اور اپیلوں کے عمل کے ذریعے نفاذ کے نتائج کو بامعنی طور پر متنازع بنانے کا موقع فراہم کرتا ہے جس کا مقصد سنیپ چیٹر کے انفرادی حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔
ہم یہ کوشش کرتے ہیں کہ اپنے خودکار مواد کی نگرانی کے ٹولز کو مسلسل بہتر بنائیں تاکہ ان کی درستی کو بہتر بنایا جا سکے اور اپنی پالیسیوں کے مسلسل اور منصفانہ نفاذ کی معاونت کی جا سکے۔
رپورٹنگ کی مدت (H1 2024) کے لیے، ڈی ایس اے کے آرٹیکل 21 کے مطابق عدالت سے باہر تنازعات کے تصفیے کے اداروں کو باضابطہ طور پر تصدیق شدہ تنازعات کے تصفیے کے لیے جمع کروائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تکمیل کے اوسط وقت، یا تنازعات کے تناسب کو ظاہر کرنے سے قاصر ہیں جہاں سنیپ نے عدالت سے باہر تنازعات کے تصفیے کے ادارے کے فیصلوں پر عملدرآمد کیا۔
نوٹ کریں کہ، H1 2024 میں، ہمیں ایسے ادارے کو جمع کروائے گئے تنازعات کے دو (2) نوٹسز موصول ہوئے جو ڈی ایس اے کے آرٹیکل 21 کے تحت عدالت سے باہر تنازعات کے تصفیے کے ادارے کے طور پر تصدیق طلب کرتے ہیں۔ ہم نے ان تنازعات کو مذکورہ بالا گنتی میں شامل نہیں کیا کیونکہ جس ادارے نے یہ تنازعات بھیجے ہیں وہ ہماری درخواست پر ان کے تصدیق کے اسٹیٹس کی تصدیق کرنے سے قاصر تھا۔
آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: ان اکاؤنٹس کو معطل کر دیا گیا ہے جو بار بار واضح طور پر غیر قانونی مواد فراہم کرتے ہیں
جیسا کہ ہماری Snapchat کی نگرانی، نفاذ اور اپیلوں کی وضاحت میں بیان کیا گیا ہے، کہ جن اکاؤنٹس کو ابتدائی طور پر ہم ہماری کمیونٹی کی ہدایات کی خلاف ورزی میں ملوث پاتے ہیں (بشمول واضح طور پر غیر قانونی مواد کی فراہمی کے ذریعے) اور شدید نقصان کے حامل قرار دیتے ہیں انہیں فوری طور پر غیر فعال کر دیا جاتا ہے۔ ہماری کمیونٹی کی ہدایات کی دیگر خلاف ورزیوں پر، Snap عام طور پر تین حصوں پر مشتمل نفاذ کے عمل کا اطلاق کرتا ہے:
پہلا مرحلہ: خلاف ورزی کرنے والے مواد کو ہٹا دیا جاتا ہے۔
دوسرا مرحلہ: سنیپ چیٹر کو ایک نوٹیفکیشن موصول ہوتا ہے، جس میں یہ بتایا جاتا ہے کہ انہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی ہے، اس لیے ان کا مواد ہٹا دیا گیا ہے، اور بار بار کی خلاف ورزیوں کے نتیجے میں ان کا اکاؤنٹ معطل کیے جانے سمیت اضافی نفاذ کی کارروائی کی جائے گی۔
تیسرا مرحلہ: ہماری ٹیم سنیپ چیٹر کے اکاؤنٹ پر اسٹرائیک بھیجتی ہے۔
یورپی یونین میں H1 2024 میں عائد کردہ اسٹرائیکس (یعنی انتباہات) اور لگائے جانے والے لاکس کی تعداد سے متعلق معلومات اوپر سیکشن (a)3 اور (b)3 میں حاصل کی جا سکتی ہیں۔
آرٹیکل 23.2 کے تحت عائد کردہ معطلیاں: ان افراد، اداروں اور شکایات پر کارروائی معطل کر دی گئی ہے جو بار بار ایسے نوٹسز یا شکایات جمع کرواتے ہیں جو واضح طور پر بے بنیاد ہوتے ہیں۔
ہماری اندرونی تعریف کے مطابق "ظاہر طور پر بے بنیاد" نوٹسز اور شکایات، اور ہماری اندرونی حد بندیوں کے مطابق جو ہم ایسی نوٹسز اور شکایات کے بار بار جمع کروانے کو سمجھتے ہیں، H1 2024 میں DSA آرٹیکل 23.2 کے تحت نوٹسز اور شکایات کی کارروائی پر لگائی گئی معطلیوں کی تعداد درج ذیل ہے:
ہماری مواد کی نگرانی کی ٹیمیں 24/7 دنیا بھر میں کام کرتی ہیں، جو ہمیں اپنی کمیونٹی کو محفوظ رکھنے میں معاونت کے قابل بناتی ہیں۔ درج ذیل میں 31 دسمبر 2024 سے ماڈریٹر کی زبان کی خصوصیات کے مطابق ہمارے انسانی ماڈریشن کے وسائل کی تفصیل دی گئی ہے (نوٹ کریں کہ کچھ ماڈریٹر ایک سے زیادہ زبانوں میں مہارت رکھتے ہیں)
اوپر دیے گئے ٹیبل میں مواد کی نگرانی کے لیے وقف کردہ وہ تمام انسانی وسائل شامل ہیں جو 30 جون 2024 تک یورپی یونین کی رکن ریاستوں کی سرکاری زبانوں کی معاونت کرتے ہیں۔ جہاں ہمیں اضافی لسانی معاونت کی ضرورت ہو، تو وہاں ہم ترجمے کی سروسز کا استعمال کرتے ہیں۔
اس معیاری ملازمت کی تفصیل کے ساتھ نگرانوں کی بھرتی کی جاتی ہے جس میں (حسبِ ضرورت) لسانی تقاضے شامل ہوتے ہیں۔ لسانی تقاضے یہ بتاتے ہیں کہ امیدوار کو زبان کی تحریری اور زبانی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور ابتدائی سطح کے عہدوں کے لیے کم از کم ایک سال کا تجربہ ہونا چاہیے۔ اہل ہونے کے لیے امیدواروں کا تعلیمی اور پس منظری تقاضوں کو پورا کرنا ضروری ہے۔ امیدواروں کو اس ملک یا خطے کے مواد کی نگرانی کے موجودہ واقعات کی تفہیم کا بھی مظاہرہ کرنا ہو گا جس کی وہ معاونت کریں گے۔
Snap کی مواد کے نگرانوں کو فراہم کی جانے والی تربیت اور معاونت سے متعلق معلومات کے لیے اوپر دیکھیں، جو DSA کے آرٹیکل 15(1)(c) کے تحت الگ سے ضروری ہے اور اسی وجہ سے سیکشن 3(b)، یعنی آخری ذیلی حصے میں شامل کی گئی ہے جس کا عنوان یہ ہے: "مواد کی نگرانی کے انچارج افراد کو تربیت اور معاونت کی فراہمی کے لیے اٹھائے گئے اقدامات"
جاری کردہ: 31 جنوری 2025
تازہ ترین اطلاع : 31 جنوری 2025
یہ رپورٹ 1 جنوری 2024 سے شروع ہونے والے اور 31 دسمبر 2024 کو ختم ہونے والے عرصے کا احاطہ کرتی ہے۔
پس منظر
ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEA) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا Snap کی اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔
ہم جن ٹیکنالوجیز کو استعمال کرتے ہیں ان میں شامل ہیں (ا) ٖPhotoDNA کی مضبوط ہیش میچنگ اور Google کی چائلڈ سیکسول ابیوز امیجری (CSAI) میچ بالترتیب CSEA کی معلوم غیر قانونی تصاویر اور ویڈیوز کی شناخت کے لیے؛ اور (ب) Google کی کانٹینٹ سیفٹی API، "نیوربیفور ہیشڈ" CSEA امیجری کی شناخت کے لیے۔ قانون کے مطابق ہم CSEA کی منظر کشی کی رپورٹ یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC، اس کے نتیجے میں، ضرورت کے مطابق، امریکہ اور دیگر ممالک میں قانون نافذ کرنے والے اداروں کے ساتھ ہم آہنگی کرتا ہے۔
رپورٹ
نیچے دیئے گئے چارٹ میں 2024 کے دوران CSEA کی منظر کشی کے لیے یورپی یونین کے صارفین کے خلاف فعال کھوج اور اس کے نتیجے میں نفاذ کے بارے مواد شامل ہے۔ (نوٹ، 2024 میں مذکورہ پروایکٹو اسکیننگ کے نتیجے میں کچھ نفاذ ابھی بھی اپیل کے تابع ہوسکتے ہیں جب تک یہ رپورٹ مرتب کی گئی تھی، اور اس وجہ سے ذیل میں اپیلوں اور بحالی کے اعداد و شمار میں ظاہر نہیں ہوں گے۔)
*یہ زمرہ Snap کی ان کمیونٹی کی ہدایات کی خلاف ورزیوں کو رپورٹ کرتا ہے جو بچوں کے جنسی استحصال پر پابندی عائد کرتی ہیں۔ وہ مواد جو پیشگی طور پر دریافت کیا گیا ہو اور Snap کی کمیونٹی کی ہدایات کی دیگر خلاف ورزیوں پر نافذ کیا گیا ہو اسے یہاں رپورٹ نہیں کیا جاتا۔
**اگر ہمیں یہ معلوم ہو جائے کہ نفاذ کے وقت ہماری پالیسیوں کی بنیاد پر کوئی اقدام غلط تھا یا اگر ہمیں معلوم ہو جائے کہ اسے ابتدائی سطح پر صحیح طور سے نافذ کیا گیا تھا، لیکن اپیل کا جائزہ لیتے وقت ہماری قابل اطلاق پالیسی تبدیل ہو گئی ہو تو اسے کالعدم قرار دیا جا سکتا ہے۔
مواد کی نگرانی کے حفاظتی اقدامات
CSEA میڈیا اسکیننگ کے اطلاق کردہ حفاظتی اقدامات کو یورپی یونین کی درج بالا DSA کی شفافیت کی رپورٹ میں بیان کیا گیا ہے۔
شائع کردہ: 17 جون 2024
آخری بار اپ ڈیٹ کردہ: 17 جون 2024
یہ شفافیت کی رپورٹ یورپی پارلیمان اور یورپی یونین کی کونسل کے ضابطہ 2021/784 کے آرٹیکل (2)7 اور (3)7 کے مطابق شائع کی گئی ہے، جو دہشت گردی کے مواد کے آن لائن پھیلاؤ سے متعلق ہے (the Regulation)۔ یہ یکم جنوری - 31 دسمبر 2023 کی رپورٹنگ کی مدت کا احاطہ کرتا ہے۔.
آرٹیکل (a)(3)7: دہشت گردی کے مواد کی شناخت اور ان تک رسائی کو ہٹانے یا ان کو غیر فعال کرنے کے حوالے سے ہوسٹنگ سروس فراہم کرنے کے اقدامات کے بارے میں معلومات
آرٹیکل (b)(3)7: ہوسٹنگ سروس فراہم کرنے والے کے اقدامات کے بارے میں معلومات، جو اس مواد کے دوبارہ آن لائن ظاہر ہونے سے متعلق ہیں جسے پہلے ہٹا دیا گیا تھا یا جس تک رسائی کو اس بنیاد پر معطل کیا گیا تھا کہ اسے دہشت گردی پر مبنی مواد سمجھا گیا تھا، خصوصاً اُن معاملات میں جہاں خودکار آلات استعمال کیے گئے ہوں
دہشت گردوں، دہشت گردی کی تنظیموں، اور پرتشدد انتہا پسندوں کے لیے Snapchat کے استعمال کی ممانعت ہے۔ ہمارے کمیونٹی کی ہدایاتکے تحت ایسا مواد ممنوع ہے جو دہشت گردی یا دیگر پرتشدد اور مجرمانہ افعال کی وکالت، ترویج، تعریف یا فروغ کرے۔ صارفین ہمارے ان ایپ رپورٹنگ مینو اور ہماری معاونت کی ویب سائٹ کے ذریعے ایسے مواد کی رپورٹ کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرتا ہے۔ ہم پیشگی کھوج کے طریقے بھی استعمال کرتے ہیں تاکہ عوامی سطحوں جیسے Spotlight اور ڈسکور پر خلاف ورزی کرنے والے مواد کی نشاندہی کی جا سکے۔
اس سے قطع نظر کہ ہمیں کسی بھی طرح کی خلاف ورزی کے بارے میں معلوم ہو جائے، ہماری حفاظتی ٹیمز خودکار اور انسانی نگرانی کے امتزاج کے ذریعے شناخت شدہ مواد کا فوری جائزہ لیتی ہیں اور نفاذ کے فیصلے کرتی ہیں۔ نفاذ کے اقدامات میں مواد کو ہٹانا، خلاف ورزی کرنے والے اکاؤنٹ کو متنبہ کرنا یا اسے غیر فعال کرنا اور اگر ضرورت پڑی تو قانون نافذ کرنے والے اداروں کو اکاؤنٹ کی رپورٹ کرنا شامل ہو سکتا ہے۔ Snapchat پر دہشت گردی یا دیگر پرتشدد انتہا پسندانہ مواد کے دوبارہ نمودار ہونے سے روکنے کے لیے، قانون نافذ کرنے والے اداروں کے ساتھ کام کرنے کے علاوہ، ہم خلاف ورزی کرنے والے اکاؤنٹ سے منسلک ڈیوائس کو بلاک کرنے کے لیے اقدامات کر تے ہیں اور یوزر کو دوسرا Snapchat اکاؤنٹ بنانے سے روکتے ہیں۔
دہشت گردی سے متعلق مواد کی نشاندہی اور اسے ہٹانے کے ہمارے اقدامات کی مزید تفصیلات ہماری وضاحتی دستاویز برائے نفرت انگیز مواد، دہشت گردی اور پرتشدد انتہا پسندی اور ہماری وضاحتی دستاویز برائے ماڈریشن، نفاذ اور اپیلوں میں دستیاب ہیں۔
آرٹیکل (c)(3)7: دہشت گردی سے متعلق اُن مواد کی تعداد جو ہٹا دیے گئے یا جن تک رسائی کو ہٹانے کے احکامات یا مخصوص اقدامات کے بعد غیر فعال کر دیا گیا، اور ایسے ہٹانے کے احکامات کی تعداد جن میں مواد نہ تو ہٹایا گیا اور نہ ہی آرٹیکل (7)3 کی پہلی شق اور آرٹیکل (8)3 کی پہلی شق کے مطابق رسائی معطل کی گئی، نیز اس کی وجوہات بھی۔
رپورٹنگ کی مدت کے دوران، Snap کو ہٹانے کا کوئی حکم موصول نہیں ہوا، اور نہ ہی ہمیں ضابطے کے آرٹیکل 5 کے تحت کسی مخصوص اقدامات کو نافذ کرنے کی ضرورت تھی۔ اس کے مطابق، ہمیں ضابطے کے تحت نفاذ کی کارروائی کی ضرورت نہیں تھی۔
مندرجہ ذیل ٹیبل اُن نفاذی اقدامات کی وضاحت کرتا ہے جو یوزرز کی شکایات اور پیشگی کھوج کی بنیاد پر ایسے مواد اور اکاؤنٹس کے خلاف کیے گئے، دونوں یورپی یونین اور دنیا کے دیگر خطوں میں، جنہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی جو دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد پر لاگو ہوتے ہیں۔
آرٹیکل (d)(3)7: آرٹیکل 10 کے مطابق ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے نمٹائے جانے والی شکایات کی تعداد اور نتائج
آرٹیکل (g)(3)7: ان مقدمات کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ نے مواد کے فراہم کنندہ کی شکایت کے بعد مواد یا مواد تک رسائی کو بحال کیا
جیسے اوپر بیان کیا گیا ہے کہ رپورٹنگ کی مدت کے دوران ہمیں ضابطے کے تحت نفاذ کی کوئی کارروائی درکار نہیں تھی، لہٰذا ہم نے ضابطے کے آرٹیکل 10 کے مطابق نہ ہی کسی شکایت کو نمٹایا اور نہ ہی اس سے متعلق کوئی بحالی کی ہے۔
درج ذیل ٹیبل میں یورپی یونین اور دنیا کے دیگر مقامات میں اپیلوں اور بحالی سے متعلق معلومات موجود ہیں جن میں ہماری کمیونٹی کی ہدایات کے تحت نافذ کردہ دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد شامل ہیں۔
آرٹیکل (e)(3)7: ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے متعارف کروائے گئے انتظامی یا عدالتی جائزے کی کارروائی کی تعداد اور نتائج
آرٹیکل (f)(3)7: ان مقدمات کی تعداد جن میں انتظامی یا عدالتی جائزے کی کارروائی کے نتیجے میں ہوسٹنگ سروس کے فراہم کنندہ کو مواد کی بحال کرنے یا اس تک رسائی کی ضرورت تھی
کیونکہ جیسا کہ اوپر بیان کیا گیا ہے کہ رپورٹنگ کی مدت کے دوران ہمیں ضابطے کے تحت نفاذ کی کوئی کارروائی درکار نہیں تھی، لہٰذا ہمارے پاس انتظامی یا عدالتی جائزے کی کوئی کارروائی موجود نہیں تھی، اور نہ ہی ہم پر اس طرح کی کارروائی کے نتیجے میں مواد کو بحال کرنے کا کوئی تقاضہ تھا۔
یہ رپورٹس Snap کی ذمہ داریوں کی تعمیل میں تیار کی گئی ہیں جو ضابطہ (EU) 2022/2065 کے آرٹیکل 34 اور 35 کے تحت ہیں، اور اس میں ہم نے Snapchat کے آن لائن پلیٹ فارمز کے ڈیزائن، فعالیت، اور استعمال سے جڑے نظام کے خطرات کے سالانہ جائزے کے نتائج، ان کے اندازے کے طریقہ کار، اور خطرات کو کم کرنے کے لئے اٹھائے گئے اقدامات شامل کیے ہیں۔
DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat اگست 2023 (PDF
DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat | اگست 2024 (PDF)
DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat | اگست 2025 (PDF)
یہ رپورٹس ریگولیشن (EU) 2022/2065 کی دفعہ 37 کے تحت Snap کی ذمہ داریوں کی تعمیل کے لیے تیار کی گئی ہیں اور ان میں شامل ہے: (i) ریگولیشن (EU) 2022/2065 کے باب III میں بیان کردہ ذمہ داریوں کے ساتھ Snap کی تعمیل کے آزاد آڈٹ کے نتائج ، اور (ii) اس آزادانہ آڈٹ کی آپریشنل سفارشات پر عمل درآمد کے لیے اٹھائے گئے اقدامات۔
DSA کی آزاد آڈٹ رپورٹ | Snapchat | اگست 2024 (PDF) اور DSA آڈٹ کے نفاذ کی رپورٹ | Snapchat | ستمبر 2024 (PDF)
DSA کی آزاد آڈٹ رپورٹ | Snapchat | اگست 2024 (PDF) اور DSA آڈٹ کے نفاذ کی رپورٹ | Snapchat | ستمبر 2025 (PDF)
EU VSP کوڈ آف پریکٹس
Snap ایک "ویڈیو شیئرنگ پلیٹ فارم سروس" ("VSP") کا فراہم کنندہ ہے جو آرٹیکل 1(1)(aa) AVMSD کے مطابق ہے۔ اس ضابطہ اخلاق ("ضابطہ") کو اس بات کی وضاحت کے لیے تیار کیا گیا ہے کہ Snap ڈچ میڈیا ایکٹ ("DMA") اور ڈائریکٹیو (EU) 2010/13 (جیسا کہ ڈائریکٹیو (EU) 2018/1808 کے ذریعے ترمیم شدہ ہے، جسے "آڈیوویژول میڈیا سروسز ڈائریکٹو" یا "AVMSD" کہا جاتا ہے) کے تحت بطور ویڈیو شیئرنگ پلیٹ فارم (VSP) اپنی ذمہ داریوں پر کیسے عمل کرتا ہے۔
یہ ضابطہ پورے یورپی یونین کے ساتھ ساتھ یورپی اقتصادی علاقے پر بھی قابل اطلاق ہے۔
EU VSP ضابطہ اخلاق | Snapchat | مارچ 2025 (PDF)
بلغاریہ | کروشین | چیک | ڈینش | ڈچ | استونین | فینیش | فرانسیسی | جرمن | یونانی | ہنگری | آئرش | اطالوی | لٹوین | لتھوانیائی | مالٹائی | پولش | پرتگالی | رومانیہ | سلوواک | سلووینیا | ہسپانوی | سویڈش