Snap Values
یورپی یونین

ہمارے یورپی یونین (EU) کے شفافیت کے صفحے پر خوش آمدید، جہاں ہم ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویزوئل میڈیا سروس (AVMSD)، ڈچ میڈیا ایکٹ (DMA) اور آن لائن دہشت گردی کے مواد سے متعلق ضابطے (TCO) پر EU سے متعلق معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ ان شفافیت کی رپورٹس کا تازہ ترین ورژن en-US لوکیل میں تلاش کیا جا سکتا ہے۔

قانونی نمائندہ

Snap Group Limited نے DSA کے مقاصد کے لیے Snap B.V. کو اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لیے [at] snapchat.com پر، AVMSD اور DMA کے لیے vsp-enquiries [at] snapchat.com پر، TCO کے لیے tco-enquiries [at] snapchat.com، ہماری سپورٹ سائٹ یہاں کے ذریعے نمائندے سے رابطہ کر سکتے ہیں، یا اس پر کر سکتے ہیں:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

اگر آپ نفاذ قانون کا ادارہ ہیں، تو براہ کرم یہاں بتائے گئے اقدامات کی پیروی کریں۔

ہم سے رابطہ کرتے وقت براہ کرم انگریزی یا ڈچ زبان میں مواصلت کریں۔

انضباطی حکام

DSA کے لیے، ہم یورپی کمیشن اور نیدرلینڈ کی اتھارٹی برائے صارفین اور مارکیٹس (ACM) ذریعے انضباط یافتہ ہیں۔ AVMSD اور DMA کے لیے، ہم ڈچ میڈیا اتھارٹی (CvdM) کے ذریعے انضباط یافتہ ہیں۔ TCO کے لیے، ہم آن لائن دہشت گردی کے مواد اور بچوں کے جنسی استحصال کے مواد (ATKM) کی روک تھام کے لیے نیدرلینڈ کی اتھارٹی کے ذریعے انضباط یافتہ ہیں۔

DSA کی شفافیت کی رپورٹ

شائع شدہ: 28 فروری 2025

آخری بار اپ ڈیٹ کیا گیا: 23 اپریل 2025 (ورژن 2.0)

رپورٹنگ سائیکل: 1 جولائی 2024 - 31 دسمبر 2024

ہم یہ رپورٹ یورپی یونین (EU) کے ڈیجیٹل سروسز ایکٹ (EU) 2022/2065) (“DSA”) کے آرٹیکل 15، 24 اور 42 میں فراہم کردہ شفافیت کی رپورٹنگ کے تقاضوں کے مطابق شائع کرتے ہیں۔ اس رپورٹ میں موجود معلومات 1 جولائی 2024 سے 31 دسمبر 2024 (H2 2024) تک کی رپورٹنگ کی مدت کے لیے ہے۔

1. اوسط ماہانہ فعال وصول کنندگان
(DSA کے آرٹیکلز 24.2 اور 42.3)

1 جنوری 2025 سے، ہمارے پاس یورپی یونین میں ہماری Snapchat ایپ کے 93.7 ملین ماہانہ فعال وصول کنندگان (“AMAR”) ہیں۔ اس کا مطلب یہ ہے کہ، 31 دسمبر 2024 کو ختم ہونے والی 6 ماہ کی مدت کے دوران اوسطاً، یورپی یونین میں 93.7 ملین رجسٹرڈ صارفین نے کسی دیے گئے مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔

رکن ریاست کی جانب سے اس اعداد و شمار کو درج ذیل طور پر بیان کیا گیا ہے:

ان اعداد و شمار کو موجودہ DSA کے تقاضوں کی تعمیل کے حوالے سے حساب میں لایا گیا ہے اور ان پر صرف DSA کے مقاصد کے لیے انحصار کیا جانا چاہیے۔ وقت کے ساتھ ساتھ، اندرونی پالیسیوں، ریگولیٹری ہدایات، اور ٹیکنالوجی میں ہونے والی تبدیلیوں کے پیشِ نظر، ہم نے اس اعداد و شمار کے حساب کے طریقے میں تبدیلی کی ہے، اسی لیے مختلف ادوار کے اعداد و شمار کا موازنہ کرنا مناسب نہیں ہے۔ یہ دیگر فعال یوزر کے اعداد و شمار کے لیے استعمال ہونے والے حساب کتاب سے بھی مختلف ہو سکتے ہیں جسے ہم دیگر مقاصد کے لیے شائع کرتے ہیں۔

2. ممبر اسٹیٹ اتھارٹی کی درخواستیں
(DSA آرٹیکل 15.1(a))

ا) غیر قانونی مواد کے خلاف کارروائی کے احکامات


اس رپورٹنگ کی مدت (H1 2025) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے خاص طور پر شناخت شدہ غیر قانونی مواد کے خلاف کارروائی کے لیے صفر (0) احکامات موصول ہوئے ہیں، جن میں DSA آرٹیکل 9 کے مطابق جاری کیے احکامات بھی شامل ہیں۔ 

چونکہ یہ تعداد صفر (0) ہے، لہٰذا ہم متعلقہ غیر قانونی مواد کی قسم یا آرڈر جاری کرنے والی رکن ریاستوں کی تفصیل، یا آرڈر وصولی کی تصدیق یا ان پر عمل درآمد کے لیے اوسط وقت فراہم نہیں کر سکتے

ب) معلومات فراہم کرنے کے احکامات

اس رپورٹنگ کی مدت (H2 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے یوزر کے ڈیٹا کے افشا کے حوالے سے درج ذیل احکامات موصول ہوئے ہیں، جن میں DSA کے آرٹیکل 10 کے تحت جاری کی گئی ہنگامی افشا کی درخواستیں بھی شامل ہیں:

متعلقہ حکام کو ان احکامات کی وصولی سے متعلق مطلع کرنے کے لیے اوسط وقت 0 منٹ تھا — ہم اس کی وصولی کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔

ان آرڈرز پر عمل درآمد کرتے ہوئے معلومات فراہم کرنے کااوسط درمیانی وقت تقریباً 12 دن تھا۔ یہ میٹرک اس وقت کی مدت کی عکاسی کرتا ہے جب Snap کو آرڈر موصول ہونے سے لے کر جب Snap اس معاملے کو مکمل طور پر حل شدہ سمجھتا ہے۔ انفرادی معاملات میں یہ مدت کسی حد تک اس رفتار پر بھی منحصر ہو سکتی ہے جس کے ساتھ متعلقہ رکن ریاست کا ادارہ Snap کی جانب سے آرڈر کی کارروائی کے لیے ضروری وضاحتوں کی کسی بھی درخواست کا جواب دیتا ہے۔

نوٹ کریں کہ ہم متعلقہ غیر قانونی مواد کی قسم کے مطابق درجہ بندی کی گئی معلومات فراہم کرنے کے لیے اوپر کے آرڈرز کی تفصیل فراہم نہیں کرتے ہیں کیونکہ یہ معلومات عام طور پر ہمیں دستیاب نہیں ہیں۔

3. مواد کی نگرانی 


Snapchat پر موجود تمام مواد کو ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کے مطابق ہونا ہو گا۔ کچھ مواد کو اضافی ہدایات اور پالیسیوں کی بھی پاسداری کرنا ہو گی۔ مثال کے طور پر، ہمارے عوامی نشریاتی پلیٹ فارمز پر وسیع تر ناظرین کو الگورتھمک تجویز کے لیے جمع کردہ مواد کو تجویز کی اہلیت سے متعلق ہماری مواد کی ہدایات میں موجود اضافی اور اعلیٰ معیارات پر پورا اترنا ضروری ہے، جبکہ اشتہارات کو ہماری تشہیری پالیسیوں کی تعمیل کرنا ضروری ہے۔

ہم ٹیکنالوجی اور انسانی جائزے کا استعمال کرتے ہوئے ان پالیسیوں کو نافذ کرتے ہیں۔ ہم صارفین اور غیر صارفین کے لیے غیر قانونی مواد اور سرگرمیوں سمیت خلاف ورزیوں کی رپورٹ کرنے کے لیے میکانزم فراہم کرتے ہیں۔براہِ راست ایپ میں یا ہماری ویب سائٹ کے ذریعے۔ ہم نقصان کا پتہ لگانے کی فعال ٹیکنالوجی بھی استعمال کرتے ہیں۔ پیشگی شناخت کے میکانیزم اور رپورٹس ایک جائزے کا مطالبہ کرتی ہیں، جو بعد خودکار ٹولز اور انسانی منتظمین کے امتزاج سے فائدہ اٹھا سکتا ہے تاکہ ہماری پالیسیوں کے مطابق مناسب کارروائی کی جا سکے۔

ہم درج ذیل H2 2024 میں اپنے مواد کی نگرانی کے بارے میں مزید معلومات فراہم کرتے ہیں۔

a) نوٹسز جو DSA آرٹیکل 16 کے مطابق جمع کروائے گئے
(DSA آرٹیکل (b)15.1)

DSA کے آرٹیکل 16 کے مطابق، Snap نے ایسے میکانزم کو نافذ کیا ہے جو صارفین اور غیر صارفین کو Snap کو Snapchat پر ان معلومات کی مخصوص اشیاء کی موجودگی سے مطلع کرنے کے قابل بناتا ہے جن کو وہ غیر قانونی مواد سمجھتے ہیں۔ وہ مخصوص مواد یا اکاؤنٹس کی رپورٹ کر سکتے ہیں، یا تو براہ راست Snapchat ایپ میں یا ہماری ویب سائٹ پر۔ 

ایپ کے اندر یا ہماری ویب سائٹ کے ذریعے نوٹسز جمع کروانے میں، رپورٹر ان اختیارات کی فہرست سے رپورٹنگ کی مخصوص وجہ کا انتخاب کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات میں درج کردہ خلاف ورزیوں کے زمرے کی عکاسی کرتے ہیں (مثال کے طور پر، نفرت انگیز تقریر، منشیات)۔ ہماری کمیونٹی کی ہدایات ایسے مواد اور سرگرمیوں پر پابندی عائد کرتی ہیں جو یورپی یونین میں غیر قانونی ہیں، لہٰذا ہماری رپورٹنگ کی وجوہات بڑی حد تک یورپی یونین میں غیر قانونی مواد کے مخصوص زمرے کی عکاسی کرتی ہیں۔ تاہم، اگر یورپی یونین کا رپورٹر اس حد تک یہ سمجھتا ہے کہ جو مواد یا اکاؤنٹ وہ رپورٹ کر رہا ہے وہ ان وجوہات کی بنا پر غیر قانونی ہے جو ہمارے رپورٹنگ مینو میں خاص طور پر بیان نہیں کی گئی ہیں، تو وہ اسے "دیگر غیر قانونی مواد" کے طور پر رپورٹ کر سکتا ہے اور اسے یہ بیان کرنے کا موقع دیا جاتا ہے کہ اسے کیوں یقین ہے کہ جو مواد وہ رپورٹ کر رہے ہیں وہ غیر قانونی ہے۔ 

رپورٹنگ کی مدت (H2 2024) کے دوران، ہمیں یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ درج ذیل نوٹسز موصول ہوئے ہیں:

ذیل میں، ہم یہ تفصیل فراہم کرتے ہیں کہ ان نوٹسز پر کس طرح کارروائی کی گئی – یعنی ایسا انسانی جائزے سمیت کسی عمل کے ذریعے ہوا یا صرف خودکار ذرائع سے ایسا کیا گیا: 

اگر جائزے کے بعد، ہم یہ طے کریں کہ رپورٹ کردہ مواد یا اکاؤنٹ ہماری کمیونٹی کی ہدایات (بشمول غیر قانونی ہونے کی وجوہات) کی خلاف ورزی کرتا ہے، تو ہم (i) ناگوار مواد کو ہٹا سکتے ہیں، (ii) متعلقہ اکاؤنٹ ہولڈر کو متنبہ کر سکتے ہیں اور اکاؤنٹ کے خلاف اسٹرائیک بھیج سکتے ہیں، اور/یا (iii) جیسا کہ ہماری Snapchat کی نگرانی، نفاذ اور اپیلوں کی وضاحت میں بیان کیا گیا ہے ہم متعلقہ اکاؤنٹ کو لاک کر سکتے ہیں۔ 

H2 2024 میں، ہم نے یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ نوٹسز موصول ہونے پر درج ذیل نفاذ کے اقدامات کیے ہیں:

H2 2024 میں، "دیگر غیر قانونی مواد" سے متعلق ایسی تمام رپورٹس جن پر ہم نے کارروائی کی تھی بالآخر ہماری کمیونٹی کی ہدایات کے تحت نافذ کر دی گئی ہیں کیونکہ ہماری کمیونٹی کی ہدایات متعلقہ مواد یا سرگرمی پر پابندی عائد کرتی تھی۔ اس طرح ہم نے ان نفاذ کی کارروائیوں کو مندرجہ بالا جدول میں کمیونٹی کی ہدایات کی خلاف ورزی کے متعلقہ زمرے کے تحت درجہ بند کیا ہے۔

اوپر دیے گئے نفاذ کے علاوہ، ہم Snap کی دیگر قابل اطلاق پالیسیوں اور ہدایات کے مطابق مطلع کردہ مواد پر کارروائی کر سکتے ہیں: 

  • ہمارے عوامی نشریاتی پلیٹ فارم پر موجود مواد کے حوالے سے، اگر ہمیں یہ معلوم ہو جاتا ہے کہ رپورٹ کردہ مواد تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے معیار پر پورا نہیں اترتا، تو ہم الگورتھمک تجویز کے لیے مواد کو مسترد کر سکتے ہیں یا ہم مواد کی اشاعت کو مخصوص ناظرین تک محدود کر سکتے ہیں (اگر مواد تجویز کے لیے ہمارے اہلیتی معیار پر پورا تو اترتا ہے لیکن حساس ہے یا حساس معاملات کے لیے اشارہ نما ہے)۔

H2 2024 میں، ہم نے Snapchat کے عوامی نشریاتی پلیٹ فارمز پر موجود اس مواد کے حوالے سے درج ذیل اقدامات کیے ہیں جو ہمیں یورپی یونین پر رپورٹ کیے گئے تھے، اور جو تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے مطابق تھا:

  • اگر ہمیں یہ معلوم ہو جاتا ہے کہ رپورٹ کردہ اشتہار ہماری تشہیری پالیسیوں کی خلاف ورزی کرتا ہے، تو ہم جائزے کے بعد اسے ہٹا سکتے ہیں۔ 


H2 2024 میں، ہم نے یورپی یونین میں رپورٹ کردہ اشتہارات کے حوالے سے درج ذیل اقدامات کیے ہیں:


b) Snap کے اپنے اقدام سے وابستہ مواد کی ماڈریشن
(آرٹیکل 15.1(c))


DSA کے آرٹیکل 16 کے مطابق جمع کروائے گئے نوٹسز کا جائزہ لینے کے علاوہ، Snap اپنے اقدام سے مواد کی ماڈریشن میں بھی مشغول ہے۔ ذیل میں ہم Snap کے اپنے اقدام سے وابستہ مواد کی ماڈریشن کے بارے میں معلومات فراہم کرتے ہیں، جس میں خودکار ٹولز کے استعمال، مواد کی ماڈریشن کے انچارج افراد کو تربیت اور معاونت کی فراہمی کے لیے اٹھائے گئے اقدامات، اور ان فعال مواد کی ماڈریشن کی کوششوں کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام شامل ہیں۔

  • Snap کے اپنے اقدام سے ماڈریشن میں خودکار ٹولز کا استعمال

ہم خودکار ٹولز کا استعمال کرتے ہیں تاکہ پیشگی طور پر پتہ لگایا جا سکے، اور بعض صورتوں میں ان کے شرائط اور پالیسیوں کی خلاف ورزیوں کو نافذ کیا جا سکے۔ ان ٹولز میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، Google مواد کی حفاظت کا API، بدعنوانی کا پتہ لگانے والے ماڈلز (جو توہین آمیز مطلوبہ الفاظ اور ایموجی کی شناخت اور باقاعدگی سے تازہ ترین فہرست پر مبنی مواد کا پتہ لگانے اور مسترد کرتے ہیں)، اور مشین لرننگ اور بڑے پیمانے پر زبان کے ماڈلز سمیت مصنوعی ذہانت سے فائدہ اٹھانے والی ٹیکنالوجیز شامل ہیں۔ ہمارے خودکار ٹولز کو ہماری کمیونٹی کی ہدایات (جو دیگر چیزوں کے علاوہ غیر قانونی مواد پر پابندی عائد کرتے ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے (جو دیگر چیزوں کے ساتھ ساتھ غیر قانونی مواد کی ممانعت کرتے ہیں) اور جہاں قابل اطلاق ہو وہاں اہلیت اور تشہیری پالیسیوں کی سفارش کے لیے ہمارے مواد کی ہدایات کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے۔

H2 2024 میں، ہماری عملی طور پر تمام فعال نشاندہی خودکار ٹولز سے فائدہ اٹھاتے ہوئے کی گئی تھی۔ جب ہمارے خودکار آلات ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتا لگاتے ہیں، تو وہ یا تو ہماری پالیسیوں کے مطابق خودکار کارروائی کرتے ہیں، یا پھر انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔ اس عمل کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام درج ذیل میں بیان کی گئی ہیں۔

  • Snap کے اپنے اقدام سے عائد کردہ پابندیوں کی تعداد اور اقسام

H2 2024 میں، Snap نے ہماری کمیونٹی کی ہدایات کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل نفاذ کے اقدامات کیے ہیں (بشمول یورپی یونین اور رکن ریاستوں کے قوانین کے تحت غیر قانونی مواد اور سرگرمیوں کی خلاف ورزیاں):

اس کے علاوہ، H2 2024 میں، اپنے عوامی نشریاتی پلیٹ فارمز پر موجود مواد کے حوالے سے، ہم نے خودکار ٹولز کے استعمال سے Snapchat پر تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں:

* جیسا کہ ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں بتایا گیا ہے، ایسے اکاؤنٹ جو تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے معیار پر پورا اترتے ییں انہیں ہمارے عوامی نشریاتی پلیٹ فارمز پر دی گئی سفارشات سے عارضی یا مستقل طور پر نااہل قرار دیا جا سکتا ہے۔ ہم اس کارروائی کا اپنی پیشگی نگرانی کی کوششوں کے تناظر میں اطلاق کرتے ہیں۔

اس کے علاوہ، H2 2024 میں، ہم نے خودکار ٹولز کے استعمال سے Snapchat پر اپنی تشہیری پالیسیوں کی خلاف ورزیوں کا پیشگی طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں:

  • مواد کی ماڈریشن کے انچارج افراد کو تربیت اور معاونت فراہم کرنے کے لیے کیے گئے اقدامات

ہماری مواد کی ماڈریشن کی ٹیمیں ہماری Snapchat کمیونٹی کی حفاظت میں مدد کے لیے ہماری مواد کی ماڈریشن کی پالیسیوں کا اطلاق کرتی ہیں۔ انہیں کثیر ہفتوں کی مدت کے دوران تربیت دی جاتی ہے، جس کے دوران ٹیم کے نئے ممبرز کو Snap کی پالیسیوں، ٹولز اور اضافے کے طریقہ کار سے آگاہ کیا جاتا ہے۔ ہماری ماڈریشن کی ٹیمیں اپنے ورک فلو سے متعلق تازہ ترین تربیت میں باقاعدگی سے شرکت کرتی ہیں، خاص طور پر جب ہمیں پالیسی سے متعلق اور سیاق و سباق سے متعلق کیسز کا سامنا کرنا پڑتا ہے۔ ہم ہنر کو بہتر بنانے والے پروگرامز اور سرٹیفیکیشن سیشن بھی چلاتے ہیں، اور کوئز کا انتظام کرتے ہیں، تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹر موجودہ ہیں اور تمام تازہ ترین پالیسیوں کی تعمیل کرتے ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کے رجحانات سامنے آتے ہیں، تو ہم فوری طور پر پالیسی کی وضاحت جاری کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہیں۔

ہم اپنی مواد کی ماڈریشن کی ٹیموں کو نمایاں معاونت اور وسائل فراہم کرتے ہیں، جن میں ملازمت کے دوران فلاح و بہبود کی معاونت اور ذہنی صحت کی خدمات تک آسان رسائی شامل ہے۔

c)۔ Snap کے شکایت سے متعلق اندرونی (یعنی اپیل) سسٹمز کے ذریعے موصول ہونے والی شکایات 
(آرٹیکل (d)15.1)


وہ صارفین جن کے اکاؤنٹ ہماری حفاظتی ٹیموں نے کمیونٹی کی ہدایات کی خلاف ورزیوں (بشمول غیر قانونی مواد اور سرگرمیوں کا) کی وجہ سے لاک کردہ ہیں وہ لاک کردہ اکاؤنٹ کی اپیل جمع کروا سکتے ہیں یوزرز مواد کی ماڈریشن کے کچھ فیصلوں کے خلاف بھی اپیل کر سکتے ہیں

رپورٹنگ کی مدت (H2 2024) کے دوران، Snap نے یورپی یونین میں اپنے اندرونی شکایات سے نمٹنے کے نظام کے ذریعے جمع کروائے گئے درج ذیل اپیلوں پر کارروائی کی (بشمول اکاؤنٹ کے لاک اور مواد کی سطح پر ماڈریشن کے فیصلے دونوں کے خلاف اپیل) درج ذیل ہے:

d) مواد کی نگرانی کے مقصد کے لیے خودکار ذرائع کا استعمال 
(آرٹیکل (e)15.1 اور (c)42.2)

  • معیار پر مبنی وضاحت اور مقاصد

جیسا کہ اوپر سیکشن (b)3 میں بیان کیا گیا ہے، ہم خودکار ٹولز کو متعین کرتے ہیں تاکہ پیشگی طور پر ہماری شرائط اور پالیسیوں کی خلاف ورزیوں کا پتہ لگایا جا سکے، اور بعض صورتوں میں ان کی خلاف ورزیوں کو نافذ کیا جا سکے۔ ان ٹولز میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، Google مواد کی حفاظت کا API، بدعنوانی کا پتہ لگانے والے ماڈلز (جو توہین آمیز مطلوبہ الفاظ اور ایموجی کی شناخت اور باقاعدگی سے تازہ ترین فہرست پر مبنی مواد کا پتہ لگانے اور مسترد کرتے ہیں)، اور مشین لرننگ اور بڑے پیمانے پر زبان کے ماڈلز سمیت مصنوعی ذہانت سے فائدہ اٹھانے والی ٹیکنالوجیز شامل ہیں۔ ہمارے خودکار ٹولز کو ہماری کمیونٹی کی ہدایات (جو دیگر چیزوں کے علاوہ غیر قانونی مواد پر پابندی عائد کرتے ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے (جو دیگر چیزوں کے ساتھ ساتھ غیر قانونی مواد کی ممانعت کرتے ہیں) اور جہاں قابل اطلاق ہو وہاں اہلیت اور تشہیری پالیسیوں کی سفارش کے لیے ہمارے مواد کی ہدایات کا پتہ لگانے کے لیے ڈیزائن کیا گیا ہے۔

جب ہمارے خودکار آلات ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتا لگاتے ہیں، تو وہ یا تو ہماری پالیسیوں کے مطابق خودکار کارروائی کرتے ہیں، یا پھر انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔

  • درستگی اور نقص کی ممکنہ شرح کے اشارے، جسے رکن ریاست کی جانب سے توڑا گیا

ہم اپنے خودکار ٹولز کی جانب سے پراسیس کیے گئے ٹاسکس کے بے ترتیب نمونوں کو منتخب کر کے اور انہیں ہماری انسانی نگرانی کی ٹیموں کی جانب سے دوبارہ جائزے کے لیے جمع کروا کر اپنے خودکار نگرانی ٹولز کی درستگی اور نقص کی ممکنہ شرح کے اشارے پر نظر رکھتے ہیں۔ درستگی کی شرح ان بے ترتیب نمونوں سے جمع کردہ ٹاسکس کی فیصد ہے جن کی تصدیق ہو گئی ہے کہ انسانی منتظمین کی جانب سے دوبارہ جائزے پر ان کے درست نگرانی کے فیصلے ہیں۔ نقص کی شرح %100 اور اوپر بیان کردہ حساب کتاب کی درستگی کی شرح کے درمیان فرق ہے۔ 

ہم خودکار نگرانی کے ٹولز کے دو وسیع اقسام کی درستگی اور نقص کی ممکنہ شرح کی نگرانی کرتے ہیں، جن میں شامل ہیں:

  • خودکار ٹولز جو ہماری کمیونٹی کی ہدایات کی خلاف ورزیوں کا پتہ لگانے اور/یا ان کے خلاف کارروائی کا باعث بن سکتے ہیں اور جو یوزر کے اکاؤنٹ کے خلاف کارروائی کا باعث بن سکتے ہیں (مثال کے طور پر اکاؤنٹ کے خلاف لاگو کردہ انتباہات یا اکاؤنٹ کو لاک کیا جا رہا ہے)۔ نمونے کی بنیاد پر، H2 2024 میں، ان خودکار ٹولز کی درستگی کی شرح تقریباً 95 فیصد اور نقص کی شرح تقریباً 5 فیصد تھی۔

  • خودکار ٹولز جو ہمارے تجویز کردہ اہلیت سے متعلق مواد کی ہدایات کی بنیاد پر ہمارے عوامی نشریاتی پلیٹ فارمز پر موجود مواد کا پتہ لگانے اور/یا اس پر کارروائی کرتے ہیں۔ نمونے کی بنیاد پر، H2 2024 میں، ان خودکار ٹولز کی درستگی کی شرح تقریباً 85 فیصد اور نقص کی شرح تقریباً 15 فیصد تھی۔

نمونے کی بنیاد پر، H2 2024 میں، اوپر بیان کردہ دونوں زمروں میں استعمال ہونے والے خودکار ٹولز کی مجموعی درستگی کی شرح تقریباً 89 فیصد اور نقص کی شرح تقریباً 11 فیصد تھی۔


ہم عام طور پر Snapchat پر جس مواد کی نگرانی کرتے ہیں اس کی زبان کو ٹریک نہیں کرتے اور اس طرح ہم رکن ریاستوں کی ہر سرکاری زبان میں اپنے خودکار نگرانی کے ٹولز کی درستگی اور نقص کی شرح کو فراہم نہیں کر سکتے ہیں۔ اس معلومات کے متبادل کے طور پر، ہم ذیل میں خودکار نگرانی کردہ مواد کی مجموعی درستگی اور نقص کی شرح کی تفصیل فراہم کرتے ہیں (ہماری کمیونٹی کی ہدایات اور تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں) جس کا ہمیں یقین ہے کہ یہ ہر رکن ریاست سے آیا ہے۔ 

  • حفاظتی اقدامات

ہم بنیادی حقوق پر خودکار نگرانی کے ٹولز کے ممکنہ اثرات سے واقف ہیں، اور ہم اس اثر کو کم سے کم کرنے میں مدد کے لیے حفاظتی اقدامات اپناتے ہیں۔

ہمارے خودکار مواد کی نگرانی کے ٹولز کے متعین ہونے سے پہلے ٹیسٹ کیا جاتا ہے۔ ماڈلز کی کارکردگی کے لیے آف لائن جانچ کی جاتی ہے اور A/B ٹیسٹنگ کے ذریعے انہیں تعینات کیا جاتا ہے تاکہ پیداوار میں مکمل طور پر مرحلہ وار ہونے سے پہلے ان کی مناسب کارکردگی کو یقینی بنایا جا سکے۔ ہم لانچ سے قبل کوالٹی اشورینس (QA) کے جائزے، لانچ کے جائزے، اور جزوی(مرحلہ وار) اجرا کے دوران جاری QA کی درست جانچ سرانجام دیتے ہیں۔

اپنے خودکار ٹولز کی لانچ کے بعد، ہم جاری بنیادوں پر ان کی کارکردگی اور درستی کا جائزہ لیتے ہیں، اور ضرورت کے مطابق ایڈجسٹمنٹ کرتے ہیں۔ اس عمل میں ہمارے انسانی نگرانوں کی جانب سے خودکار عملیوں کے نمونوں کا دوبارہ جائزہ لینا شامل ہے تاکہ ان ماڈلز کی شناخت کی جا سکے جن کی درستی کو بہتر بنانے کے لیے ایڈجسٹمنٹ کی ضرورت ہے۔ ہم روزانہ کی بنیاد پر کچھ عوامی مواد کے بے ترتیب نمونہ سازی کے ذریعے Snapchat پر مخصوص نقصانات کے پھیلاؤ کی بھی نگرانی کرتے ہیں، اور اس معلومات سے مزید بہتری کی گنجائش والے علاقوں کی شناخت کرتے ہیں۔

ہماری پالیسیاں اور نظام ہمارے خودکار ٹولز سمیت مسلسل اور منصفانہ نفاذ کو فروغ دیتا ہے، اور Snapchatters کو نوٹسز اور اپیلوں کے عمل کے ذریعے نفاذ کے نتائج کو بامعنی طور پر متنازع بنانے کا موقع فراہم کرتا ہے جس کا مقصد Snapchatters کے انفرادی حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔

ہم یہ کوشش کرتے ہیں کہ اپنے خودکار مواد کی نگرانی کے ٹولز کو مسلسل بہتر بنائیں تاکہ ان کی درستی کو بہتر بنایا جا سکے اور اپنی پالیسیوں کے مسلسل اور منصفانہ نفاذ کی معاونت کی جا سکے۔

e) آرٹیکل 21 سے مبرا تنازعات کے تصفیے سے متعلق ادارے کو جمع کردہ تنازعات
(آرٹیکل 24.1(a))

رپورٹنگ کی مدت (H2 2024) کے لیے، ہم Snap کے خلاف جمع کروائے گئے تنازعات کے بارے میں درج ذیل معلومات فراہم کرتے ہیں جن کا حوالہ DSA کے آرٹیکل 21 میں دیا گیا ہے۔ 

درج بالا جدول 31 دسمبر 2024 کی صورتحال کی عکاسی کرتا ہے جو کہ رپورٹنگ کی مدت (H2 2024) کے دوران DSA کے آرٹیکل 21 کے تحت عدالت سے باہر تنازعات کے تصفیے کے تصدیق شدہ اداروں کے پاس جمع کروائے گئے تنازعات سے متعلق ہے۔ 31 دسمبر 2024 تک، H2 2024 میں اس طرح کے اداروں کے سامنے جمع کرائے گئے 20 میں سے 15 تنازعات زیر التوا تھے، اور 5 کو فیصلے کے اجرا سے قبل حل کر دیا گیا تھا۔ 

یاد رکھیں، ہم نے ان شکایات کو درج بالا فہرست میں شامل نہیں کیا گیا جو آرٹیکل 21 کے تحت تصدیق شدہ ادارے کے پاس جمع کروائی گئی تھیں لیکن متعلقہ ادارے نے انہیں Snap پر منتقل کرنے سے قبل ناقابل قبول قرار دیا تھا۔ ہم اس زمرے میں شامل تنازعات کی تعداد کی تصدیق نہیں کر سکتے کیونکہ ان میں سے سب کے بجائے، صرف کچھ تصدیق شدہ ادارے Snap کو اس طرح کے تنازعات سے مطلع کرتے ہیں۔ تاہم، ہم H2 2024 میں 6 شکایات کے حوالے سے واقف ہیں جو اس زمرے کے تحت آتی ہیں۔

ہ) آرٹیکل 23 کے تحت عائد کردہ معطلی
(آرٹیکل 24.1(b))
  • آرٹیکل 23.1 کے تحت عائد کردہ معطلی: ان اکاؤنٹس کو معطل کر دیا گیا ہے جو بار بار واضح طور پر غیر قانونی مواد فراہم کرتے ہیں 

جیسا کہ ہماری Snapchat کی نگرانی، نفاذ اور اپیلوں کی وضاحت میں بیان کیا گیا ہے، کہ جن اکاؤنٹس کو ابتدائی طور پر ہم ہماری کمیونٹی کی ہدایات کی خلاف ورزی میں ملوث پاتے ہیں (بشمول واضح طور پر غیر قانونی مواد کی فراہمی کے ذریعے) اور شدید نقصان کے حامل قرار دیتے ہیں انہیں فوری طور پر غیر فعال کر دیا جاتا ہے۔ ہماری کمیونٹی کی ہدایات کی دیگر خلاف ورزیوں پر، Snap عام طور پر تین حصوں پر مشتمل نفاذ کے عمل کا اطلاق کرتا ہے:

  • پہلا مرحلہ: خلاف ورزی کرنے والے مواد کو ہٹا دیا جاتا ہے۔

  • دوسرا مرحلہ: یوزر کو ایک نوٹیفکیشن موصول ہوتا ہے، جس میں یہ بتایا جاتا ہے کہ آپ نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی ہے، اس لیے ان کا مواد ہٹا دیا گیا ہے، اور بار بار کی خلاف ورزیوں کے نتیجے میں ان کا اکاؤنٹ معطل کیے جانے سمیت اضافی نفاذ کی کارروائی کی جائے گی۔

  • تیسرا مرحلہ: ہماری ٹیم نے صارف کے اکاؤنٹ پر اسٹرائیک بھیجی ہے۔

H2 2024 میں یورپی یونین کے اکاؤنٹس پر عائد کردہ اسٹرائیکس (یعنی انتباہات) اور لگائے جانے والے لاکس کی تعداد سے متعلق معلومات اوپر 3(a) اور 3(b) کے سیکشن میں حاصل کی جا سکتی ہیں۔

  • آرٹیکل 23.2 کے تحت عائد کردہ معطلیاں: ان افراد، اداروں اور شکایات پر کارروائی معطل کر دی گئی ہے جو بار بار ایسے نوٹسز یا شکایات جمع کرواتے ہیں جو واضح طور پر بے بنیاد ہوتے ہیں۔

"واضح طور پر بے بنیاد" نوٹسز اور شکایات کی ہماری داخلی تعریف اور ہماری داخلی حدود کا اطلاق کرتے ہوئے جسے ہم اس طرح کے نوٹسز اور شکایات کی کثیر الوقوع جمع آوری سے متعلق سمجھتے ہیں، DSA کے آرٹیکل 23.2 کے تحت H2 2024 میں نوٹسز اور شکایات کی کارروائی پر عائد کردہ معطلی کی تعداد درج ذیل ہے

4. ہماری مواد کی نگرانی کی ٹیموں سے متعلق معلومات 
a) مواد کی نگرانی کے لیے وقف کردہ انسانی وسائل، جن میں تعمیل کے لیے DSA کے آرٹیکل 16، 20 اور 22 شامل ہیں، جنہیں رکن ریاستوں کی سرکاری زبانوں میں تفصیل سے بیان کیا گیا ہے
(آرٹیکل (a)42.2))۔


ہماری مواد کی نگرانی کی ٹیمیں 24/7 دنیا بھر میں کام کرتی ہیں، جو ہمیں اپنی کمیونٹی کو محفوظ رکھنے میں معاونت کے قابل بناتی ہیں۔ درج ذیل میں 31 دسمبر 2024 سے ماڈریٹر کی لسانی خصوصیات کے مطابق ہمارے انسانی ماڈریشن کے وسائل کی تفصیل دی گئی ہے (نوٹ کریں کہ کچھ ماڈریٹر ایک سے زیادہ زبانوں میں ماہرین ہیں)

اوپر کے جدول میں مواد کی نگرانی کے لیے وقف کردہ وہ تمام انسانی وسائل شامل ہیں جو 31 دسمبر 2024 تک یورپی یونین کی رکن ریاستوں کی سرکاری زبانوں کی معاونت کرتے ہیں۔ جہاں ہمیں اضافی لسانی معاونت کی ضرورت ہو، تو وہاں ہم ترجمے کی خدمات کا استعمال کرتے ہیں۔

b) مواد کی نگرانی کی قابلیت اور لسانی مہارت؛ تربیت اور فراہم کی گئی معاونت
(آرٹیکل 42.2(b))

اس معیاری ملازمت کی تفصیل کے ساتھ نگرانوں کی بھرتی کی جاتی ہے جس میں (حسبِ ضرورت) لسانی تقاضے شامل ہوتے ہیں۔ لسانی تقاضے یہ بتاتے ہیں کہ امیدوار کو زبان کی تحریری اور زبانی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور ابتدائی سطح کے عہدوں کے لیے امیدواروں کے پاس کم از کم ایک سال کا تجربہ ہونا ضروری ہے۔ اہل ہونے کے لیے امیدواروں کا تعلیمی اور پس منظری تقاضوں کو پورا کرنا ضروری ہے۔ امیدواروں کو اس ملک یا خطے کے مواد کی نگرانی کے موجودہ واقعات کی تفہیم کا بھی مظاہرہ کرنا ہو گا جس کی وہ معاونت کریں گے۔ 


Snap کی مواد کے نگرانوں کو فراہم کی جانے والی تربیت اور معاونت سے متعلق معلومات کے لیے اوپر دیکھیں، جو DSA کے آرٹیکل 15(1)(c) کے تحت الگ سے ضروری ہے اور اسی وجہ سے سیکشن 3(b)، یعنی آخری ذیلی حصے میں میں شامل کی گئی ہے جس کا عنوان یہ ہے: "مواد کی نگرانی کے انچارج افراد کو تربیت اور معاونت کی فراہمی کے لیے اٹھائے گئے اقدامات"

بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کی میڈیا اسکیننگ رپورٹ

جاری کیا گیا: 31 جنوری 2025

آخری بار اپ ڈیٹ کیا گیا: 31 جنوری 2025

یہ رپورٹ 1 جنوری 2024 سے شروع ہونے اور 31 دسمبر 2024 کو ختم ہونے کی مدت کا احاطہ کرتی ہے۔

پس منظر

ہماری کمیونٹی کے کسی بھی رکن، خاص طور پر نابالغوں کا جنسی استحصال غیر قانونی، قابل نفرت، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع ہے۔ اپنے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کو روکنا، شناخت کرنا، اور اس کا خاتمہ کرنا Snap کی اولین ترجیح ہے، اور ہم ان جرائم سمیت دیگر مجرمانہ سرگرمیوں سے لڑنے کے لیے اپنی صلاحیتوں کو مسلسل بہتر بنا رہے ہیں۔


جن ٹیکنالوجیوں کو ہم استعمال کرتے ہیں ان میں (a) PhotoDNA کی مضبوط ہیش میچنگ اور گوگل کی چائلڈ سیکشوئیل ابیوز ایمیجری (CSEA) میچ جو کہ بالترتیب CSEA کی معروف غیر قانونی تصاویر اور ویڈیوز کی شناخت کرتا ہے، اور (b) CSEA کی نئی اور "پہلے کبھی نہ دیکھی گئی" تصاویر کی شناخت کے لیے Google کا مواد کی حفاظت والا API شامل ہیں۔ ہم قانون کے مطابق CSEA کی تصاویر کو امریکہ کے قومی مرکز برائے گمشدہ اور استحصال شدہ بچوں (NCMEC) کو رپورٹ کرتے ہیں۔ جس کے نتیجے میں، NCMEC، ضرورت کے مطابق، امریکہ اور دیگر ممالک کے قانون نافذ کرنے والے اداروں کے ساتھ رابطہ کرتا ہے۔


اطلاع دیں

درج ذیل چارٹ میں 2024 کے دوران CSEA کی تصاویر کے لیے یورپی یونین کے صارفین کے خلاف پیشگی تشخیص اور اس کے نتیجے میں ہونے والے نفاذ سے متعلق ڈیٹا شامل ہے۔ (نوٹ کریں کہ 2024 میں مذکورہ فعال اسکیننگ کے نتیجے میں ہونے والی کچھ نافذ العملیاں اس رپورٹ کو مرتب کرنے کے وقت سے لے کر اب تک بھی اپیل کے لیے قابل اطلاق ہو سکتی ہیں، اور اس وجہ سے وہ درج ذیل اپیلوں اور بحالی کے اعداد و شمار میں منعکس نہیں ہوں گے۔)

*یہ زمرہ Snap کی ان کمیونٹی کی ہدایات کی خلاف ورزیوں کو رپورٹ کرتا ہے جو بچوں کے جنسی استحصال پر پابندی عائد کرتی ہیں۔  وہ مواد جو پیشگی طور پر دریافت کیا گیا ہو اور Snap کی کمیونٹی کی ہدایات کی دیگر خلاف ورزیوں پر نافذ کیا گیا ہو اسے یہاں رپورٹ نہیں کیا جاتا۔

**اگر ہمیں یہ معلوم ہو جائے کہ نفاذ کے وقت ہماری پالیسیوں کی بنیاد پر کوئی اقدام غلط تھا یا اگر ہمیں معلوم ہو جائے کہ اسے ابتدائی سطح پر صحیح طور سے نافذ کیا گیا تھا، لیکن اپیل کا جائزہ لیتے وقت ہماری قابل اطلاق پالیسی تبدیل ہو گئی ہو تو اسے کالعدم قرار دیا جا سکتا ہے۔

مواد کی نگرانی کے حفاظتی اقدامات

CSEA میڈیا اسکیننگ کے اطلاق کردہ حفاظتی اقدامات کو یورپی یونین کی درج بالا DSA کی شفافیت کی رپورٹ میں بیان کیا گیا ہے۔

یورپی یونین کے دہشت گردی سے متعلق مواد کی آن لائن شفافیت کی رپورٹ

شائع شدہ: 28 فروری 2025

آخری بار اپ ڈیٹ کیا گیا: 28 فروری 2025

رپورٹنگ سائیکل: 1 جنوری 2024 - 31 دسمبر 2024

یہ شفافیت کی رپورٹ یورپی پارلیمان اور یورپی یونین کی کونسل کے ضابطہ 2021/784 کے آرٹیکل (2)7 اور (3)7 کے مطابق شائع کی گئی ہے، جو دہشت گردی کے مواد کے آن لائن پھیلاؤ سے متعلق ہے (the Regulation)۔ یہ 1 جنوری - 31 دسمبر، 2024 کے رپورٹنگ کی مدت کا احاطہ کرتا ہے۔ 

عمومی معلومات
  • آرٹیکل (a)(3)7: دہشت گردی کے مواد کی شناخت اور ان تک رسائی کو ہٹانے یا ان کو غیر فعال کرنے کے حوالے سے میزبان سروس فراہم کرنے کے اقدامات کے بارے میں معلومات

  • آرٹیکل (b)(3)7: ہوسٹنگ سروس فراہم کرنے والے کے اقدامات کے بارے میں معلومات، جو اس مواد کے دوبارہ آن لائن ظاہر ہونے سے متعلق ہیں جسے پہلے ہٹا دیا گیا تھا یا جس تک رسائی کو اس بنیاد پر معطل کیا گیا تھا کہ اسے دہشت گردی پر مبنی مواد سمجھا گیا تھا، خصوصاً اُن معاملات میں جہاں خودکار آلات استعمال کیے گئے ہوں


‏Snapchat پر دہشت گردی سے متعلق مواد کی شرح نہایت کم ہے، اور اسے 2024 میں ضابطے کے تحت کوئی ہٹانے کا آرڈر موصول نہیں ہوا۔

دہشت گردوں، دہشت گردی کی تنظیموں، اور پرتشدد انتہا پسندوں کے لیے Snapchat کے استعمال کی ممانعت ہے۔ ہمارے کمیونٹی کی ہدایاتکے تحت ایسا مواد ممنوع ہے جو دہشت گردی یا دیگر پرتشدد اور مجرمانہ افعال کی وکالت، ترویج، تعریف یا فروغ کرے. صارفین ہمارے ان ایپ رپورٹنگ مینو اور ہماری معاونت کی ویب سائٹ کے ذریعے ایسے مواد کی رپورٹ کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرتا ہے۔ ہم پیشگی کھوج کے طریقے بھی استعمال کرتے ہیں تاکہ عوامی سطحوں جیسے اسپاٹ لائٹ (Spotlight) اور ڈسکور (Discover) پر خلاف ورزی کرنے والے مواد کی نشاندہی کی جا سکے۔


اس سے قطع نظر کہ ہمیں کسی بھی طرح کی خلاف ورزی کے بارے میں معلوم ہو جائے، ہماری حفاظتی ٹیمز خودکار اور انسانی نگرانی کے امتزاج کے ذریعے شناخت شدہ مواد کا فوری جائزہ لیتی ہیں اور نفاذ کے فیصلے کرتی ہیں۔ نفاذ کے اقدامات میں مواد کو ہٹانا، خلاف ورزی کرنے والے اکاؤنٹ کو متنبہ کرنا یا اسے غیر فعال کرنا اور اگر ضرورت پڑی تو قانون نافذ کرنے والے اداروں کو اکاؤنٹ کی رپورٹ کرنا شامل ہو سکتا ہے۔ Snapchat پر دہشت گردی یا دیگر پرتشدد انتہا پسندانہ مواد کے دوبارہ نمودار ہونے سے روکنے کے لیے، قانون نافذ کرنے والے اداروں کے ساتھ کام کرنے کے علاوہ، ہم خلاف ورزی کرنے والے اکاؤنٹ سے منسلک ڈیوائس کو بلاک کرنے کے لیے اقدامات کر رہے ہیں اور یوزر کو دوسرا Snapchat اکاؤنٹ بنانے سے روکتے ہیں۔ 


دہشت گردی سے متعلق مواد کی نشاندہی اور اسے ہٹانے کے ہمارے اقدامات کی مزید تفصیلات ہماری وضاحتی دستاویز برائے نفرت انگیز مواد، دہشت گردی اور پرتشدد انتہا پسندی اور ہماری وضاحتی دستاویز برائے اعتدال، نفاذ اور اپیلیں میں دستیاب ہیں۔



رپورٹس &amp؛ نفاذ
  • آرٹیکل (c)(3)7: ‏دہشت گردی سے متعلق اُن مواد کی تعداد جو ہٹا دیے گئے یا جن تک رسائی ہٹانے کے احکامات یا مخصوص اقدامات کے تحت معطل کی گئی، اور ایسے ہٹانے کے احکامات کی تعداد جن میں مواد نہ تو ہٹایا گیا اور نہ ہی آرٹیکل (7)3 کی پہلی شق اور آرٹیکل (8)3 کی پہلی شق کے مطابق رسائی معطل کی گئی، نیز اس کی وجوہات بھی۔


رپورٹنگ کی مدت کے دوران، Snap کو ہٹانے کا کوئی حکم موصول نہیں ہوا، اور نہ ہی ہمیں ضابطے کے آرٹیکل 5 کے تحت کسی مخصوص اقدامات کو نافذ کرنے کی ضرورت تھی۔ اس کے مطابق، ہمیں ضابطے کے تحت نفاذ کے لیے قدم اٹھانے کی ضرورت نہیں تھی۔

مندرجہ ذیل ٹیبل اُن نفاذی اقدامات کی وضاحت کرتا ہے جو یوزرز کی شکایات اور پیشگی کھوج کی بنیاد پر ایسے مواد اور اکاؤنٹس کے خلاف کیے گئے، یورپی یونین اور دنیا کے دیگر خطوں میں، جنہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی جو دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد پر لاگو ہوتے ہیں۔

نفاذ کی اپیلیں
  • آرٹیکل 7(3)(d): آرٹیکل 10 کے مطابق ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے نمٹائے جانے والی شکایات کی تعداد اور نتائج

  • آرٹیکل (3)(g): ان مقدمات کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ نے مواد کے فراہم کنندہ کی شکایت کے بعد مواد یا مواد تک رسائی کو بحال کیا

جیسے اوپر بیان کیا گیا ہے کہ رپورٹنگ کی مدت کے دوران ہمیں ضابطے کے تحت نفاذ کی کوئی کارروائی درکار نہیں تھی، لہٰذا ہم نے ضابطے کے آرٹیکل 10 کے مطابق نہ ہی کسی شکایت کو نمٹایا اور نہ ہی اس سے متعلق کوئی بحالی کی ہے۔

درج ذیل جدول میں یورپی یونین اور دنیا کے دیگر مقامات میں اپیلوں اور بحالی سے متعلق معلومات موجود ہیں جن میں ہماری کمیونٹی کی ہدایات کے تحت نافذ کردہ دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد شامل ہیں۔

عدالتی کارروائیاں & اپیلز
  • آرٹیکل 7(3)(e): ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے متعارف کروائے گئے انتظامی یا عدالتی جائزے کی کارروائی کی تعداد اور نتائج

  • آرٹیکل (3)(f): ان مقدمات کی تعداد جن میں انتظامی یا عدالتی جائزے کی کارروائی کے نتیجے میں ہوسٹنگ سروس کے فراہم کنندہ کو مواد کی بحالی یا اس تک رسائی کی ضرورت تھی

چونکہ جیسا کہ اوپر بیان کیا گیا ہے کہ رپورٹنگ کی مدت کے دوران ہمیں ضابطے کے تحت نفاذ کی کوئی کارروائی درکار نہیں تھی، لہٰذا ہمارے پاس انتظامی یا عدالتی جائزے کی کوئی کارروائی موجود نہیں تھی، اور نہ ہی ہم پر اس طرح کی کارروائی کے نتیجے میں مواد کو بحال کرنے کا کوئی تقاضہ تھا۔

DSA رسک اسسمنٹ

یہ رپورٹ ریگولیشن (EU) 2022/2065 کی دفعات 34 اور 35 کے تحت Snap کی ذمہ داریوں کی تعمیل کے لیے تیار کی گئی ہے، اور اس میں Snapchat کے آن لائن پلیٹ فارمز کے ڈیزائن، فعالیت اور استعمال سے پیدا ہونے والے نظامی خطرات کے ہمارے جائزے کے نتائج، ان خطرات کا جائزہ لینے کے لیے استعمال کیے گئے طریقہ کار، اور ان خطرات سے نمٹنے کے لیے اختیار کی گئی تخفیفی تدابیر شامل ہیں۔


DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat | اگست 2023 (PDF)


DSA آڈٹ اور آڈٹ کا نفاذ

یہ رپورٹس ریگولیشن (EU) 2022/2065 کی دفعہ 37 کے تحت Snap کی ذمہ داریوں کی تعمیل کے لیے تیار کی گئی ہیں اور ان میں شامل ہے: (i) ریگولیشن (EU) 2022/2065 کے باب III میں بیان کردہ ذمہ داریوں کے ساتھ Snap کی تعمیل کے آزاد آڈٹ کے نتائج ، اور (ii) اس آزادانہ آڈٹ کی آپریشنل سفارشات پر عمل درآمد کے لیے اٹھائے گئے اقدامات۔

DSA کی خود مختار آڈٹ رپورٹ | Snapchat | اگست 2024 (PDF)

DSA آڈٹ کے نفاذ کی رپورٹ | Snapchat | ستمبر 2024 (PDF)



EU VSP کوڈ آف پریکٹس

Snap ایک "ویڈیو شیئرنگ پلیٹ فارم سروس" ("VSP") کا فراہم کنندہ ہے جو آرٹیکل 1(1)(aa) AVMSD کے مطابق ہے۔ اس ضابطہ اخلاق ("ضابطہ") کو اس بات کی وضاحت کے لیے تیار کیا گیا ہے کہ Snap ڈچ میڈیا ایکٹ ("DMA") اور ڈائریکٹیو (EU) 2010/13 (جیسا کہ ڈائریکٹیو (EU) 2018/1808 کے ذریعے ترمیم شدہ ہے، جسے "آڈیوویژول میڈیا سروسز ڈائریکٹو" یا "AVMSD" کہا جاتا ہے) کے تحت بطور ویڈیو شیئرنگ پلیٹ فارم (VSP) اپنی ذمہ داریوں پر کیسے عمل کرتا ہے۔
یہ ضابطہ پورے یورپی یونین کے ساتھ ساتھ یورپی اقتصادی علاقے پر بھی قابل اطلاق ہے۔

EU VSP ضابطہ اخلاق | Snapchat | مارچ 2025 (PDF)

بلغاریہ | کروشین | چیک | ڈینش | ڈچ | استونین | فینیش | فرانسیسی | جرمن | یونانی | ہنگری | آئرش | اطالوی | لٹوین | لتھوانیائی | مالٹائی | پولش | پرتگالی | رومانیہ | سلوواک | سلووینیا | ہسپانوی | سویڈش