Snap Values
یورپی یونین

ہمارے یورپی یونین (EU) کے شفافیت کے صفحے پر خوش آمدید، جہاں ہم ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویزوئل میڈیا سروس (AVMSD)، ڈچ میڈیا ایکٹ (DMA) اور آن لائن دہشت گردی کے مواد سے متعلق ضابطے (TCO) پر EU سے متعلق معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ ان شفافیت کی رپورٹس کا تازہ ترین ورژن en-US لوکیل میں تلاش کیا جا سکتا ہے۔

قانونی نمائندہ

Snap Group Limited نے DSA کے مقاصد کے لیے Snap B.V. کو اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لیے [at] snapchat.com پر، AVMSD اور DMA کے لیے vsp-enquiries [at] snapchat.com پر، TCO کے لیے tco-enquiries [at] snapchat.com، ہماری سپورٹ سائٹ یہاں کے ذریعے نمائندے سے رابطہ کر سکتے ہیں، یا اس پر کر سکتے ہیں:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

اگر آپ نفاذ قانون کا ادارہ ہیں، تو براہ کرم یہاں بتائے گئے اقدامات کی پیروی کریں۔

ہم سے رابطہ کرتے وقت براہ کرم انگریزی یا ڈچ زبان میں مواصلت کریں۔

انضباطی حکام

DSA کے لیے، ہم یورپی کمیشن اور نیدرلینڈ کی اتھارٹی برائے صارفین اور مارکیٹس (ACM) ذریعے انضباط یافتہ ہیں۔ AVMSD اور DMA کے لیے، ہم ڈچ میڈیا اتھارٹی (CvdM) کے ذریعے انضباط یافتہ ہیں۔ TCO کے لیے، ہم آن لائن دہشت گردی کے مواد اور بچوں کے جنسی استحصال کے مواد (ATKM) کی روک تھام کے لیے نیدرلینڈ کی اتھارٹی کے ذریعے انضباط یافتہ ہیں۔

DSA کی شفافیت کی رپورٹ

شائع شدہ: 28 فروری 2025

آخری بار اپ ڈیٹ کیا گیا: 28 فروری 2025

رپورٹنگ سائیکل: 1 جولائی 2024 - 31 دسمبر 2024

ہم یہ رپورٹ یورپی یونین (EU) کے ڈیجیٹل سروسز ایکٹ (EU) 2022/2065) (“DSA”) کے آرٹیکل 15، 24 اور 42 میں فراہم کردہ شفافیت کی رپورٹنگ کے تقاضوں کے مطابق شائع کرتے ہیں۔ اس رپورٹ میں موجود معلومات 1 جولائی 2024 سے 31 دسمبر 2024 (H2 2024) تک کی رپورٹنگ کی مدت کے لیے ہے۔

1. اوسط ماہانہ فعال وصول کنندگان
(DSA کے آرٹیکلز 24.2 اور 42.3)

1 جنوری 2025 سے، ہمارے پاس یورپی یونین میں ہماری Snapchat ایپ کے 93.7 ملین ماہانہ فعال وصول کنندگان (“AMAR”) ہیں۔ اس کا مطلب یہ ہے کہ، 31 دسمبر 2024 کو ختم ہونے والی 6 ماہ کی مدت کے دوران اوسطاً، یورپی یونین میں 93.7 ملین رجسٹرڈ صارفین نے کسی دیے گئے مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔

رکن ریاست کی جانب سے اس اعداد و شمار کو درج ذیل طور پر بیان کیا گیا ہے:

ان اعداد و شمار کو موجودہ DSA کے تقاضوں کی تعمیل کے حوالے سے حساب میں لایا گیا ہے اور ان پر صرف DSA کے مقاصد کے لیے انحصار کیا جانا چاہیے۔ وقت کے ساتھ ساتھ، اندرونی پالیسیوں، ریگولیٹری ہدایات، اور ٹیکنالوجی میں ہونے والی تبدیلیوں کے پیشِ نظر، ہم نے اس اعداد و شمار کے حساب کے طریقے میں تبدیلی کی ہے، اسی لیے مختلف ادوار کے اعداد و شمار کا موازنہ کرنا مناسب نہیں ہے۔ یہ دیگر فعال یوزر کے اعداد و شمار کے لیے استعمال ہونے والے حساب کتاب سے بھی مختلف ہو سکتے ہیں جسے ہم دیگر مقاصد کے لیے شائع کرتے ہیں۔

2. ممبر اسٹیٹ اتھارٹی کی درخواستیں
(DSA آرٹیکل 15.1(a))

ا) غیر قانونی مواد کے خلاف کارروائی کے احکامات


اس رپورٹنگ کی مدت (H1 2025) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے خاص طور پر شناخت شدہ غیر قانونی مواد کے خلاف کارروائی کے لیے صفر (0) احکامات موصول ہوئے ہیں، جن میں DSA آرٹیکل 9 کے مطابق جاری کیے احکامات بھی شامل ہیں۔ 

چونکہ یہ تعداد صفر (0) ہے، لہٰذا ہم متعلقہ غیر قانونی مواد کی قسم یا آرڈر جاری کرنے والی رکن ریاستوں کی تفصیل، یا آرڈر وصولی کی تصدیق یا ان پر عمل درآمد کے لیے اوسط وقت فراہم نہیں کر سکتے

ب) معلومات فراہم کرنے کے احکامات

اس رپورٹنگ کی مدت (H2 2024) کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کے حکام کی جانب سے یوزر کے ڈیٹا کے افشا کے حوالے سے درج ذیل احکامات موصول ہوئے ہیں، جن میں DSA کے آرٹیکل 10 کے تحت جاری کی گئی ہنگامی افشا کی درخواستیں بھی شامل ہیں:

متعلقہ حکام کو ان احکامات کی وصولی سے متعلق مطلع کرنے کے لیے اوسط وقت 0 منٹ تھا — ہم اس کی وصولی کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔

ان آرڈرز پر عمل درآمد کرتے ہوئے معلومات فراہم کرنے کااوسط درمیانی وقت تقریباً 12 دن تھا۔ یہ میٹرک اس وقت کی مدت کی عکاسی کرتا ہے جب Snap کو آرڈر موصول ہونے سے لے کر جب Snap اس معاملے کو مکمل طور پر حل شدہ سمجھتا ہے۔ انفرادی معاملات میں یہ مدت کسی حد تک اس رفتار پر بھی منحصر ہو سکتی ہے جس کے ساتھ متعلقہ رکن ریاست کا ادارہ Snap کی جانب سے آرڈر کی کارروائی کے لیے ضروری وضاحتوں کی کسی بھی درخواست کا جواب دیتا ہے۔

نوٹ کریں کہ ہم متعلقہ غیر قانونی مواد کی قسم کے مطابق درجہ بندی کی گئی معلومات فراہم کرنے کے لیے اوپر کے آرڈرز کی تفصیل فراہم نہیں کرتے ہیں کیونکہ یہ معلومات عام طور پر ہمیں دستیاب نہیں ہیں۔

3. مواد کی نگرانی 


Snapchat پر موجود تمام مواد کو ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کے مطابق ہونا ہو گا۔ کچھ مواد کو اضافی ہدایات اور پالیسیوں کی بھی پاسداری کرنا ہو گی۔ مثال کے طور پر، ہمارے عوامی نشریاتی پلیٹ فارمز پر وسیع تر ناظرین کو الگورتھمک تجویز کے لیے جمع کردہ مواد کو تجویز کی اہلیت سے متعلق ہماری مواد کی ہدایات میں موجود اضافی اور اعلیٰ معیارات پر پورا اترنا ضروری ہے، جبکہ اشتہارات کو ہماری تشہیری پالیسیوں کی تعمیل کرنا ضروری ہے۔

ہم ٹیکنالوجی اور انسانی جائزے کا استعمال کرتے ہوئے ان پالیسیوں کو نافذ کرتے ہیں۔ ہم صارفین اور غیر صارفین کے لیے غیر قانونی مواد اور سرگرمیوں سمیت خلاف ورزیوں کی رپورٹ کرنے کے لیے میکانزم فراہم کرتے ہیں۔براہِ راست ایپ میں یا ہماری ویب سائٹ کے ذریعے۔ ہم نقصان کا پتہ لگانے کی فعال ٹیکنالوجی بھی استعمال کرتے ہیں۔ پیشگی شناخت کے میکانیزم اور رپورٹس ایک جائزے کا مطالبہ کرتی ہیں، جو بعد خودکار ٹولز اور انسانی منتظمین کے امتزاج سے فائدہ اٹھا سکتا ہے تاکہ ہماری پالیسیوں کے مطابق مناسب کارروائی کی جا سکے۔

ہم درج ذیل H2 2024 میں اپنے مواد کی نگرانی کے بارے میں مزید معلومات فراہم کرتے ہیں۔

a) نوٹسز جو DSA آرٹیکل 16 کے مطابق جمع کروائے گئے
(DSA آرٹیکل (b)15.1)

DSA کے آرٹیکل 16 کے مطابق، Snap نے ایسے میکانزم کو نافذ کیا ہے جو صارفین اور غیر صارفین کو Snap کو Snapchat پر ان معلومات کی مخصوص اشیاء کی موجودگی سے مطلع کرنے کے قابل بناتا ہے جن کو وہ غیر قانونی مواد سمجھتے ہیں۔ وہ مخصوص مواد یا اکاؤنٹس کی رپورٹ کر سکتے ہیں، یا تو براہ راست Snapchat ایپ میں یا ہماری ویب سائٹ پر۔ 

ایپ کے اندر یا ہماری ویب سائٹ کے ذریعے نوٹسز جمع کروانے میں، رپورٹر ان اختیارات کی فہرست سے رپورٹنگ کی مخصوص وجہ کا انتخاب کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات میں درج کردہ خلاف ورزیوں کے زمرے کی عکاسی کرتے ہیں (مثال کے طور پر، نفرت انگیز تقریر، منشیات)۔ ہماری کمیونٹی کی ہدایات ایسے مواد اور سرگرمیوں پر پابندی عائد کرتی ہیں جو یورپی یونین میں غیر قانونی ہیں، لہٰذا ہماری رپورٹنگ کی وجوہات بڑی حد تک یورپی یونین میں غیر قانونی مواد کے مخصوص زمرے کی عکاسی کرتی ہیں۔ تاہم، اگر یورپی یونین کا رپورٹر اس حد تک یہ سمجھتا ہے کہ جو مواد یا اکاؤنٹ وہ رپورٹ کر رہا ہے وہ ان وجوہات کی بنا پر غیر قانونی ہے جو ہمارے رپورٹنگ مینو میں خاص طور پر بیان نہیں کی گئی ہیں، تو وہ اسے "دیگر غیر قانونی مواد" کے طور پر رپورٹ کر سکتا ہے اور اسے یہ بیان کرنے کا موقع دیا جاتا ہے کہ اسے کیوں یقین ہے کہ جو مواد وہ رپورٹ کر رہے ہیں وہ غیر قانونی ہے۔ 

رپورٹنگ کی مدت (H2 2024) کے دوران، ہمیں یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ درج ذیل نوٹسز موصول ہوئے ہیں:

ذیل میں، ہم یہ تفصیل فراہم کرتے ہیں کہ ان نوٹسز پر کس طرح کارروائی کی گئی – یعنی ایسا انسانی جائزے سمیت کسی عمل کے ذریعے ہوا یا صرف خودکار ذرائع سے ایسا کیا گیا: 

اگر جائزے کے بعد، ہم یہ طے کریں کہ رپورٹ کردہ مواد یا اکاؤنٹ ہماری کمیونٹی کی ہدایات (بشمول غیر قانونی ہونے کی وجوہات) کی خلاف ورزی کرتا ہے، تو ہم (i) ناگوار مواد کو ہٹا سکتے ہیں، (ii) متعلقہ اکاؤنٹ ہولڈر کو متنبہ کر سکتے ہیں اور اکاؤنٹ کے خلاف اسٹرائیک بھیج سکتے ہیں، اور/یا (iii) جیسا کہ ہماری Snapchat کی نگرانی، نفاذ اور اپیلوں کی وضاحت میں بیان کیا گیا ہے ہم متعلقہ اکاؤنٹ کو لاک کر سکتے ہیں۔ 

H2 2024 میں، ہم نے یورپی یونین میں DSA کے آرٹیکل 16 کے مطابق جمع کردہ نوٹسز موصول ہونے پر درج ذیل نفاذ کے اقدامات کیے ہیں:

H2 2024 میں، "دیگر غیر قانونی مواد" سے متعلق ایسی تمام رپورٹس جن پر ہم نے کارروائی کی تھی بالآخر ہماری کمیونٹی کی ہدایات کے تحت نافذ کر دی گئی ہیں کیونکہ ہماری کمیونٹی کی ہدایات متعلقہ مواد یا سرگرمی پر پابندی عائد کرتی تھی۔ اس طرح ہم نے ان نفاذ کی کارروائیوں کو مندرجہ بالا جدول میں کمیونٹی کی ہدایات کی خلاف ورزی کے متعلقہ زمرے کے تحت درجہ بند کیا ہے۔

اوپر دیے گئے نفاذ کے علاوہ، ہم Snap کی دیگر قابل اطلاق پالیسیوں اور ہدایات کے مطابق مطلع کردہ مواد پر کارروائی کر سکتے ہیں: 

  • ہمارے عوامی نشریاتی پلیٹ فارم پر موجود مواد کے حوالے سے، اگر ہمیں یہ معلوم ہو جاتا ہے کہ رپورٹ کردہ مواد تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے معیار پر پورا نہیں اترتا، تو ہم الگورتھمک تجویز کے لیے مواد کو مسترد کر سکتے ہیں یا ہم مواد کی اشاعت کو مخصوص ناظرین تک محدود کر سکتے ہیں (اگر مواد تجویز کے لیے ہمارے اہلیتی معیار پر پورا تو اترتا ہے لیکن حساس ہے یا حساس معاملات کے لیے اشارہ نما ہے)۔

H2 2024 میں، ہم نے Snapchat کے عوامی نشریاتی پلیٹ فارمز پر موجود اس مواد کے حوالے سے درج ذیل اقدامات کیے ہیں جو ہمیں یورپی یونین پر رپورٹ کیے گئے تھے، اور جو تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کے مطابق تھا:

  • اگر ہمیں اس بات کا پتہ چلا کہ رپورٹ کردہ اشتہار ہماری تشہیری پالیسیوں کی خلاف ورزی کرتا ہے، تو ہم جائزہ لینے پر اس کو ہٹا سکتے ہیں۔


H1 2024 میں، ہم نے یورپی یونین میں رپورٹ کردہ اشتہارات کے بارے میں درج ذیل اقدامات کیے:


ب)
Snap کے اپنے اقدام میں موجود مواد کی ماڈریشن
(آرٹیکل (c)15.1)


DSA آرٹیکل 16 کے مطابق پیش کردہ نوٹس کا جائزہ لینے کے علاوہ Snap بھی اپنی سطح پر مواد ماڈریشن میں شامل ہوتا ہے۔ ذیل میں ہم Snap کے اپنے اقدام میں موجود مواد کی ماڈریشن کے متعلق معلومات فراہم کرتے ہیں، بشمول خودکار ٹولز کا استعمال، مواد کی ماڈریشن کے انچارج افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات، اور فعال مواد کی ماڈریشن کی ان کوششوں کے نتیجے میں عائد پابندیوں کی تعداد اور اقسام۔


  • Snap کے اپنے اقدام کی ماڈریشن میں خودکار ٹولز کا استعمال


ہم اپنی شرائط و ضوابط کی خلاف ورزی کا پتہ لگانے، اور بعض صورتوں میں انہیں نافذ کرنے کے لیے خود کار ٹولز لگاتے ہیں۔ اس میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، ناجائز زبان کا پتہ لگانے والے ماڈل (جو توہین آمیز کی ورڈز اور ایموجیز کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ شدہ فہرست کی بنیاد پر مواد کا پتہ لگاتے اور اسے مسترد کرتے ہیں) اور آرٹیفیشل انٹیلی جنس/ مشین لرننگ ٹیکنالوجی شامل ہیں۔ ہمارے خودکار ٹولز ہماری کمیونٹی ہدایات (جو دیگر چیزوں کے علاوہ، غیر قانونی مواد کی ممانعت کرتی ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیے گئے ہیں اور، جہاں قابل اطلاق ہو، ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات اور تشہیری پالیسیاں۔


H1 2024 میں، ہماری جانب سے فعال طور پر پتہ لگانے کا کام خودکار ٹولز کا استعمال کرتے ہوئے کیا گیا تھا۔ جب ہمارے خودکار ٹولز ہماری پالیسیوں کی خلاف ورزی کا پتہ لگاتے ہیں، تو وہ خودکار طور پر ہماری پالیسیوں کے مطابق کارروائی کرتے ہیں، یا وہ انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔ اس عمل کے نتیجے میں عائد کردہ پابندیوں کی تعداد اور اقسام کو ذیل میں بیان کیا گیا ہے۔


  • Snap کے اپنے اقدام پر عائد کردہ پابندیوں کی تعداد اور اقسام


H1 2024 میں، Snap نے خودکار ٹولز کے استعمال کے ذریعے، ہماری کمیونٹی ہدایات کی خلاف ورزیوں (بشمول یورپی یونین اور ریاست کے رکن کے قوانین کے تحت غیر قانونی مواد اور سرگرمیوں کی خلاف ورزیوں) کا فعال طور پر پتہ لگانے کے بعد نفاذ کی درج ذیل کارروائیاں انجام دی ہیں:

اس کے علاوہ، H1 2024 میں، ہماری عوامی براڈ کاسٹ کی سطحوں پر مواد کے حوالے سے، ہم نے خودکار ٹولز کے استعمال کے ذریعے، Snapchat پر اپنی تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی خلاف ورزیوں کا فعال طور پر پتہ لگانے کے بعد درج ذیل اقدامات کیے ہیں۔

* جیسا کہ ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات میں بیان کیا گیا ہے، وہ اکاؤنٹس جو ہماری تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات کی متواتر یا شدید خلاف ورزی کرتے ہیں انہیں ہماری عوامی براڈ کاسٹ کی سطحوں پر تجاویز سے عارضی یا مستقل طور پر نااہل قرار دیا جاسکتا ہے۔ ہم اس کارروائی کو اپنی فعال ماڈریشن کی کوششوں کے تناظر میں لاگو کرتے ہیں۔

اس کے علاوہ، H1 2024 میں، ہم نے Snapchat پر فعال طور پر، اپنی تشہیری پالیسیوں کی خلاف ورزیوں کے خودکار ٹولز کے استعمال کے ذریعے پتہ لگانے کے بعد درج ذیل اقدامات کیے:

  • مواد کی ماڈریشن کے ان چارج افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات


ہمارے مواد کی ماڈریشن ٹیمز ہماری Snapchat کمیونٹی کی حفاظت میں مدد کے لیے ہماری مواد کی ماڈریشن کی پالیسیوں کا اطلاق کرتی ہیں۔ انہیں کئی ہفتوں تک ترتبیت دی جاتی ہے، جس میں ٹیم کے نئے اراکین کو Snap کی پالیسیوں، ٹولز، اور ایسکیلیشنز کے طریقہ کار کے بارے میں تعلیم دی جاتی ہے۔ ہماری ماڈریشن ٹیمز باقاعدگی سے اپنے ورک فلوز سے متعلق ریفریشر تربیت میں حصہ لیتی ہیں، خاص طور پر جب ہم پالیسی کی بارڈر لائن اور سیاق و سباق پر منحصر صورتوں کا سامنا کرتے ہیں۔ ہم هنر میں اضافے کے پروگرام، سرٹیفیکیشن سیشنز، اور کوئزز بھی منعقد کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹرز موجودہ اور تمام اپ ڈیٹ کردہ پالیسیوں کے مطابق ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کا ٹرینڈ سامنے آتا ہے، تو ہم فوری طور پر پالیسی کی وضاحتیں پھیلا دیتے ہیں تاکہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہوں۔


ہم اپنی مواد کی ماڈریشن ٹیمز کو خاطر خواہ معاونت اور وسائل فراہم کرتے ہیں، بشمول کام پر تندرست رہنے کے حوالے سے معاونت اور دماغی صحت کی سروسز تک آسان رسائی۔ 

c) Snap کے اندرونی شکایت پر عمل درآمد (مثلاً درخواستیں) کے سسٹمز کے ذریعے موصول ہونے والی شکایات
(آرٹیکل 15.1(d))


جن یوزرز کے اکاؤنٹس کمیونٹی کی ہدایات کی خلاف ورزیوں (بشمول غیر قانونی مواد اور سرگرمیوں کی غرض سے) کے لیے ہماری حفاظتی ٹیمز کی جانب سے لاک کیے گئے ہیں وہ لاک اکاؤنٹ کی درخواست جمع کروا سکتے ہیں۔ یوزرز مواد میں ماڈریشن کے کچھ فیصلوں کے خلاف بھی درخواست دے سکتے ہیں۔

رپورٹنگ کی مدت (H1 2024) کے دوران، Snap نے یورپی یونین میں اپنے اندرونی شکایات پر عمل درآمد کرنے کے سسٹم کے ذریعے جمع کروائی گئی درج ذیل درخواستوں (بشمول اکاؤنٹ لاک اور مواد کی سطح کے ماڈریشن کے فیصلوں کے خلاف درخواستوں) پر کارروائی کی:

د) مواد میں ماڈریشن کے مقصد کے لیے خودکار ذرائع کا استعمال
(آرٹیکلز (e)15.1 اور (c)42.2)

  • معیاری وضاحت اور مقاصد


جیسا کہ اوپر سیکشن (b)3 میں وضاحت کی گئی ہے، ہم اپنی عوامی مواد کی سطحوں پر اپنی شرائط اور پالیسیوں کی خلاف ورزیوں کا فعال طور پر پتہ لگانے اور، بعض صورتوں میں، نافذ کرنے کے لیے خودکار ٹولز تعینات کرتے ہیں۔ اس میں ہیش میچنگ ٹولز (بشمول PhotoDNA اور Google CSAI میچ)، ناجائز زبان کا پتہ لگانے والے ماڈلز (جو توہین آمیز کی ورڈز اور ایموجیز کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ شدہ فہرست کی بنیاد پر مواد کا پتہ لگاتے اور اسے مسترد کرتے ہیں) اور آرٹیفیشل انٹیلیجنس/ مشین لرننگ ٹیکنالوجی شامل ہیں۔ ہمارے خودکار ٹولز ہماری کمیونٹی ہدایات (جو دیگر چیزوں کے علاوہ، غیر قانونی مواد کی ممانعت کرتی ہیں) کی خلاف ورزیوں کا پتہ لگانے کے لیے ڈیزائن کیے گئے ہیں اور، جہاں قابل اطلاق ہو، ہمارے تجویز کیے جانے کی اہلیت کیلئے مواد کی ہدایات اور تشہیری پالیسیاں۔

جب ہمارے خودکار ٹولز ہماری پالیسیوں کی ممکنہ خلاف ورزی کا پتہ لگاتے ہیں، تو وہ خودکار طور پر ہماری پالیسیوں کے مطابق کارروائی کرتے ہیں، یا وہ انسانی جائزے کے لیے ایک ٹاسک تخلیق کرتے ہیں۔

  • درستگی اور نقص کی ممکنہ شرح کے انڈیکیٹرز، رکن ریاست کے لحاظ سے منظم کردہ


ہم اپنی عوامی سطحوں پر اپنے خودکار ماڈریشن کے ٹولز کے ذریعے پروسیس کیے گئے کاموں کے بے ترتیب نمونوں کو منتخب کرکے اور انہیں ہماری انسانی ماڈریشن ٹیموں کے ذریعے دوبارہ جائزہ لینے کے لیے جمع کر کے اپنے خودکار ماڈریشن کے ٹولز کی درستگی اور غلطی کی ممکنہ شرح کی نگرانی کرتے ہیں۔ درستگی کی شرح ان بے ترتیب نمونوں سے ٹاسکس کی شرح فیصد ہے جنہیں ہمارے انسانی ماڈریٹرز نے دوبارہ جائزہ لینے پر برقرار رکھا تھا۔ نقص کی شرح %100 اور درستگی کی شرح کے درمیان فرق ہے جیسا کہ اوپر حساب کیا گیا ہے۔

H1 2024 کی سیمپلنگ کی بنیاد پر، خلاف ورزیوں کی سب کیٹگریز میں استعمال ہونے والے خودکار طریقوں کی درستگی کی شرح تقریباَ %93 اور نقص کی شرح تقریباَ %7 تھی۔

ہم عام طور پر Snapchat پر اپنے ماڈریٹ کردہ مواد کی زبان کو ٹریک نہیں کرتے، اور اس لیے ریاست کے رکن کی ہر آفیشل زبان کی غرض سے اپنے خودکار ماڈریشن ٹولز کے لیے درستگی اور نقص کی شرح کی تفصیل فراہم نہیں کر سکتے۔ اس معلومات کے لیے متبادل کے طور پر، ہم ذیل میں ہر ریاست کے رکن کے خود کار طور پر ماڈریٹ کردہ مواد کے لیے اپنی درستگی اور نقص کی شرح کی تفصیل فراہم کرتے ہیں۔

  • حفاظتی اقدامات


ہم بنیادی حقوق پر خودکار ماڈریشن ٹولز کے ممکنہ اثر سے آگاہ ہیں، اور اس اثر کو کم کرنے کے لیے حفاظتی اقدامات تعینات کرتے ہیں۔

Snapchat پر تعینات ہونے سے قبل ہمارے خودکار مواد کے ماڈریشن ٹولز کو ٹیسٹ کیا جاتا ہے۔ ماڈلز کو کارکردگی کے لیے آف لائن ٹیسٹ کیا جاتا ہے اور پیداوار کے لیے مکمل طور پر شامل کیے جانےسے قبل ان کے صحیح طور پر کام کرنے کو یقینی بنانے کے لیے A/B ٹیسٹنگ کے ذریعے تعینات کیا جاتا ہے۔ ہم جزوی (مرحلہ وار) رول آؤٹس کے دوران پری لانچ کوالٹی اشورنس (QA) کے جائزے، لانچ کے جائزے، اور درستگی کے جاری QA چیکس انجام دیتے ہیں۔ 

اپنے خودکار ٹولز لانچ کرنے کے بعد، ہم مستقل بنیاد پر ان کی کارکردگی اور درستگی کا جائزہ لیتے ہیں، اور ضرورت کے مطابق ایڈجسٹمنٹس کرتے ہیں۔ اس عمل میں ہمارے انسانی ماڈریٹرز کے ذریعے خودکار کاموں کے نمونوں کا دوبارہ جائزہ لینا شامل ہے تاکہ ایسے ماڈلز کی شناخت کی جا سکے جن کی درستگی کو بہتر بنانے کے لیے ایڈجسٹمنٹس کی ضرورت ہوتی ہے۔ ہم عوامی کہانیوں کی بے ترتیب یومیہ نمونہ سازی کے ذریعے Snapchat پر مخصوص نقصانات کے پھیلاؤ کی نگرانی کرتے ہیں، اور مزید بہتری کے لیے شعبوں کی شناخت کرنے کی غرض سے اس معلومات کو استعمال کرتے ہیں۔

ہماری پالیسیاں اور نظام مسلسل اور منصفانہ نفاذ کو فروغ دیتے ہیں، بشمول ہمارے خودکار ٹولز کی جانب سے، اور اسنیپ چیٹرز
کو نوٹس اور اپیل کے عمل کے ذریعے نفاذ کے نتائج پر بامعنی تنازعہ کرنے کا موقع فراہم کرتے ہیں جن کا مقصد انفرادی سنیپ چیٹر کے حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔

ہم اپنے خودکار مواد کے ماڈریشن ٹولز کو بہتر بنانے کی کوشش کرتے ہیں تاکہ ان کی درستگی کو بہتر بنایا جا سکے اور ہماری پالیسیوں کے مستقل اور غیر جانبدار نفاذ کی حمایت کی جا سکے۔

ہ) عدالت سے باہر کے تنازعہ کے تصفیے کے اداروں کو آرٹیکل 21 میں جمع کروائے گئے تنازعات
(آرٹیکل (a)24.1)

رپورٹنگ کی مدت (H1 2024) کے لیے، DSA آرٹیکل 21 کے باضابطہ طور پر تصدیق شدہ عدالت سے باہر تنازعات کے تصفیے کے اداروں کو جمع کروائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تکیمل کے اوسط اوقات، یا تنازعات کے حصے کو ظاہر کرنے والی تفصیل فراہم کرنے سے قاصر ہیں جہاں Snap نے عدالت سے باہر تنازعات کے تصفیے کے اداروں پر عمل درآمد کیا۔

نوٹ کریں، کہ H1 2024 میں ہمیں تنازعات کے دو (2) نوٹسز موصول ہوئے جو DSA آرٹیکل 21 کے تحت عدالت سے باہر تنازعات کے تصفیے کے ادارے کے طور پر سرٹیفکیشن کے لیے پیش کیے گئے تھے۔ ہم نے ان تنازعات کو درج بالا تعداد میں شامل نہیں کیا کیونکہ تنازعات کے ان نوٹسز کو بھیجنے والا ادارہ ہماری درخواست پر ان کے سرٹیفیکشن اسٹیٹس کی تصدیق کرنے سے قاصر تھا۔

و) آرٹیکل 23 کے تحت عائد کردہ معطلیاں
(آرٹیکل (b)24.1)
  • آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: اکثر واضح طور پر غیر قانونی مواد فراہم کرنے والے اکاؤنٹس کی معطلی

جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور درخواستوں کے وضاحت کار میں وضاحت کی گئی ہے، ہم جن اکاؤنٹس کا تعین کرتے ہیں وہ بنیادی طور پر ہماری کمیونٹی کی ہدایات (بشمول واضح طور پر غیر قانونی مواد کی فراہمی کے ذریعے) کی خلاف ورزی کرنے کے لیے استعمال ہوتے ہیں اور ایسے اکاؤنٹس جو سنگین نقصانات کا باعث بنتے ہیں انہیں فوری طور پر غیر فعال کر دیا جاتا ہے۔ کمیونٹی کی ہدایات کی دیگر تمام خلاف ورزیوں کے لیے، Snap عام طور پر تین حصوں پر مشتمل نفاذ کا اطلاق کرتا ہے:

  • پہلا مرحلہ: خلاف ورزی کرنے والا مواد ہٹا دیا جاتا ہے۔

  • دوسرا مرحلہ: سنیپ چیٹر نوٹیفکیشن حاصل کرتا ہے، جس سے یہ ظاہر ہوتا ہے کہ انہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی ہے، ان کا مواد ہٹا دیا گیا ہے، اور بار بار خلاف ورزیوں کے نتیجے میں ان کے اکاؤنٹ کو غیر فعال کرنے سمیت اضافی نفاذ کی کارروائیاں ہوں گی۔

  • تیسرا مرحلہ: ہماری ٹیم سنیپ چیٹر کے اکاؤنٹ کے خلاف ایک سٹرائیک ریکارڈ کرتی ہے۔

EU میں موجود اکاؤنٹس میں H1 2024 میں سٹرائیکس (یعنی وارننگ) کی تعداد اور نافذ کے گئے لاکس کی معلومات اوپر، سیکشن (a)3 اور (b)3 میں ہیں۔

  • آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: ایسے افراد، اداروں اور شکایت کنندگان کی جانب سے نوٹسز اور شکایات کی پروسیسنگ پر معطلی جو اکثر واضح طور پر بے بنیاد نوٹسز یا شکایات پیش کرتے ہیں۔

"واضح طور پر بے بنیاد" نوٹسز اور شکایات کی ہماری مخصوص اصطلاح، اور اس طرح کے نوٹسز اور شکایات کی متواتر جمع بندی کے لیے ہماری اندرونی تھریش ہولڈز کا اطلاق کرتے ہوئے، DSA آرٹیکل 23.2 کے تحت H1 2024 میں نافذ کردہ نوٹسز اور شکایات کی پروسیسنگ پر معطلی کی تعداد درج ذیل ہے:

  • حفاظتی اقدامات


ہم بنیادی حقوق پر خودکار ماڈریشن ٹولز کے ممکنہ اثر سے آگاہ ہیں، اور اس اثر کو کم کرنے کے لیے حفاظتی اقدامات تعینات کرتے ہیں۔

Snapchat پر تعینات ہونے سے قبل ہمارے خودکار مواد کے ماڈریشن ٹولز کو ٹیسٹ کیا جاتا ہے۔ ماڈلز کو کارکردگی کے لیے آف لائن ٹیسٹ کیا جاتا ہے اور پیداوار کے لیے مکمل طور پر شامل کیے جانےسے قبل ان کے صحیح طور پر کام کرنے کو یقینی بنانے کے لیے A/B ٹیسٹنگ کے ذریعے تعینات کیا جاتا ہے۔ ہم جزوی (مرحلہ وار) رول آؤٹس کے دوران پری لانچ کوالٹی اشورنس (QA) کے جائزے، لانچ کے جائزے، اور درستگی کے جاری QA چیکس انجام دیتے ہیں۔ 

اپنے خودکار ٹولز لانچ کرنے کے بعد، ہم مستقل بنیاد پر ان کی کارکردگی اور درستگی کا جائزہ لیتے ہیں، اور ضرورت کے مطابق ایڈجسٹمنٹس کرتے ہیں۔ اس عمل میں ہمارے انسانی ماڈریٹرز کے ذریعے خودکار کاموں کے نمونوں کا دوبارہ جائزہ لینا شامل ہے تاکہ ایسے ماڈلز کی شناخت کی جا سکے جن کی درستگی کو بہتر بنانے کے لیے ایڈجسٹمنٹس کی ضرورت ہوتی ہے۔ ہم عوامی کہانیوں کی بے ترتیب یومیہ نمونہ سازی کے ذریعے Snapchat پر مخصوص نقصانات کے پھیلاؤ کی نگرانی کرتے ہیں، اور مزید بہتری کے لیے شعبوں کی شناخت کرنے کی غرض سے اس معلومات کو استعمال کرتے ہیں۔

ہماری پالیسیاں اور نظام مسلسل اور منصفانہ نفاذ کو فروغ دیتے ہیں، بشمول ہمارے خودکار ٹولز کی جانب سے، اور اسنیپ چیٹرز
کو نوٹس اور اپیل کے عمل کے ذریعے نفاذ کے نتائج پر بامعنی تنازعہ کرنے کا موقع فراہم کرتے ہیں جن کا مقصد انفرادی سنیپ چیٹر کے حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔

ہم اپنے خودکار مواد کے ماڈریشن ٹولز کو بہتر بنانے کی کوشش کرتے ہیں تاکہ ان کی درستگی کو بہتر بنایا جا سکے اور ہماری پالیسیوں کے مستقل اور غیر جانبدار نفاذ کی حمایت کی جا سکے۔

ہ) عدالت سے باہر کے تنازعہ کے تصفیے کے اداروں کو آرٹیکل 21 میں جمع کروائے گئے تنازعات
(آرٹیکل (a)24.1)

رپورٹنگ کی مدت (H1 2024) کے لیے، DSA آرٹیکل 21 کے باضابطہ طور پر تصدیق شدہ عدالت سے باہر تنازعات کے تصفیے کے اداروں کو جمع کروائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تکیمل کے اوسط اوقات، یا تنازعات کے حصے کو ظاہر کرنے والی تفصیل فراہم کرنے سے قاصر ہیں جہاں Snap نے عدالت سے باہر تنازعات کے تصفیے کے اداروں پر عمل درآمد کیا۔

نوٹ کریں، کہ H1 2024 میں ہمیں تنازعات کے دو (2) نوٹسز موصول ہوئے جو DSA آرٹیکل 21 کے تحت عدالت سے باہر تنازعات کے تصفیے کے ادارے کے طور پر سرٹیفکیشن کے لیے پیش کیے گئے تھے۔ ہم نے ان تنازعات کو درج بالا تعداد میں شامل نہیں کیا کیونکہ تنازعات کے ان نوٹسز کو بھیجنے والا ادارہ ہماری درخواست پر ان کے سرٹیفیکشن اسٹیٹس کی تصدیق کرنے سے قاصر تھا۔

و) آرٹیکل 23 کے تحت عائد کردہ معطلیاں
(آرٹیکل (b)24.1)
  • آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: اکثر واضح طور پر غیر قانونی مواد فراہم کرنے والے اکاؤنٹس کی معطلی

جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور درخواستوں کے وضاحت کار میں وضاحت کی گئی ہے، ہم جن اکاؤنٹس کا تعین کرتے ہیں وہ بنیادی طور پر ہماری کمیونٹی کی ہدایات (بشمول واضح طور پر غیر قانونی مواد کی فراہمی کے ذریعے) کی خلاف ورزی کرنے کے لیے استعمال ہوتے ہیں اور ایسے اکاؤنٹس جو سنگین نقصانات کا باعث بنتے ہیں انہیں فوری طور پر غیر فعال کر دیا جاتا ہے۔ کمیونٹی کی ہدایات کی دیگر تمام خلاف ورزیوں کے لیے، Snap عام طور پر تین حصوں پر مشتمل نفاذ کا اطلاق کرتا ہے:

  • پہلا مرحلہ: خلاف ورزی کرنے والا مواد ہٹا دیا جاتا ہے۔

  • دوسرا مرحلہ: سنیپ چیٹر نوٹیفکیشن حاصل کرتا ہے، جس سے یہ ظاہر ہوتا ہے کہ انہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی ہے، ان کا مواد ہٹا دیا گیا ہے، اور بار بار خلاف ورزیوں کے نتیجے میں ان کے اکاؤنٹ کو غیر فعال کرنے سمیت اضافی نفاذ کی کارروائیاں ہوں گی۔

  • تیسرا مرحلہ: ہماری ٹیم سنیپ چیٹر کے اکاؤنٹ کے خلاف ایک سٹرائیک ریکارڈ کرتی ہے۔

EU میں موجود اکاؤنٹس میں H1 2024 میں سٹرائیکس (یعنی وارننگ) کی تعداد اور نافذ کے گئے لاکس کی معلومات اوپر، سیکشن (a)3 اور (b)3 میں ہیں۔

  • آرٹیکل 23.1 کے تحت عائد کردہ معطلیاں: ایسے افراد، اداروں اور شکایت کنندگان کی جانب سے نوٹسز اور شکایات کی پروسیسنگ پر معطلی جو اکثر واضح طور پر بے بنیاد نوٹسز یا شکایات پیش کرتے ہیں۔

"واضح طور پر بے بنیاد" نوٹسز اور شکایات کی ہماری مخصوص اصطلاح، اور اس طرح کے نوٹسز اور شکایات کی متواتر جمع بندی کے لیے ہماری اندرونی تھریش ہولڈز کا اطلاق کرتے ہوئے، DSA آرٹیکل 23.2 کے تحت H1 2024 میں نافذ کردہ نوٹسز اور شکایات کی پروسیسنگ پر معطلی کی تعداد درج ذیل ہے:

4- ہماری مواد کی ماڈریشن کی ٹیموں کے متعلق معلومات
الف) مواد کو ماڈریٹ کرنے کے لیے مختص کردہ انسانی وسائل، بشمول DSA آرٹیکلز 16، 20 اور 22 کی تعمیل کے لیے، جو رکن ریاستوں کی آفیشل زبانوں کے ذریعے علیحدہ کیے گئے ہیں۔
(آرٹیکل (a)42.2)


ہماری مواد کی ماڈریشن کی ٹیمیں دنیا بھر میں 24/7 کام کرتی ہیں، جو ہمیں اپنی کمیونٹی کو محفوظ رکھنے میں مدد کرنے کے قابل بناتی ہیں۔ ذیل میں 31 دسمبر 2024 تک موڈیریٹرز کے زبان کی مہارت کے لحاظ سے ہمارے ان انسانی موڈریشن کے وسائل کا خلاصہ دیا گیا ہے (نوٹ کریں کہ کچھ ماڈریٹرز متعدد زبانوں میں مہارت رکھتے ہیں):

درج بالا ٹیبل میں مواد کی ماڈریشن کے لیے مختص کردہ تمام انسانی وسائل شامل ہیں جو 30 جون 2024 تک یورپی یونین کی رکن ریاستوں کی آفیشل زبانوں کی معاونت کرتے ہیں۔ ایسے حالات میں جہاں ہمیں زبان کی اضافی سپورٹ کی ضرورت ہوتی ہے، ہم ترجمے کی خدمات استعمال کرتے ہیں۔

b) مواد کے ماڈریٹرز کی قابلیت اور لسانی مہارت؛ تربیت اور معاونت فراہم کی گئی
(آرٹیکل 42.2(b))


ماڈریٹرز کو ملازمت کی معیاری تفصیل کا استعمال کرتے ہوئے بھرتی کیا جاتا ہے جس میں زبان کی شق شامل ہوتی ہے (ضرورت کے مطابق)۔ زبان کے تقاضے میں کہا گیا ہے کہ امیدوار کو زبان میں تحریری اور بولی جانے والی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور انٹری لیول کے عہدوں کے لیے کم از کم ایک سال کام کا تجربہ ہونا چاہیے۔
امیدواروں کو زیر غور آنے کے لیے تعلیمی اور پس منظر کے تقاضوں کو پورا کرنا بھی لازمی ہوگا۔ امیدواروں کو بھی مواد کی ماڈریشن کے ملک یا علاقے کے موجودہ واقعات کی سمجھ کا مظاہرہ کرنا ہوگا جسے وہ سپورٹ کریں گے۔

Snap کی جانب سے مواد کے ماڈریٹرز کو فراہم کی جانے والی تربیت اور معاونت کے بارے میں معلومات کے لیے مندرجہ بالا معلومات ملاحظہ کریں، جو DSA آرٹیکل 15(1)(c) کے تحت الگ طور پر ضروری ہے اور اس طرح سیکشن 3 (b) میں شامل ہے، جس کا عنوان ہے: "مواد کی ماڈریشن کے ان چارج دار افراد کو تربیت اور مدد فراہم کرنے کے لیے کیے گئے اقدامات"

بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کی میڈیا سکیننگ رپورٹ

جاری کردہ: 31 جنوری 2025

تازہ ترین اطلاع : 31 جنوری 2025

یہ رپورٹ 1 جنوری 2024 سے شروع ہونے والے اور 31 دسمبر 2024 کو ختم ہونے والے عرصے کا احاطہ کرتی ہے۔

پس منظر

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEA) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا Snap کی اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔


ہم جن ٹیکنالوجیز کو استعمال کرتے ہیں ان میں شامل ہیں (ا) ٖPhotoDNA کی مضبوط ہیش میچنگ اور Google کی چائلڈ سیکسول ابیوز امیجری (CSAI) میچ بالترتیب CSEA کی معلوم غیر قانونی تصاویر اور ویڈیوز کی شناخت کے لیے؛ اور (ب) Google کی کانٹینٹ سیفٹی API، "نیوربیفور ہیشڈ" CSEA امیجری کی شناخت کے لیے۔ قانون کے مطابق ہم CSEA کی منظر کشی کی رپورٹ یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC، اس کے نتیجے میں، ضرورت کے مطابق، امریکہ اور دیگر ممالک میں قانون نافذ کرنے والے اداروں کے ساتھ ہم آہنگی کرتا ہے۔


رپورٹ

نیچے دیئے گئے چارٹ میں 2024 کے دوران CSEA کی منظر کشی کے لیے یورپی یونین کے صارفین کے خلاف فعال کھوج اور اس کے نتیجے میں نفاذ کے بارے مواد شامل ہے۔ (نوٹ، 2024 میں مذکورہ پروایکٹو اسکیننگ کے نتیجے میں کچھ نفاذ ابھی بھی اپیل کے تابع ہوسکتے ہیں جب تک یہ رپورٹ مرتب کی گئی تھی، اور اس وجہ سے ذیل میں اپیلوں اور بحالی کے اعداد و شمار میں ظاہر نہیں ہوں گے۔)

*یہ زمرہ بچوں کے جنسی استحصال کو روکنے والے Snap کی کمیونٹی کی ہدایات
کی خلاف ورزیوں کے بارے میں اطلاع دیتا ہے۔ Snap کی کمیونٹی کی ہدایات کی دیگر خلاف ورزیوں کے لیے نافذ العمل مواد کی اطلاع یہاں نہیں دی گئی ہے۔

** نفاذ کو کالعدم کیا جا سکتا ہے اگر ہم یہ تعین کرتے ہیں کہ یہ نفاذ کے وقت لاگو ہماری پالیسیوں کی بنیاد پر غلط تھا، یا اگر ہم یہ تعین کرتے ہیں کہ یہ اصل میں صحیح طریقے سے نافذ کیا گیا تھا، لیکن اپیل کا جائزہ لینے کے وقت ہماری قابل اطلاق پالیسی تبدیل ہو گئی ہے۔


مواد کی ماڈریشن کے لئے حفاظتی اقدامات

CSEA میڈیا سکینگ پر لاگو حفاظتی اقدامات اوپر بیان کیے گئے EU DSA شفافیت کی رپورٹ میں شامل کیے گئے ہیں۔

یورپی یونین میں دہشت گردی کے مواد کی آن لائن شفافیت کی رپورٹ

شائع کردہ: 17 جون 2024

آخری مرتبہ اپ ڈیٹ کیا گیا: 17 جون 2024

یہ شفافیت کی رپورٹ یورپی پارلیمنٹ اور یورپی یونین کی کونسل کے ریگولیشن 2021/784 کے آرٹیکلز (2)7 اور (3)7 کے مطابق شائع کی گئی ہے، جو کہ دہشت گردی کے مواد کی آن لائن تشہیر (ریگولیشن) کی نشاندہی کرتی ہے۔ یہ 1 جنوری تا 31 دسمبر، 2023کے رپورٹنگ کے دورانیے کا احاطہ کرتی ہے۔


عمومی معلومات
  • آرٹیکل (a)(3)7: دہشت گردی کے مواد تک رسائی کی شناخت کرنے اور ہٹانے یا غیر فعال کرنے کے حوالے سے ہوسٹنگ سروس کے فراہم کنندہ کے اقدامات کے متعلق معلومات

  • آرٹیکل (b)(3)7: ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے ایسے مواد کے دوبارہ آن لائن ظاہر ہونے کو روکنے کے لیے اقدامات کے متعلق معلومات جو پہلے ہٹا دی گئی یا جس تک رسائی غیر فعال کر دی گئی کیونکہ اسے دہشت گردی کا مواد تصور کیا گیا تھا، خاص طور پر جہاں خودکار ٹولز کا استعمال کیا گیا ہو


دہشت گردوں، دہشت گرد تنظیموں، اور پرتشدد انتہا پسندوں پر Snapchat استعمال کرنے کے حوالے سے پابندی عائد ہے۔ ہماری کمیونٹی کی ہدایات کے تحت دہشت گردی یا دیگر پرتشدد، مجرمانہ کارروائیوں کی حمایت، تشہیر، تعریف کرنے، یا اس کو فروغ دینے والے مواد پر پابندی عائد ہے۔ صارفین ہمارے ان ایپ رپورٹنگ مینو اور ہماری سپورٹ سائٹ کے ذریعے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرنے والے مواد کو رپورٹ کرنے کے قابل ہیں۔ ہم Spotlight اور ڈسکور جیسی عوامی سطحوں پر خلاف ورزی کرنے والے مواد کی شناخت کرنے کی کوشش کرنے کے لیے سراغ لگانے کا فعال اختیار بھی استعمال کرتے ہیں۔


اس بات سے قطع نظر کہ ہمیں مواد کی خلاف ورزی کا پتہ کیسے چل سکتا ہے، ہماری ٹرسٹ اینڈ سیفٹی کی ٹیمز، آٹومیشن اور انسانی ماڈریشن کے مجموعے کے ذریعے، فوری طور پر شناخت شدہ مواد کا جائزہ لیتی ہیں اور نفاذ کے متعلق فیصلہ سازی کرتی ہیں۔ نفاذ کاریوں میں مواد کو ہٹانا، خلاف ورزی کرنے والے اکاؤنٹ کو تنبیہ دینا یا لاک کرنا، اور، اگر ضروری ہو، تو اکاؤنٹ قانونی نافذ کرنے والوں کو رپورٹ کرنا شامل ہو سکتا ہے۔ Snapchat پر دہشت گرد یا دیگر پرتشدد انتہا پسندی کے مواد کے دوبارہ ظاہر ہونے کو روکنے کے لیے، ہم قانون نافذ کرنے والے اداروں کے ساتھ کام کرنے کے علاوہ، خلاف ورزی کرنے والے اکاؤنٹ کے ساتھ منسلک ڈیوائس کو بلاک کرنے اور یوزر کو دوسرا Snapchat اکاؤنٹ بنانے سے روکنے کے لیے اقدامات کرتے ہیں۔


دہشت گردی کے مواد کی شناخت کرنے اور انہیں ہٹانے کے لیے ہماری جانب سے کیے جانے والے اقدامات کے بارے میں اضافی تفصیلات ہمارے نفرت انگیز مواد، دہشت گردی، اور پرتشدد انتہا پسندی کے وضاحت کار اور ہماریماڈریشن، نفاذ، اور اپیلوں کے وضاحت کار میں دیکھی جا سکتی ہیں۔



رپورٹس اور نفاذ کاریاں
  • آرٹیکل (c)(3)7: ہٹانے کے احکامات یا مخصوص اقدامات کے بعد ہٹائے گئے دہشت گرد مواد کے آئٹمز کی تعداد یا جن تک رسائی غیر فعال کردی گئی ہے، اور ہٹانے کے آرڈرز کی تعداد جہاں مواد کو ہٹایا نہیں گیا یا آرٹیکل (7)3 کے پہلے ذیلی پیراگراف اور آرٹیکل (8)3 کے پہلے ذیلی پیراگراف کے مطابق جن تک رسائی غیر فعال نہیں کی گئی، اس کے اسباب کے ساتھ


رپورٹنگ کی مدت کے دوران، Snap نے ہٹانے کے کوئی آرڈرز موصول نہیں کیے، اور نہ ہی ہمیں ریگولیشن کے آرٹیکل 5 کے مطابق کسی مخصوص اقدامات کو نافذ کرنے کی ضرورت تھی۔ اس کے مطابق، ہمیں ریگولیشن کے تحت نفاذ کی کارروائی کرنے کی ضرورت نہیں تھی۔


درج ذیل ٹیبل یورپی یونین اور دنیا بھر میں، ایسے مواد اور اکاؤنٹس کے خلاف یوزر کی رپورٹس اور فعال نشاندہی کی بنیاد پر کی گئی نفاذ کی کارروائیوں کی وضاحت کرتا ہے، جو دہشت گردی اور پرتشدد انتہا پسندی کے مواد سے متعلق ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرتے ہیں

نفاذ کی درخواستیں
  • آرٹیکل 7(3)(d): آرٹیکل 10 کے مطابق ہوسٹنگ سروس کے فراہم کنندہ کے ذریعے ہینڈل کی جانے والی شکایات کی تعداد اور نتائج

  • آرٹیکل 7(3)(g): ان کیسز کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ نے مواد کے فراہم کنندہ کی جانب سے شکایت کے بعد مواد یا اس تک رسائی کو بحال کیا۔


چونکہ ہمیں رپورٹنگ کی مدت کے دوران ریگولیشن کے تحت نفاذ کی کوئی کارروائی کرنے کی ضرورت نہیں تھی جیسا کہ اوپر ذکر کیا گیا ہے، اس لیے ہم نے ریگولیشن کے آرٹیکل 10 کے مطابق کوئی شکایات ہینڈل نہیں کیں اور اس سے وابستہ بحالی کا کوئی عمل انجام نہیں دیا گیا۔


درج ذیل ٹیبل یورپی یونین اور دنیا بھر میں درخواستوں اور بحالیوں سے متعلق معلومات پر مشتمل ہے، جس میں ہماری کمیونٹی کی ہدایات کے تحت نافذ دہشت گرد اور پرتشدد انتہا پسند مواد شامل ہے۔

عدالتی کارروائیاں اور درخواستیں
  • آرٹیکل 7(3)(e): ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے پیش کردہ انتظامی یا عدالتی جائزے کی کارروائی کی تعداد اور نتیجہ

  • آرٹیکل 7(3)(f): ان کیسز کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ کو انتظامی یا عدالتی جائزے کی کارروائیوں کے نتیجے میں مواد یا اس تک رسائی بحال کرنے کی ضرورت تھی۔


چونکہ رپورٹنگ کی مدت کے دوران ہمیں ریگولیشن کے تحت نفاذ کی کوئی کارروائیاں کرنے کی ضرورت نہیں تھی، جیسا کہ اوپر ذکر کیا گیا ہے، اس لیے ہمارے پاس کوئی متعلقہ انتظامی یا عدالتی جائزے کی کارروائیاں نہیں تھی، اور نہ ہی ہمیں ایسی کسی بھی کارروائیوں کے نتیجے میں مواد کو بحال کرنے کی ضرورت تھی۔

DSA رسک اسسمنٹ

یہ رپورٹ ریگولیشن (EU) 2022/2065 کی دفعات 34 اور 35 کے تحت Snap کی ذمہ داریوں کی تعمیل کے لیے تیار کی گئی ہے، اور اس میں Snapchat کے آن لائن پلیٹ فارمز کے ڈیزائن، فعالیت اور استعمال سے پیدا ہونے والے نظامی خطرات کے ہمارے جائزے کے نتائج، ان خطرات کا جائزہ لینے کے لیے استعمال کیے گئے طریقہ کار، اور ان خطرات سے نمٹنے کے لیے اختیار کی گئی تخفیفی تدابیر شامل ہیں۔


DSA رسک اینڈ مٹیگیشن اسسمنٹ رپورٹ | Snapchat | اگست 2023 (PDF)


DSA آڈٹ اور آڈٹ کا نفاذ

یہ رپورٹس ریگولیشن (EU) 2022/2065 کی دفعہ 37 کے تحت Snap کی ذمہ داریوں کی تعمیل کے لیے تیار کی گئی ہیں اور ان میں شامل ہے: (i) ریگولیشن (EU) 2022/2065 کے باب III میں بیان کردہ ذمہ داریوں کے ساتھ Snap کی تعمیل کے آزاد آڈٹ کے نتائج ، اور (ii) اس آزادانہ آڈٹ کی آپریشنل سفارشات پر عمل درآمد کے لیے اٹھائے گئے اقدامات۔

DSA کی خود مختار آڈٹ رپورٹ | Snapchat | اگست 2024 (PDF)

DSA آڈٹ کے نفاذ کی رپورٹ | Snapchat | ستمبر 2024 (PDF)



EU VSP کوڈ آف پریکٹس

Snap ایک "ویڈیو شیئرنگ پلیٹ فارم سروس" ("VSP") کا فراہم کنندہ ہے جو آرٹیکل 1(1)(aa) AVMSD کے مطابق ہے۔ اس ضابطہ اخلاق ("ضابطہ") کو اس بات کی وضاحت کے لیے تیار کیا گیا ہے کہ Snap ڈچ میڈیا ایکٹ ("DMA") اور ڈائریکٹیو (EU) 2010/13 (جیسا کہ ڈائریکٹیو (EU) 2018/1808 کے ذریعے ترمیم شدہ ہے، جسے "آڈیوویژول میڈیا سروسز ڈائریکٹو" یا "AVMSD" کہا جاتا ہے) کے تحت بطور ویڈیو شیئرنگ پلیٹ فارم (VSP) اپنی ذمہ داریوں پر کیسے عمل کرتا ہے۔
یہ ضابطہ پورے یورپی یونین کے ساتھ ساتھ یورپی اقتصادی علاقے پر بھی قابل اطلاق ہے۔

EU VSP ضابطہ اخلاق | Snapchat | مارچ 2025 (PDF)

بلغاریہ | کروشین | چیک | ڈینش | ڈچ | استونین | فینیش | فرانسیسی | جرمن | یونانی | ہنگری | آئرش | اطالوی | لٹوین | لتھوانیائی | مالٹائی | پولش | پرتگالی | رومانیہ | سلوواک | سلووینیا | ہسپانوی | سویڈش