25 اپریل 2024
29 اگست 2024
یورپی یونین (EU) کی شفافیت کے صفحے پر خوش آمدید، جہاں ہم ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویژول میڈیا سروس ڈائریکٹیو (AVMSD)، ڈچ میڈیا ایکٹ (DMA)، اور ٹیرورسٹ کانٹینٹ آن لائن ریگولیشن (TCO) کی ضرورت کے مطابق EU کی مخصوص معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ شفافیت کی ان رپورٹس کا تازہ ترین ورژن en-US کی مقامی زبان میں پایا جا سکتا ہے۔
Snap Group Limited نے Snap B.V کو DSA کے مقاصد کے لئے اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لئے dsa-enquiries [at] snapchat.com پر نمائندے سے رابطہ کر سکتے ہیں، AVMSD اور DMA کے لئے vsp-enquiries [at] snapchat.com پر رابطہ کرسکتے ہیں، اور TCO کے لئے tco-enquiries [at] snapchat.com پر رابطہ کرسکتے ہیں، ہماری سپورٹ سائٹ کے ذریعے [یہاں]، یا:
Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands
اگر آپ قانون نافذ کرنے والی ایجنسی ہیں، تو براہ کرم یہاں بیان کردہ اقدامات پر عمل کریں۔
براہ کرم ہم سے رابطہ کرتے وقت انگریزی یا ڈچ زبان میں بات چیت کریں۔
DSA کے لیے، ہم یورپی کمیشن، اور نیدرلینڈز اتھارٹی فار کنزیومر اینڈ مارکیٹس (ACM) کے ذریعے ریگولیٹ ہوتے ہیں۔ AVMSD اور DMA کے لیے، ہمیں ڈچ میڈیا اتھارٹی (CvdM) کے ذریعے ریگولیٹ کیا جاتا ہے۔ TCO کے لیے، ہمیں نیدرلینڈز کی آن لائن دہشت گرد مواد اور بچوں کے جنسی استحصال کے مواد کو روکنے کی اتھارٹی (ATKM) کے ذریعے ریگولیٹ کیا جاتا ہے۔
Snap کو DSA کے آرٹیکلز 15، 24 اور 42 کے ذریعے Snapchat کی سروسز کے لیے Snap کے مواد کی ماڈریشن سے متعلق تجویز کردہ معلومات پر مشتمل رپورٹس شائع کرنے کی ضرورت ہے جنہیں "آن لائن پلیٹ فارمز" سمجھا جاتا ہے، یعنی Spotlight، آپ کے لئے، عوامی پروفائلز، میپ، لینز اور اشتہارات۔ یہ رپورٹ 25 اکتوبر 2023 سے ہر 6 ماہ بعد شائع کی جانی چاہئے۔
Snap سال میں دو بار شفافیت کی رپورٹس شائع کرتا ہے تاکہ Snap کی تحفظ کی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کے بارے میں معلومات فراہم کر سکے۔ ہماری تازہ ترین رپورٹ H2 2023 (1 جولائی - 31 دسمبر) یہاں دستیاب ہے (1 اگست 2024 تک ہمارے اوسط ماہانہ فعال وصول کنندگان کے اعداد و شمار کے ساتھ اپڈیٹس شامل ہیں - اس صفحے کے نیچے دیکھیں)۔ ڈیجیٹل سروسز ایکٹ کے لیے مخصوص اعداد و شمار کو اس صفحے پر پایا جا سکتا ہے۔
31 دسمبر 2023 تک، ہمارے پاس یورپی یونین میں Snapchat ایپ کے 90.9 ملین اوسط ماہانہ فعال موصولین ("AMAR") ہیں۔ اس کا مطلب یہ ہے کہ، اوسطاً گزشتہ 6 ماہ میں، یورپی یونین میں 90.9 ملین رجسٹرڈ صارفین نے ایک مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔
رکن ریاست کی جانب سے اس اعداد و شمار کو درج ذیل طور پر بیان کیا گیا ہے:
ان اعداد و شمار کو موجودہ DSA کے قوانین کو پورا کرنے کے حوالے سے حساب میں لایا گیا ہے اور ان پر صرف DSA کے مقاصد کے لیے انحصار کیا جانا چاہیے۔ وقت کے ساتھ ساتھ، اندرونی پالیسیوں، ریگولیٹری ہدایات، اور ٹیکنالوجی میں ہونے والی تبدیلیوں کے پیشِ نظر، ہم نے اس اعداد و شمار کے حساب کے طریقے میں تبدیلی کی ہے، اسی لیے مختلف ادوار کے اعداد و شمار کا موازنہ کرنا مناسب نہیں ہے۔ یہ دیگر فعال یوزر کے اعداد و شمار کے لیے استعمال ہونے والے حساب کتاب سے بھی مختلف ہو سکتے ہیں جسے ہم دیگر مقاصد کے لیے شائع کرتے ہیں۔
ہٹانے کی درخواستیں
اس مدت کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کی جانب سے DSA آرٹیکل 9 کے مطابق ہٹانے کی 0 درخواستیں موصول ہوئی ہیں۔
معلومات کی درخواستیں
اس مدت کے دوران، ہمیں یورپی یونین کی رکن ریاستوں کی جانب سے درج ذیل معلومات کی درخواستیں موصول ہوئی ہیں:
حکام کو معلومات کی درخواستوں کی وصولی کے بارے میں مطلع کرنے کا اوسط وقت 0 منٹ ہے — ہم موصول ہونے کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔ معلومات کی درخواستوں کے نفاذ کا اوسط وقت تقریباً ~10 دن ہے۔ یہ میٹرک اس مدت کی عکاسی کرتا ہے کہ جب Snap کو IR موصول ہوئی اور جب Snap کو یقین ہو گیا کہ درخواست مکمل طور پر حل ہو چکی ہے۔ بعض صورتوں میں، اس عمل میں دیری جزوی طور پر اس رفتار پر منحصر ہے جس کے ساتھ قانون نافذ کرنے والے Snap کی جانب سے دی گئی درخواست برائے طلب وضاحت کا جواب دیتے ہیں، اور جو اس درخواست پر عمل درآمد کرنے کے لئے ضروری ہے۔
سنیپ چیٹ پر موجود تمام مواد کو ہماری کمیونٹی کی اور سروس کی شرائط کے ساتھ ساتھ معاون شرائط اور ہدایات کے مطابق ہونا ہوگا۔ پیشگی شناخت کے میکانیزم اور غیر قانونی یا خلاف ورزی کرنے والے مواد یا اکاؤنٹس کی رپورٹس ایک جائزے کا مطالبہ کرتی ہیں، جس کے بعد ہمارے ٹولنگ سسٹم درخواست پر کارروائی کرتے ہیں، متعلقہ میٹا ڈیٹا جمع کرتے ہیں، اور متعلقہ مواد کو ہماری نگرانی کی ٹیم کو ایک منظم یوزر انٹرفیس کے ذریعے بھیجتے ہیں جو مؤثر اور موثر جائزے کے آپریشنز کو آسان بنانے کے لیے ڈیزائن کیا گیا ہے۔ جب ہماری نگرانی کی ٹیمیں انسانی جائزے یا خودکار ذرائع کے ذریعے یہ تعین کرتی ہیں کہ کسی یوزر نے ہماری شرائط کی خلاف ورزی کی ہے تو ہم جارحانہ مواد یا اکاؤنٹ کو ہٹا سکتے ہیں، متعلقہ اکاؤنٹ کی نمائش کو ختم یا محدود کر سکتے ہیں، اور/یا ہمارے سنیپ چیٹ کی ماڈریشن، نفاذ اور درخواستوں کی وضاحت میں بیان کردہ قانون نافذ کرنے والے اداروں کو مطلع کر سکتے ہیں۔ وہ صارفین جن کے اکاؤنٹ ہماری حفاظتی ٹیم نے کمیونٹی کی ہدایات کی خلاف ورزیوں کا، لاک کردہ اکاؤنٹ کی اپیل جمع کروا سکتے ہیں، اور صارفین بعض مواد کے نفاذ کے لیے اپیل کر سکتے ہیں۔
مواد اور اکاؤنٹ کے نوٹسز (DSA آرٹیکل 15.1(b))
Snap نے ایسے میکانزم کو نافذ کیا ہے جو صارفین اور غیر صارفین کو Snap کو پلیٹ فارم پر ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کی خلاف ورزی کرنے والے مواد اور اکاؤنٹس کے بارے میں مطلع کرنے کے قابل بناتا ہے، بشمول وہ بھی جنہیں وہ DSA آرٹیکل 16 کے مطابق غیر قانونی سمجھتے ہیں۔ یہ رپورٹنگ کے میکانزم خود ایپ میں (یعنی براہ راست مواد سے) اور ہماری ویب سائٹ پر دستیاب ہیں۔
متعلقہ مدت کے دوران، ہمیں یورپی یونین میں درج ذیل مواد اور اکاؤنٹ کے نوٹسز وصول ہوئے ہیں:
H2’23 میں، ہم نے 664,896 نوٹسز کو مکمل طور پر خود کار ذرائع سے ہینڈل کیا۔ ان سب کے خلاف ہماری کمیونٹی کی ہدایات کے مطابق کارروائی کی گئی تھی، کیونکہ ہماری کمیونٹی کی ہدایات غیر قانونی مواد سے متعلق امور پر مشتمل ہیں۔
صارف کے ذریعے تخلیق کردہ مواد اور اکاؤنٹس کے علاوہ، اگر اشتہارات ہمارے پلیٹ فارم کی پالیسیوں کی خلاف ورزی کرتے ہیں تو ہم ان کی نگرانی کرتے ہیں اور ان کا نظم و ضبط کرتے ہیں۔ ذیل میں کل اشتہارات ہیں جن کی یورپی یونین میں رپورٹ کی گئی تھی اور ہٹا دیئے گئے تھے۔
قابل اعتماد فلیگرز کے نوٹسز (آرٹیکل 15.1(b))
ہماری تازہ ترین شفافیت کی رپورٹ (H2 2023) کی مدت کے لیے، ڈی ایس اے کے تحت کوئی باضابطہ طور پر مقرر کردہ قابل اعتماد فلیگر نہیں تھے۔ اس کے نتیجے میں، اس مدت میں ایسے قابل اعتماد فلیگرز کی جانب سے جمع کروائے گئے نوٹسز کی تعداد صفر (0) تھی۔
پیشگی مواد کی نگرانی (آرٹیکل 15.1(c))
متعلقہ مدت کے دوران، Snap نے اپنے اقدام پر مواد کی نگرانی کرنے کے بعد یورپی یونین میں درج ذیل مواد اور اکاؤنٹس نافذ کیے:
Snap کی اپنی شروع کی گئی ماڈریشن کی تمام کوششوں نے انسانوں یا خودکار کاری سے فائدہ اٹھایا ہے۔ ہمارے عوامی مواد کے صفحات پر، مواد عام طور پر وسیع تر سامعین کو تقسیم کے لیے اہل ہونے سے قبل خودکار نگرانی اور انسانی جائزے سے گزرتا ہے۔ خودکار ٹولز کے حوالے سے، ان میں شامل ہیں:
مشین لرننگ کا استعمال کرتے ہوئے غیر قانونی اور خلاف ورزی کرنے والے مواد کا پیشگی پتہ لگانا؛
ہیش میچنگ ٹولز (جیسا کہ PhotoDNA اور Google کی CSAI Match)؛
توہین آمیز کلیدی الفاظ کی شناخت کردہ اور باقاعدگی سے تازہ کردہ فہرست پر مبنی مواد کو مسترد کرنے کے لیے توہین آمیز زبان کی نشاندہی، جس میں ایموجی شامل ہے۔
اپیلیں (آرٹیکل 15.1(d))
متعلقہ مدت کے دوران، Snap نے اپنے شکایات سے نمٹنے کے اندرونی نظام کے ذریعے یورپی یونین میں درج ذیل مواد اور اکاؤنٹ کی اپیلوں پر کارروائی کی:
*بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئی رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہوتی ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔
مواد کے ماڈریشن کے لیے خودکار وسائل (آرٹیکل 15.1(e))
ہمارے عوامی مواد کی سطحوں پر ، مواد عام طور پر سامعین کے وسیع حلقے میں تقسیم کیے جانے کی اہلیت سے قبل خود کار ماڈریشن اور انسانی جائزے دونوں سے گزرتے ہیں۔ خودکار ٹولز کے حوالے سے، ان میں شامل ہیں:
مشین لرننگ کا استعمال کرتے ہوئے غیر قانونی اور خلاف ورزی کرنے والے مواد کا فعال پتہ لگانا؛
ہیش میچنگ ٹولز (جیسے PhotoDNA اور گوگل کا CSAI میچ)؛
ایموجیز سمیت توہین آمیز کلیدی الفاظ کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ کردہ فہرست کی بنیاد پر مواد کو مسترد کرنے کے لئے توہین آمیز زبان کا پتہ لگانا۔
تمام نقصانات کے لئے خودکار ماڈریشن کی ٹیکنالوجیز کی درستگی تقریبا ٪ 96.61 تھی اور غلطی کی شرح تقریبا ٪ 3.39 تھی۔
ہم تسلیم کرتے ہیں کہ مواد کی ماڈریشن سے وابستہ کچھ خطرات ہیں، بشمول آزادی اظہار اور اسمبلی کے خطرات جو خود کار اور انسانی ماڈریٹر کے تعصب اور حکومتوں، سیاسی حلقوں، یا منظم افراد کی طرف سے بدسلوکی کی رپورٹس کی وجہ سے ہو سکتے ہیں۔ Snapchat عموماً سیاسی یا تنظیمی مواد کی جگہ نہیں ہے، خاص طور پر ہماری عوامی جگہوں میں۔
بہر حال، ان خطرات سے بچاؤ کے لیے، Snap کے پاس ٹیسٹنگ اور تربیت موجود ہے اور اس کے پاس قانون نافذ کرنے والے اداروں اور سرکاری حکام سمیت غیر قانونی یا خلاف ورزی کرنے والے مواد کی رپورٹس سے نمٹنے کے لیے مضبوط اور مستقل طریقہ کار ہے۔ ہم اپنے مواد کی ماڈریشن کے الگورتھم کا مسلسل جائزہ لیتے ہیں اور اسے بہتر بناتے ہیں۔ اگرچہ اظہار رائے کی آزادی کو پہنچنے والے ممکنہ نقصانات کا پتہ لگانا مشکل ہے، لیکن اس سے متعلق کوئی اہم مسائل ہماری نظر میں نہیں ہیں اور ہم نے اپنے صارفین کو غلطی ہونے کی صورت میں رپورٹ کرنے کا راستہ فراہم کر رکھا ہے۔
ہماری پالیسیاں اور نظام مسلسل اور منصفانہ نفاذ کو فروغ دیتے ہیں اور جیسا کہ اوپر بیان کیا گیا ہے، سنیپ چیٹرز
کو نوٹس اور اپیل کے عمل کے ذریعے نفاذ کے نتائج پر بامعنی تنازعہ کرنے کا موقع فراہم کرتے ہیں جن کا مقصد انفرادی سنیپ چیٹر کے حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔
ہم اپنی نفاذ کی پالیسیوں اور عمل کو بہتر بنانے کے لیے مسلسل کوشش کرتے ہیں اور ہم نے Snapchat پر نقصان دہ اور غیر قانونی مواد اور سرگرمیوں کا مقابلہ کرنے میں بڑی پیش رفت کی ہے۔ یہ ہماری تازہ ترین شفافیت کی رپورٹ میں دکھائے گئے ہماری رپورٹنگ اور نفاذ کے اعداد و شمار میں اضافے کے رجحان اور مجموعی طور پر Snapchat پر خلاف ورزیوں کی شرح میں کمی سے ظاہر ہوتا ہے۔
ہماری تازہ ترین شفافیت کی رپورٹ (H2 2023) کی مدت کے لئے، DSA کے تحت عدالت سے باہر کے تنازعات کے تصفیے کے لیے باضابطہ طور پر کوئی ادارہ مقرر نہیں کیا گیا تھا۔ اس کے نتیجے میں، اس عرصے میں ایسے اداروں میں جمع کرائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تصفیے کے لئے اوسط تبدیلی کا وقت، اور تنازعات کا حصہ جہاں ہم نے ادارے کے فیصلوں کو نافذ کیا، فراہم کرنے سے قاصر ہیں۔
H2 2023 کے دوران، ہمارے پاس آرٹیکل 23 کے مطابق کوئی بھی اکاؤنٹ کی معطلی عائد نہیں تھی۔ Snap کی ٹرسٹ اینڈ سیفٹی ٹیم کے پاس اقدامات ہیں تاکہ صارف کے اکاؤنٹ کو بار بار نوٹسز یا شکایات جمع کرنے کی ممکنہ امکان کو محدود کیا جا سکے جو واضح طور پر بے بنیاد ہوتے ہیں۔ ان طریقہ کار میں نقلی رپورٹ کی تخلیق اور ای میل فلٹرز کے استعمال کو محدود کرنا شامل ہے, ایسے صارفین کو روکنے کے لیے جنہوں نے کثرت سے واضح طور پر بے بنیاد رپورٹس جمع کروائی ہیں کہ وہ دوبارہ ایسا نہ کریں۔ Snap اکاؤنٹس کے خلاف مناسب نفاذ کی کارروائی کرتا ہے جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور اپیلوں کی وضاحت کنندہ میں بیان کیا گیا ہے اور Snap کے اکاؤنٹ کے نفاذ کی سطح سے متعلق معلومات ہماری شفافیت کی رپورٹ (H2 2023) میں مل سکتی ہے۔ اس طرح کے اقدامات کا جائزہ لیا جاتا رہے گا اور ان پر نظر ثانی کی جاتی رہے گی۔
ہماری مواد کی ماڈریشن ٹیم دنیا بھر میں کام کرتی ہے ،جو ہمیں اس قابل بناتی ہے کہ ہم سنیپ چیٹرز
کو 24/7 محفوظ رکھ سکیں۔ ذیل میں، آپ کو 31 دسمبر 2023 تک ماڈریٹرز کی زبان کی خصوصیات (نوٹ کریں کہ کچھ ماڈریٹرز متعدد زبانوں میں مہارت رکھتے ہیں) کے ذریعہ ہمارے انسانی ماڈریشن کے وسائل کا ڈھانچہ نظر آئے گا
:
مذکورہ بالا ٹیبل میں وہ تمام ماڈریٹر شامل ہیں جو 31 دسمبر 2023 سے یورپی یونین کے رکن ممالک کی زبانوں کی معاونت کرتے ہیں۔ جہاں ہمیں اضافی لسانی معاونت کی ضرورت ہو، تو وہاں ہم ترجمے کی سروسز کا استعمال کرتے ہیں۔
اس معیاری ملازمت کی تفصیل کے ساتھ نگرانوں کی بھرتی کی جاتی ہے جس میں (حسبِ ضرورت) لسانی تقاضے شامل ہوتے ہیں۔ لسانی تقاضے یہ بتاتے ہیں کہ امیدوار کو زبان کی تحریری اور زبانی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور ابتدائی سطح کے عہدوں کے لیے کم از کم ایک سال کا تجربہ ہونا چاہیے۔ اہل ہونے کے لیے امیدواروں کا تعلیمی اور پس منظری تقاضوں کو پورا کرنا ضروری ہے۔ امیدواروں کو اس ملک یا خطے کے مواد کی نگرانی کے موجودہ واقعات کی تفہیم کا بھی مظاہرہ کرنا ہو گا جس کی وہ معاونت کریں گے۔
ہماری ماڈریشن کی ٹیم ہماری سنیپ چیٹ کمیونٹی کی حفاظت میں مدد کے لیے ہماری پالیسیوں اور نفاذ کے اقدامات کا اطلاق کرتی ہے۔ تربیت کثیر ہفتوں کی مدت کے دوران دی جاتی ہے، جس کے دوران ٹیم کے نئے ممبرز کو سنیپ کی پالیسیوں، ٹولز اور اضافے کے طریقہ کار سے آگاہ کیا جاتا ہے۔ تربیت کے بعد، ہر ماڈریٹر کو مواد کا جائزہ لینے کی اجازت دینے سے قبل سرٹیفیکیشن کا امتحان پاس کرنا ضروری ہے۔ ہماری ماڈریشن کی ٹیم اپنے ورک فلو سے متعلق تازہ ترین تربیت میں باقاعدگی مشغول سے شمولیت کرتی ہیں، خاص طور پر جب ہمیں پالیسی سے متعلق اور سیاق و سباق سے متعلق کیسز کا سامنا کرنا پڑتا ہے۔ ہم ہنر کو بہتر بنانے والے پروگرامز اور سرٹیفیکیشن سیشن بھی چلاتے ہیں، اور کوئز کا انتظام کرتے ہیں، تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹر موجودہ ہیں اور تمام تازہ ترین پالیسیوں کی تعمیل کرتے ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کے رجحانات سامنے آتے ہیں، تو ہم فوری طور پر پالیسی کی وضاحت جاری کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہیں۔
ہم اپنی مواد کی ماڈریشن کی ٹیم - سنیپ کے "ڈیجیٹل پہلے جواب دہندے" نمایاں معاونت اور وسائل کی فراہمی کرتے ہیں، جن میں ملازمت کے دوران فلاح و بہبود کی معاونت اور ذہنی صحت کی خدمات تک آسان رسائی شامل ہے۔
پس منظر
ہماری کمیونٹی کے کسی بھی رکن، خاص طور پر نابالغوں کا جنسی استحصال غیر قانونی، قابل نفرت، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع ہے۔ اپنے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کو روکنا، شناخت کرنا، اور اس کا خاتمہ کرنا Snap کی اولین ترجیح ہے، اور ہم ان اور دیگر جرائم سے لڑنے کے لیے اپنی صلاحیتوں کو مسلسل بہتر بنا رہے ہیں۔
ہم PhotoDNA کی مضبوط ہیش میچنگ اور Google کی بچوں کے جنسی استحصال کی تصاویر (CSAI) میچنگ کا استعمال کرتے ہیں تا کہ بالترتیب بچے کے جنسی استحصال کی معلوم غیر قانونی تصاویر اور ویڈیوز کی شناخت کی جا سکے، اور ان کو امریکی قومی مرکز برائے گمشدہ اور استحصال شدہ بچوں (NCMEC) کو رپورٹ کریں، جیسا کہ قانون کے مطابق مطلوب ہے۔ اس کے بعد، NCMEC ضرورت کے مطابق، مقامی یا بین الاقوامی پولیس اور قانونی اداروں کے ساتھ ہم آہنگی و رابطہ کاری کرتا ہے۔
رپورٹ
درج ذیل ڈیٹا صارف کے کیمرہ رول سے Snapchat پر اپ لوڈ کردہ میڈیا کے PhotoDNA اور/یا CSAI میچ کا استعمال کرتے ہوئے پیشگی اسکیننگ کے نتیجے پر مبنی ہے۔
بچوں کے جنسی استحصال کو روکنا ہماری اولین ترجیح ہے۔ Snap اس کی خاطر نمایاں وسائل وقف کرتا ہے اور اس طرح کے رویے کے لئے کوئی رعایت نہیں برتتا۔ سی ایس ای (CSE) کی اپیلز کا جائزہ لینے کے لیے خصوصی تربیت درکار ہوتی ہے، اور ایجنٹس کی ایک محدود ٹیم موجود ہے جو مواد کی گرافک نوعیت کی وجہ سے ان جائزوں کو سنبھالتی ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیوں کا نفاذ کیا جس نے سی ایس ای کے نفاذ کے بعض اقدامات کے استحکام کو متاثر کیا؛ ہم نے ایجنٹ کی دوبارہ تربیت اور کوالٹی اشورینس کے ذریعے ان تضادات کا ازالہ کیا ہے۔ ہم توقع کرتے ہیں کہ Snap کی اگلی شفافیت کی رپورٹ سے سی ایس ای اپیلز کے جوابی وقت کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی پیشرفت کا انکشاف ہو گا۔
مواد کی نگرانی کے حفاظتی اقدامات
CSEA میڈیا اسکیننگ کے لیے لگائے گئے حفاظتی اقدامات کو ہماری DSA رپورٹ کے تحت مذکورہ بالا "مواد کی نگرانی کے حفاظتی اقدامات" سیکشن میں بیان کیا گیا ہے۔
شائع کردہ: 17 جون 2024
آخری بار اپ ڈیٹ کردہ: 17 جون 2024
یہ شفافیت کی رپورٹ یورپی پارلیمان اور یورپی یونین کی کونسل کے ضابطہ 2021/784 کے آرٹیکل (2)7 اور (3)7 کے مطابق شائع کی گئی ہے، جو دہشت گردی کے مواد کے آن لائن پھیلاؤ سے متعلق ہے (the Regulation)۔ یہ یکم جنوری - 31 دسمبر 2023 کی رپورٹنگ کی مدت کا احاطہ کرتا ہے۔.
آرٹیکل (a)(3)7: دہشت گردی کے مواد کی شناخت اور ان تک رسائی کو ہٹانے یا ان کو غیر فعال کرنے کے حوالے سے ہوسٹنگ سروس فراہم کرنے کے اقدامات کے بارے میں معلومات
آرٹیکل (b)(3)7: ہوسٹنگ سروس فراہم کرنے والے کے اقدامات کے بارے میں معلومات، جو اس مواد کے دوبارہ آن لائن ظاہر ہونے سے متعلق ہیں جسے پہلے ہٹا دیا گیا تھا یا جس تک رسائی کو اس بنیاد پر معطل کیا گیا تھا کہ اسے دہشت گردی پر مبنی مواد سمجھا گیا تھا، خصوصاً اُن معاملات میں جہاں خودکار آلات استعمال کیے گئے ہوں
دہشت گردوں، دہشت گردی کی تنظیموں، اور پرتشدد انتہا پسندوں کے لیے Snapchat کے استعمال کی ممانعت ہے۔ ہمارے کمیونٹی کی ہدایاتکے تحت ایسا مواد ممنوع ہے جو دہشت گردی یا دیگر پرتشدد اور مجرمانہ افعال کی وکالت، ترویج، تعریف یا فروغ کرے۔ صارفین ہمارے ان ایپ رپورٹنگ مینو اور ہماری معاونت کی ویب سائٹ کے ذریعے ایسے مواد کی رپورٹ کر سکتے ہیں جو ہماری کمیونٹی کی ہدایات کی خلاف ورزی کرتا ہے۔ ہم پیشگی کھوج کے طریقے بھی استعمال کرتے ہیں تاکہ عوامی سطحوں جیسے Spotlight اور ڈسکور پر خلاف ورزی کرنے والے مواد کی نشاندہی کی جا سکے۔
اس سے قطع نظر کہ ہمیں کسی بھی طرح کی خلاف ورزی کے بارے میں معلوم ہو جائے، ہماری حفاظتی ٹیمز خودکار اور انسانی نگرانی کے امتزاج کے ذریعے شناخت شدہ مواد کا فوری جائزہ لیتی ہیں اور نفاذ کے فیصلے کرتی ہیں۔ نفاذ کے اقدامات میں مواد کو ہٹانا، خلاف ورزی کرنے والے اکاؤنٹ کو متنبہ کرنا یا اسے غیر فعال کرنا اور اگر ضرورت پڑی تو قانون نافذ کرنے والے اداروں کو اکاؤنٹ کی رپورٹ کرنا شامل ہو سکتا ہے۔ Snapchat پر دہشت گردی یا دیگر پرتشدد انتہا پسندانہ مواد کے دوبارہ نمودار ہونے سے روکنے کے لیے، قانون نافذ کرنے والے اداروں کے ساتھ کام کرنے کے علاوہ، ہم خلاف ورزی کرنے والے اکاؤنٹ سے منسلک ڈیوائس کو بلاک کرنے کے لیے اقدامات کر تے ہیں اور یوزر کو دوسرا Snapchat اکاؤنٹ بنانے سے روکتے ہیں۔
دہشت گردی سے متعلق مواد کی نشاندہی اور اسے ہٹانے کے ہمارے اقدامات کی مزید تفصیلات ہماری وضاحتی دستاویز برائے نفرت انگیز مواد، دہشت گردی اور پرتشدد انتہا پسندی اور ہماری وضاحتی دستاویز برائے ماڈریشن، نفاذ اور اپیلوں میں دستیاب ہیں۔
آرٹیکل (c)(3)7: دہشت گردی سے متعلق اُن مواد کی تعداد جو ہٹا دیے گئے یا جن تک رسائی ہٹانے کے احکامات یا مخصوص اقدامات کے تحت معطل کی گئی، اور ایسے ہٹانے کے احکامات کی تعداد جن میں مواد نہ تو ہٹایا گیا اور نہ ہی آرٹیکل (7)3 کی پہلی شق اور آرٹیکل (8)3 کی پہلی شق کے مطابق رسائی معطل کی گئی، نیز اس کی وجوہات بھی۔
رپورٹنگ کی مدت کے دوران، Snap کو ہٹانے کا کوئی حکم موصول نہیں ہوا، اور نہ ہی ہمیں ضابطے کے آرٹیکل 5 کے تحت کسی مخصوص اقدامات کو نافذ کرنے کی ضرورت تھی۔ اس کے مطابق، ہمیں ضابطے کے تحت نفاذ کی کارروائی کی ضرورت نہیں تھی۔
مندرجہ ذیل ٹیبل اُن نفاذی اقدامات کی وضاحت کرتا ہے جو یوزرز کی شکایات اور پیشگی کھوج کی بنیاد پر ایسے مواد اور اکاؤنٹس کے خلاف کیے گئے، دونوں یورپی یونین اور دنیا کے دیگر خطوں میں، جنہوں نے ہماری کمیونٹی کی ہدایات کی خلاف ورزی کی جو دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد پر لاگو ہوتے ہیں۔
آرٹیکل (d)(3)7: آرٹیکل 10 کے مطابق ہوسٹنگ سروس کے فراہم کنندہ کی جانب سے نمٹائے جانے والی شکایات کی تعداد اور نتائج
آرٹیکل (g)(3)7: ان مقدمات کی تعداد جن میں ہوسٹنگ سروس کے فراہم کنندہ نے مواد کے فراہم کنندہ کی شکایت کے بعد مواد یا مواد تک رسائی کو بحال کیا
جیسے اوپر بیان کیا گیا ہے کہ رپورٹنگ کی مدت کے دوران ہمیں ضابطے کے تحت نفاذ کی کوئی کارروائی درکار نہیں تھی، لہٰذا ہم نے ضابطے کے آرٹیکل 10 کے مطابق نہ ہی کسی شکایت کو نمٹایا اور نہ ہی اس سے متعلق کوئی بحالی کی ہے۔
درج ذیل ٹیبل میں یورپی یونین اور دنیا کے دیگر مقامات میں اپیلوں اور بحالی سے متعلق معلومات موجود ہیں جن میں ہماری کمیونٹی کی ہدایات کے تحت نافذ کردہ دہشت گردی اور پرتشدد انتہا پسندی سے متعلق مواد شامل ہیں۔
بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔
مواد کی ماڈریشن کی حفاظتیں
CSEA میڈیا سکیننگ پر لاگو حفاظتیں درج بالا "مواد کی ماڈریسشن کی حفاظتیں" میں ہماری DSA رپورٹ کے نیچے ترتیب دی گئی ہیں۔
1 اگست 2024 تک،EU میں ہمارے Snapchat ایپ کے اوسط ماہانہ فعال صارفین (“AMAR”) کی تعداد 92.4 ملین ہے۔ اس کا مطلب یہ ہے کہ، اوسطاً گزشتہ 6 ماہ میں، یورپی یونین میں 92.4 ملین رجسٹرڈ صارفین نے ایک مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔
رکن ریاست کی جانب سے اس اعداد و شمار کو درج ذیل طور پر بیان کیا گیا ہے: