یورپی یونین
1 جولائی 2023 – 31 دسمبر 2023

جاری کیا گیا:

25 اپریل 2024

اپ ڈیٹ کیا گیا:

25 اپریل 2024

ہمارے یورپی یونین (EU) شفافیت کے صفحہ میں خوش آمدید، جہاں ہم یورپی یونین کی ڈیجیٹل سروسز ایکٹ (DSA)، آڈیو ویژول میڈیا سروس ڈائریکٹو (AVMSD) اور ڈچ میڈیا ایکٹ (DMA) کے ذریعہ مطلوبہ EU مخصوص معلومات شائع کرتے ہیں۔ براہ کرم نوٹ کریں کہ شفافیت کی ان رپورٹس کا تازہ ترین ورژن en-US کی مقامی زبان میں پایا جا سکتا ہے۔

قانونی نمائندہ 

Snap Group Limited نے Snap B.V کو DSA کے مقاصد کے لئے اپنا قانونی نمائندہ مقرر کیا ہے۔ آپ DSA کے لئے dsa-enquiries [at] snapchat.com پر نمائندے سے رابطہ کرسکتے ہیں، اور AVMSD اور DMA کے لئے vsp-enquiries [at] snapchat.com پر رابطہ کرسکتے ہیں، ہماری سپورٹ سائٹ کے ذریعے [یہاں]، یا:

Snap B.V.
Keizersgracht 165, 1016 DP
Amsterdam, The Netherlands

اگر آپ قانون نافذ کرنے والی ایجنسی ہیں، تو براہ کرم یہاں بیان کردہ اقدامات پر عمل کریں۔ براہ کرم ہم سے رابطہ کرتے وقت ڈچ یا انگریزی میں بات چیت کریں۔

ریگولیٹری حکام

DSA کے لیے، ہم یورپی کمیشن، اور نیدرلینڈز اتھارٹی فار کنزیومر اینڈ مارکیٹس (ACM) کے ذریعے ریگولیٹ ہوتے ہیں۔ AVMSD اور DMA کے لیے، ہم ڈچ میڈیا اتھارٹی (CvdM) کے ذریعہ منظم ہیں۔

DSA کی شفافیت کی رپورٹ

Snap کو DSA کے آرٹیکلز 15، 24 اور 42 کے ذریعے Snapchat کی سروسز کے لیے Snap کے مواد کی ماڈریشن سے متعلق تجویز کردہ معلومات پر مشتمل رپورٹس شائع کرنے کی ضرورت ہے جنہیں "آن لائن پلیٹ فارم" سمجھا جاتا ہے، یعنی Spotlight، آپ کے لئے، عوامی پروفائلز، میپ، لینز اور اشتہارات۔ یہ رپورٹ 25 اکتوبر 2023 سے ہر 6 ماہ بعد شائع کی جانی چاہئے۔

Snap سال میں دو بار شفافیت کی رپورٹس شائع کرتا ہے تاکہ Snap کی تحفظ کی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کے بارے میں معلومات فراہم کر سکے۔ H2 2023 کے لئے ہماری تازہ ترین رپورٹ ( 1 جولائی - 31 دسمبر ) یہاں مل سکتی ہے۔ ڈیجیٹل سروسز ایکٹ کے لیے مخصوص اعداد و شمار کو اس صفحے پر پایا جا سکتا ہے۔

اوسط ماہانہ فعال موصولین 
(DSA کے آرٹیکلز 24.2 اور 42.3)

31 دسمبر 2023 تک، ہمارے پاس یورپی یونین میں Snapchat ایپ کے 90.9 ملین اوسط ماہانہ فعال موصولین ("AMAR") ہیں۔ اس کا مطلب یہ ہے کہ، اوسطاً گزشتہ 6 ماہ میں، یورپی یونین میں 90.9 ملین رجسٹرڈ صارفین نے ایک مہینے کے دوران کم از کم ایک بار Snapchat ایپ کھولی ہے۔

یہ اعداد و شمار رکن ریاست کے حساب سے مندرجہ ذیل طور پر تقسیم کیے گئے ہیں:

یہ اعداد و شمار موجودہ DSA کے قوانین کو پورا کرنے کے لیے شمار کیے گئے تھے اور صرف DSA کے مقاصد کے لیے ان پر انحصار کیا جانا چاہیے۔ ہم نے وقت کے ساتھ ساتھ اس شمار کی گنتی کا طریقہ تبدیل کیا ہے، بشمول اندرونی پالیسی، ریگولیٹر کی ہدایات اور ٹیکنالوجی میں تبدیلی کے جواب میں، اور یہ اعداد و شمار مختلف مدتوں کے درمیان موازنہ کرنے کے لئے مقصود نہیں ہیں۔ یہ دوسرے فعال یوزر کے اعداد و شمار کے لیے استعمال کیے گئے حساب سے بھی مختلف ہو سکتا ہے جو ہم دوسرے مقاصد کے لیے شائع کرتے ہیں۔


رکن ممالک کے اختیار کی درخواستیں
(ڈی ایس اے آرٹیکل 15.1(اے))

ہٹانے کی درخواستیں

اس مدت کے دوران، ہمیں ڈی ایس اے آرٹیکل 9 کے مطابق یورپی یونین کے رکن ممالک سے کوئی بھی ہٹانے کی درخواستیں موصول نہیں ہوئی ہیں۔

معلومات کی درخواستیں 

اس مدت کے دوران، ہمیں ڈی ایس اے آرٹیکل 10 کے مطابق یورپی یونین کے رکن ممالک سے مندرجہ ذیل معلومات کی درخواستیں موصول ہوئی ہیں:

معلومات کی درخواستیں وصول ہونے کی اطلاع دینے کا اوسط وقت 0 منٹ ہے — ہم وصولی کی تصدیق کرنے والا خودکار جواب فراہم کرتے ہیں۔ معلومات کی درخواستوں پر عمل درآمد کا اوسط وقت تقریباً 10 دن ہے۔ یہ پیمائش اس وقت کی مدت کو ظاہر کرتی ہے جب Snap کو آئی آر موصول ہوتی ہے سے لے کر جب Snap کا خیال ہوتا ہے کہ درخواست مکمل طور پر حل ہو چکی ہے۔ کچھ معاملات میں، اس عمل کی لمبائی جزوی طور پر اس رفتار پر منحصر ہوتی ہے جس کے ساتھ قانون نافذ کرنے والے ادارے Snap کی جانب سے ان کی درخواست کو عمل میں لانے کے لئے ضروری وضاحتوں کی درخواستوں کا جواب دیتے ہیں۔

مواد کی معتدلیت


Snapchat پر موجود تمام مواد کو ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کے ساتھ ساتھ معاون شرائط، ہدایات اور وضاحتوں کی پیروی کرنی چاہیے۔ غیر قانونی یا خلاف ورزی کرنے والے مواد یا اکاؤنٹس کی فعال نشاندہی کے طریقہ کار اور رپورٹس کا جائزہ لیا جاتا ہے، اس موقع پر، ہمارے ٹولنگ سسٹم درخواست پر عمل کرتے ہیں ، متعلقہ میٹا ڈیٹا جمع کرتے ہیں ، اور متعلقہ مواد کو ایک منظم یوزر انٹرفیس کے ذریعہ ہماری ماڈریشن ٹیم کو بھیجتے ہیں جو مؤثر اور کارگر جائزہ کارروائیوں کو آسان بنانے کے لیے ڈیزائن کیا گیا ہے۔ جب ہماری ماڈریشن ٹیمیں انسانی جائزے یا خودکار طریقوں سے یہ طے کرتی ہیں کہ کسی صارف نے ہماری شرائط کی خلاف ورزی کی ہے، ہم قابل اعتراض مواد یا اکاؤنٹ کو حذف کرسکتے ہیں ، متعلقہ اکاؤنٹ کی نموداری کو ختم یا محدود کرسکتے ہیں ، اور / یا قانون نافذ کرنے والے اداروں کو مطلع کرسکتے ہیں جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور اپیلوں کے وضاحت کنندہ میں وضاحت کی گئی ہے۔  جن صارفین کے اکاؤنٹس ہماری سیفٹی ٹیم نے کمیونٹی کی ہدایات کی خلاف ورزیوں پر بند کر دیے ہیں وہ بند اکاؤنٹ کے خلاف اپیل جمع کراسکتے ہیں، اور صارفین کچھ مواد کے نفاذ کے خلاف اپیل کرسکتے ہیں۔

مواد اور اکاؤنٹ نوٹسز (ڈی ایس اے آرٹیکل 15.1(ب))

Snap نے پلیٹ فارم پر ہماری کمیونٹی کی ہدایات اور سروس کی شرائط کی خلاف ورزی کرنے والے مواد اور اکاؤنٹس کے بارے میں Snap کو مطلع کرنے کے لیے صارفین اور غیر صارفین کے لیے میکانزم بنائے ہیں، بشمول وہ جنہیں وہ ڈی ایس اے آرٹیکل 16 کے مطابق غیر قانونی سمجھتے ہیں۔ یہ رپورٹنگ میکانزم ایپ میں خود موجود ہیں (یعنی براہ راست مواد کے ٹکڑے سے) اور ہماری ویب سائٹ پر بھی دستیاب ہیں۔

متعلقہ مدت کے دوران، ہمیں یورپی یونین میں مندرجہ ذیل مواد اور اکاؤنٹ کے نوٹسز موصول ہوئے:

H2’23 میں، ہم نے 664,896 نوٹسز کو مکمل طور پر خود کار ذرائع سے ہینڈل کیا۔ ان سب کے خلاف ہماری کمیونٹی کی ہدایات کے مطابق کارروائی کی گئی تھی، کیونکہ ہماری کمیونٹی کی ہدایات غیر قانونی مواد سے متعلق امور پر مشتمل ہیں۔

صارف کے ذریعے تخلیق کردہ مواد اور اکاؤنٹس کے علاوہ، اگر اشتہارات ہمارے پلیٹ فارم کی پالیسیوں کی خلاف ورزی کرتے ہیں تو ہم ان کی نگرانی کرتے ہیں اور ان کا نظم و ضبط کرتے ہیں۔ ذیل میں کل اشتہارات ہیں جن کی یورپی یونین میں رپورٹ کی گئی تھی اور ہٹا دیئے گئے تھے۔

معتبر فلیگرز نوٹسز (آرٹیکل 15.1 (ب))

ہماری تازہ ترین شفافیت کی رپورٹ (H2 2023) کے لیے، DSA کے تحت باضابطہ طور پر کوئی بھی معتبر فلیگرز مقرر نہیں کیے گئے تھے۔ اس کے نتیجے میں، اس مدّت میں، اس قسم کے معتبر فلیگرز کے ذریعے جمع کردہ نوٹسز کی تعداد صفر (0) تھی۔

مواد کی فعال نگرانی اور نظم و ضبط (آرٹیکل 15.1 (ج))

متعلقہ مدت کے دوران، Snap نے اپنی ذاتی پیش قدمی کے ذریعے یورپی یونین میں مواد کی نگرانی اور ان کے نظم و ضبط میں مشغولیت کے بعد، درج ذیل مواد اور اکاؤنٹس کے خلاف کارروائیاں کی ہیں۔

Snap کی تمام اپنی ابتدائی اعتدال پسندی کی کوششوں نے انسانوں یا آٹومیشن کو فائدہ پہنچایا۔ ہمارے عوامی مواد کی سطحوں پر ، مواد عام طور پر وسیع سامعین میں تقسیم کرنے کے اہل ہونے سے پہلے خود کار ماڈریشن اور انسانی جائزے دونوں سے گزرتا ہے۔ خودکار ٹولز کے حوالے سے، ان میں شامل ہیں:

  • مشین لرننگ کا استعمال کرتے ہوئے غیر قانونی اور خلاف ورزی کرنے والے مواد کا فعال پتہ لگانا؛

  • ہیش میچنگ ٹولز (جیسے PhotoDNA اور Google کا CSAI میچ)؛

  • بدسلوکی والے کلیدی الفاظ کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ کردہ فہرست کی بنیاد پر مواد کو مسترد کرنے کے لیے بدسلوکی کی زبان کا پتہ لگانا، بشمول ایموجیز


اپیلیں (آرٹیکل 15.1(د))

متعلقہ مدت کے دوران، Snap نے EU میں درج ذیل مواد اور اکاؤنٹ کی اپیلوں پر اپنے اندرونی شکایات سے نمٹنے کے نظام کے ذریعے کارروائی کی:


*بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئی رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہوتی ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

مواد کے ماڈریشن کے لیے خودکار وسائل (آرٹیکل 15.1(e))

ہمارے عوامی مواد کی سطحوں پر ، مواد عام طور پر سامعین کے وسیع حلقے میں تقسیم کیے جانے کی اہلیت سے قبل خود کار ماڈریشن اور انسانی جائزے دونوں سے گزرتے ہیں۔ خودکار ٹولز کے حوالے سے، ان میں شامل ہیں:

  • مشین لرننگ کا استعمال کرتے ہوئے غیر قانونی اور خلاف ورزی کرنے والے مواد کا فعال پتہ لگانا؛

  • ہیش میچنگ ٹولز (جیسے PhotoDNA اور گوگل کا CSAI میچ)؛

  • ایموجیز سمیت توہین آمیز کلیدی الفاظ کی شناخت شدہ اور باقاعدگی سے اپ ڈیٹ کردہ فہرست کی بنیاد پر مواد کو مسترد کرنے کے لئے توہین آمیز زبان کا پتہ لگانا۔


تمام نقصانات کے لئے خودکار ماڈریشن کی ٹیکنالوجیز کی درستگی تقریبا ٪ 96.61 تھی اور غلطی کی شرح تقریبا ٪ 3.39 تھی۔


مواد کی ماڈریشن کے حفاظتی اقدامات (آرٹیکل 15.1(e))

ہم تسلیم کرتے ہیں کہ مواد کی ماڈریشن سے وابستہ کچھ خطرات ہیں، بشمول آزادی اظہار اور اسمبلی کے خطرات جو خود کار اور انسانی ماڈریٹر کے تعصب اور حکومتوں، سیاسی حلقوں، یا منظم افراد کی طرف سے بدسلوکی کی رپورٹس کی وجہ سے ہو سکتے ہیں۔ Snapchat عموماً سیاسی یا تنظیمی مواد کی جگہ نہیں ہے، خاص طور پر ہماری عوامی جگہوں میں۔


بہر حال، ان خطرات سے بچاؤ کے لیے، Snap کے پاس ٹیسٹنگ اور تربیت موجود ہے اور اس کے پاس قانون نافذ کرنے والے اداروں اور سرکاری حکام سمیت غیر قانونی یا خلاف ورزی کرنے والے مواد کی رپورٹس سے نمٹنے کے لیے مضبوط اور مستقل طریقہ کار ہے۔ ہم اپنے مواد کی ماڈریشن کے الگورتھم کا مسلسل جائزہ لیتے ہیں اور اسے بہتر بناتے ہیں۔ اگرچہ اظہار رائے کی آزادی کو پہنچنے والے ممکنہ نقصانات کا پتہ لگانا مشکل ہے، لیکن اس سے متعلق کوئی اہم مسائل ہماری نظر میں نہیں ہیں اور ہم نے اپنے صارفین کو غلطی ہونے کی صورت میں رپورٹ کرنے کا راستہ فراہم کر رکھا ہے۔


ہماری پالیسیاں اور نظام مسلسل اور منصفانہ نفاذ کو فروغ دیتے ہیں اور جیسا کہ اوپر بیان کیا گیا ہے، سنیپ چیٹرز
کو نوٹس اور اپیل کے عمل کے ذریعے نفاذ کے نتائج پر بامعنی تنازعہ کرنے کا موقع فراہم کرتے ہیں جن کا مقصد انفرادی سنیپ چیٹر کے حقوق کا تحفظ کرتے ہوئے ہماری کمیونٹی کے مفادات کا تحفظ کرنا ہے۔

ہم اپنی نفاذ کی پالیسیوں اور عمل کو بہتر بنانے کے لیے مسلسل کوشش کرتے ہیں اور ہم نے Snapchat پر نقصان دہ اور غیر قانونی مواد اور سرگرمیوں کا مقابلہ کرنے میں بڑی پیش رفت کی ہے۔ یہ ہماری تازہ ترین شفافیت کی رپورٹ میں دکھائے گئے ہماری رپورٹنگ اور نفاذ کے اعداد و شمار میں اضافے کے رجحان اور مجموعی طور پر Snapchat پر خلاف ورزیوں کی شرح میں کمی سے ظاہر ہوتا ہے۔


عدالت سے باہر کے تصفیے (آرٹیکل 24.1(a))

ہماری تازہ ترین شفافیت کی رپورٹ (H2 2023) کی مدت کے لئے، DSA کے تحت عدالت سے باہر کے تنازعات کے تصفیے کے لیے باضابطہ طور پر کوئی ادارہ مقرر نہیں کیا گیا تھا۔ اس کے نتیجے میں، اس عرصے میں ایسے اداروں میں جمع کرائے گئے تنازعات کی تعداد صفر (0) تھی، اور ہم نتائج، تصفیے کے لئے اوسط تبدیلی کا وقت، اور تنازعات کا حصہ جہاں ہم نے ادارے کے فیصلوں کو نافذ کیا، فراہم کرنے سے قاصر ہیں۔



اکاؤنٹ کی معطلی (آرٹیکل 24.1(b))

H2 2023 کے دوران، ہمارے پاس آرٹیکل 23 کے مطابق کوئی بھی اکاؤنٹ کی معطلی عائد نہیں تھی۔ Snap کی ٹرسٹ اینڈ سیفٹی ٹیم کے پاس اقدامات ہیں تاکہ صارف کے اکاؤنٹ کو بار بار نوٹسز یا شکایات جمع کرنے کی ممکنہ امکان کو محدود کیا جا سکے جو واضح طور پر بے بنیاد ہوتے ہیں۔ ان طریقہ کار میں نقلی رپورٹ کی تخلیق اور ای میل فلٹرز کے استعمال کو محدود کرنا شامل ہے, ایسے صارفین کو روکنے کے لیے جنہوں نے کثرت سے واضح طور پر بے بنیاد رپورٹس جمع کروائی ہیں کہ وہ دوبارہ ایسا نہ کریں۔ Snap اکاؤنٹس کے خلاف مناسب نفاذ کی کارروائی کرتا ہے جیسا کہ ہمارے Snapchat ماڈریشن، نفاذ، اور اپیلوں کی وضاحت کنندہ میں بیان کیا گیا ہے اور Snap کے اکاؤنٹ کے نفاذ کی سطح سے متعلق معلومات ہماری شفافیت کی رپورٹ (H2 2023) میں مل سکتی ہے۔ اس طرح کے اقدامات کا جائزہ لیا جاتا رہے گا اور ان پر نظر ثانی کی جاتی رہے گی۔


ماڈریٹر کے وسائل، مہارت اور معاونت (آرٹیکل 42.2)

ہماری مواد کی ماڈریشن ٹیم دنیا بھر میں کام کرتی ہے ،جو ہمیں اس قابل بناتی ہے کہ ہم سنیپ چیٹرز
کو 24/7 محفوظ رکھ سکیں۔ ذیل میں، آپ کو 31 دسمبر 2023 تک ماڈریٹرز کی زبان کی خصوصیات (نوٹ کریں کہ کچھ ماڈریٹرز متعدد زبانوں میں مہارت رکھتے ہیں) کے ذریعہ ہمارے انسانی ماڈریشن کے وسائل کا ڈھانچہ نظر آئے گا
:

درج بالا ٹیبل میں وہ تمام ماڈریٹرز شامل ہیں جو 31 دسمبر 2023 تک EU کی رکن ریاست کی زبانوں کی سپورٹ کرتے ہیں۔ ایسے حالات میں جہاں ہمیں زبان کی اضافی سپورٹ کی ضرورت ہوتی ہے، ہم ترجمے کی خدمات استعمال کرتے ہیں۔

ماڈریٹرز کو ملازمت کی معیاری تفصیل کا استعمال کرتے ہوئے بھرتی کیا جاتا ہے جس میں زبان کی شق شامل ہوتی ہے (ضرورت کے مطابق)۔ زبان کے تقاضے میں کہا گیا ہے کہ امیدوار کو زبان میں تحریری اور بولی جانے والی روانی کا مظاہرہ کرنے کے قابل ہونا چاہیے اور انٹری لیول کے عہدوں کے لیے کم از کم ایک سال کام کا تجربہ ہونا چاہیے۔
امیدواروں پر زیر غور ہونے کے لیے تعلیمی اور پس منظر کے تقاضوں کو پورا کرنا بھی لازمی ہوگا۔ امیدواروں کو بھی مواد کی ماڈریشن کے ملک یا علاقے کے موجودہ واقعات کی سمجھ کا مظاہرہ کرنا ہوگا جسے وہ سپورٹ کریں گے۔

ہماری ماڈریشن ٹیم Snapchat کمیونٹی کی حفاظت کے لیے ہماری پالیسیوں اور نفاذ کے اقدامات کا اطلاق کرتی ہے۔ ٹریننگ کئی ہفتوں کے دورانیے میں کی جاتی ہے، جس میں ٹیم کے نئے اراکین کو Snap کی پالیسیوں، ٹولز، اور ایسکیلیشن کے طریقہ کار کے بارے میں تعلیم دی جاتی ہے۔ ٹریننگ کے بعد، مواد کا جائزہ لینے کی اجازت ملنے سے پہلے ہر ماڈریٹر کو سرٹیفیکیشن کا امتحان پاس کرنا ہوتا ہے۔ ہماری ماڈریشن ٹیم باقاعدگی سے اپنے ورک فلو سے متعلقہ ریفریشر ٹریننگ میں حصہ لیتی ہے، خاص طور پر جب ہم پالیسی بارڈر لائن اور سیاق و سباق پر منحصر معاملات کا سامنا کرتے ہیں۔ ہم هنر میں اضافے کے پروگرام، سرٹیفیکیشن سیشنز، اور کوئزز بھی منعقد کرتے ہیں تاکہ یہ یقینی بنایا جا سکے کہ تمام ماڈریٹرز موجودہ اور تمام اپ ڈیٹ کردہ پالیسیوں کے مطابق ہیں۔ آخر میں، جب موجودہ واقعات کی بنیاد پر فوری مواد کا ٹرینڈ سامنے آتا ہے، تو ہم فوری طور پر پالیسی کی وضاحتیں پھیلا دیتے ہیں تاکہ ٹیمیں Snap کی پالیسیوں کے مطابق جواب دینے کے قابل ہوں۔

ہم اپنی مواد کی ماڈریشن ٹیم - Snap کے "ڈیجیٹل فرسٹ ریسپانڈرز" - کو تعاون اور وسائل کے ساتھ ساتھ، ملازمت کے دوران فلاح و بہبود اور ذہنی صحت کی خدمات تک آسان رسائی بھی فراہم کرتے ہیں۔

بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کی میڈیا کی سکیننگ کی رپورٹ


پس منظر

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔


ہم معلوم غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کے لیے PhotoDNA کی مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصاویر (CSAI) میچ جیسے فعال ٹیکنالوجی والے شناختی ٹولز، بالترتیب، استعمال کرتے ہیں اور قانون کے تقاضے کے مطابق ان کی اطلاع امریکی قومی مرکز برائے گمشدہ و استحصال شدہ اطفال (NCMEC) کو دیتے ہیں۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔


اطلاع دیں

درج ذیل ڈیٹا Snapchat پر یوزر کے کیمرہ رول کے ذریعے اپ لوڈ کردہ میڈیا کے PhotoDNA اور/یا CSAI میچ کا استعمال کر کے پیشگی فعال سکیننگ کے نتیجے پر مبنی ہے۔

بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

مواد کی ماڈریشن کی حفاظتیں

CSEA میڈیا سکیننگ پر لاگو حفاظتیں درج بالا "مواد کی ماڈریسشن کی حفاظتیں" میں ہماری DSA رپورٹ کے نیچے ترتیب دی گئی ہیں۔


بچوں کے جنسی استحصال اور بدسلوکی (CSEA) کی میڈیا کی سکیننگ کی رپورٹ


پس منظر

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔


ہم معلوم غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کے لیے PhotoDNA کی مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصاویر (CSAI) میچ جیسے فعال ٹیکنالوجی والے شناختی ٹولز، بالترتیب، استعمال کرتے ہیں اور قانون کے تقاضے کے مطابق ان کی اطلاع امریکی قومی مرکز برائے گمشدہ و استحصال شدہ اطفال (NCMEC) کو دیتے ہیں۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔


اطلاع دیں

درج ذیل ڈیٹا Snapchat پر یوزر کے کیمرہ رول کے ذریعے اپ لوڈ کردہ میڈیا کے PhotoDNA اور/یا CSAI میچ کا استعمال کر کے پیشگی فعال سکیننگ کے نتیجے پر مبنی ہے۔

بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

مواد کی ماڈریشن کی حفاظتیں

CSEA میڈیا سکیننگ پر لاگو حفاظتیں درج بالا "مواد کی ماڈریسشن کی حفاظتیں" میں ہماری DSA رپورٹ کے نیچے ترتیب دی گئی ہیں۔


بچوں کے جنسی استحصال کو روکنا اولین ترجیح ہے۔ Snap اس پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

مواد کی ماڈریشن کی حفاظتیں

CSEA میڈیا سکیننگ پر لاگو حفاظتیں درج بالا "مواد کی ماڈریسشن کی حفاظتیں" میں ہماری DSA رپورٹ کے نیچے ترتیب دی گئی ہیں۔


یہ اعداد و شمار رکن ریاست کے حساب سے مندرجہ ذیل طور پر تقسیم کیے گئے ہیں:

یہ اعداد و شمار رکن ریاست کے حساب سے مندرجہ ذیل طور پر تقسیم کیے گئے ہیں: