شفافیت کی رپورٹ
1 جنوری 2023 – 30 جون 2023
جاری کیا گیا:
25 اکتوبر 2023
اپ ڈیٹ کیا گیا:
13 دسمبر 2023

Snap کی حفاظتی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کو بصیرت فراہم کرنے کے لئے، ہم سال میں دو بار شفافیت کی رپورٹیں شائع کرتے ہیں۔ ہم ان رپورٹس کو بہت سے اسٹیک ہولڈرز کے لیے مزید جامع اور معلوماتی بنانے کے لیے پرعزم ہیں جو ہمارے مواد میں ماڈریشن اور قانون نافذ کرنے والے طریقوں، اور ہماری کمیونٹی کی فلاح و بہبود کا سنجیدگی سے خیال رکھتے ہیں۔
یہ شفافیت کی رپورٹ 2023 (جنوری 1 - جون 30) کے پہلے نصف حصے پر مشتمل ہے۔ ہماری پچھلی رپورٹس کی طرح، ہم ایپ کے اندر موجود مواد کی عالمی تعداد اور اکاؤنٹ کی سطح کی رپورٹس کے بارے میں ڈیٹا کا اشتراک کرتے ہیں جو ہمیں موصول ہوئی اور پالیسی کی خلاف ورزیوں کے مخصوص زمروں میں نافذ کی گئی ہیں۔ ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کیسے جواب دیا؛ اور ہمارے نفاذ کے اقدامات ملک کے لحاظ سے تقسیم ہیں۔

ہمارے مسلسل شفافیت کی رپورٹوں کو بہتر بنانے کے عزم کے تحت، ہم اس ریلیز کے ساتھ کچھ نئے عناصر متعارف کرا رہے ہیں۔ ہم نے اپنے تشہیر کاری کے طریقوں اور ماڈریڈریشن کے ساتھ ساتھ مواد اور اکاؤنٹ کی اپیل کے بارے میں اضافی ڈیٹا پوائنٹس شامل کیے ہیں۔ EU ڈیجیٹل سروسز ایکٹ کے ساتھ ہم آہنگی میں، ہم نے EU ممبر ریاستوں میں اپنے آپریشنز کے بارے میں نئی ​​متعلقہ معلومات بھی شامل کی ہیں، جیسے کہ خطے میں مواد کے ماڈریٹرز اور ماہانہ فعال صارفین (MAUs) کی تعداد۔ اس میں سے زیادہ تر معلومات پوری رپورٹ میں، اور ہمارے شفافیت کے سینٹر کے وقف کردہ یورپی یونین کے صفحہ میں مل سکتی ہیں۔
آخر میں، ہم نے کمیونٹی کی ہدایات کے وضاحت کنندگان کے لنکس کے ساتھ اپنی لغت کو اپ ڈیٹ کیا ہے، جو ہماری پلیٹ فارم کی پالیسی اور آپریشنل کوششوں کے بارے میں اضافی سیاق و سباق فراہم کرتے ہیں۔
آن لائن نقصانات کا مقابلہ کرنے کے لیے ہماری پالیسیوں کے بارے میں مزید معلومات کے لیے، اور ہماری رپورٹنگ کے طریقوں کو فروغ دینے کے منصوبوں کو جاری رکھنے کے لئے، براہ کرم اس شفافیت کی رپورٹ کے بارے میں ہمارا حالیہ سیفٹی اینڈ امپیکٹ بلاگ پڑھیں۔
۔Snapchat پر حفاظت اور رازداری کے لئے اضافی وسائل تلاش کرنے کے لئے، صفحے کے نچلے حصے میں شفافیت کی رپورٹنگ ٹیب پر جائیں تاکہ ہمارے بارے میں مزید جانیں۔
براہ کرم نوٹ کریں کہ شفافیت کی رپورٹ کا تازہ ترین ورژن en-US کی مقامی زبان میں پایا جا سکتا ہے۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جنوری - 30 جون 2023 تک، Snap نے عالمی سطح پر مواد کے 6,216,118 ٹکڑوں کے خلاف نفاذ کیا جس سے ہماری پالیسیوں کی خلاف ورزی ہوئی۔
رپورٹنگ کی مدت کے دوران، ہم نے 0.02 فیصد کی خلاف ورزی کرنے والے منظر کی شرح (VVR) دیکھی، جس کا مطلب ہے کہ Snapchat پر ہر 10,000 Snap اور اسٹوری ویوز میں سے 2 میں ہماری پالیسیوں کی خلاف ورزی کرنے والا مواد پایا گیا۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ

ہماری مجموعی طور پر رپورٹنگ اور نفاذ کی شرح پچھلے چھ ماہ سے کافی مماثل رہی، جس میں چند مستثنیات کلیدی زمروں میں موجود ہیں۔ ہم نے کل مواد اور اکاؤنٹ کی رپورٹس اور اس کے نفاذ میں تقریباً %3 کمی دیکھی۔
سب سے زیادہ قابل ذکر اتار چڑھاؤ والے زمرے ہراسانگی اور دھونس، اسپام، ہتھیار، اور غلط معلومات تھے۔ ہراسانگی اور دھونس نے کل رپورٹس میں ~%56 اضافہ دیکھا، اور اس کے نتیجے میں مواد اور منفرد اکاؤنٹ کے نفاذ میں ~%39 اضافہ دیکھا گیا۔ نفاذ میں یہ اضافہ تبدیلی کے وقت میں ~ %46 کی کمی کے ساتھ جوڑا گیا، جو ہماری ٹیم کی جانب سے اس قسم کے خلاف ورزی کرنے والے مواد کو نافذ کرنے کے لیے بنائے گئے آپریشنل افادیت کو نمایاں کرتا ہے۔ اسی طرح، ہم نے اسپام کے لیے کل رپورٹس میں ~ 65% کا اضافہ دیکھا، جس میں مواد کے نفاذ میں ~ 110% اضافہ اور نافذ کردہ منفرد اکاؤنٹس میں ~ 80% اضافہ ہوا، جبکہ ہماری ٹیموں نے ٹرناراؤنڈ ٹائم میں بھی ~ 80% کمی کی۔ ہمارے ہتھیاروں کے زمرے میں کل رپورٹس میں ~%13 کمی، مواد کے نفاذ میں ~%51 کمی اور نافذ کردہ منفرد اکاؤنٹس میں ~%53 کمی دیکھی گئی۔ آخر میں، ہماری غلط معلومات کے زمرے میں کل رپورٹس میں ~%14 اضافہ دیکھا گیا، لیکن مواد کے نفاذ میں ~78% کی کمی اور نافذ کردہ منفرد اکاؤنٹس میں ~%74 کی کمی دیکھی گئی۔ اس کی وجہ کوالٹی ایشورنس (QA) کے مسلسل عمل اور وسائل سے منسوب کیا جا سکتا ہے جس کا اطلاق ہم غلط معلومات کی رپورٹوں پر کرتے ہیں، تاکہ یہ یقینی بنایا جا سکے کہ ہماری ماڈریشن ٹیمیں غلط معلومات کو درست طریقے سے پکڑ رہی ہیں اور ان پر کارروائی کر رہی ہیں۔
مجموعی طور پر، جبکہ ہم نے پچھلے دور کی طرح عام طور پر اسی طرح کے اعداد و شمار دیکھے ہیں، ہم یہ یقین رکھتے ہیں کہ پلیٹ فارم پر ظاہر ہونے والی ممکنہ خلاف ورزیوں کی فعال اور درست طریقے سے رپورٹ کرنے کے لیے ہماری کمیونٹی کے ذریعے استعمال کیے جانے والے ٹولز کو بہتر بنانا ضروری ہے۔

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔
ہم فعال ٹیکنالوجی سے معروف غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کرنے والے ٹولز، جیسے PhotoDNA کا مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصویری میچ (CSAI) کا استعمال کرتے ہیں اور انکی اطلا‏ع یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔
2023 کی پہلی ششماہی میں، ہم نے یہاں رپورٹ کی گئی بچوں کے جنسی استحصال اور بدسلوکی کی کل خلاف ورزیوں میں سے 98 فیصد کو فعال طور پر تلاش کیا اور ان پر کارروائی کی - جو ہماری سابقہ ​​رپورٹ کے مقابلے میں 4 فیصد اضافہ ہے۔
**نوٹ کریں کہ NCMEC پر ہر جمع بندی میں مواد کے متعدد ٹکڑے ہوسکتے ہیں۔ NCMEC کو جمع کرائے گئے میڈیا کے کل انفرادی ٹکڑے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔

خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد

ہم Snapchatters کی ذہنی صحت اور بہبود کا بہت خیال رکھتے ہیں، جس نے Snapchat کو مختلف بنانے کے لیے ہمارے فیصلوں کو مطلع کیا ہے - اور مطلع کرنا جاری رکھے ہوئے ہے۔ ایک پلیٹ فارم کے طور پر جو حقیقی دوستوں کے درمیان رابطے کے لیے بنایا گیا ہے، ہمیں یقین ہے کہ Snapchat دوستوں کو مشکل میں ایک دوسرے کی مدد کرنے کے لیے بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔
جب ہماری ٹرسٹ اینڈ سیفٹی ٹیم کو ایک سنیپ چیٹر مصیبت میں نظر آتا ہے، تو ان کے پاس خود کو نقصان پہنچانے سے بچاؤ اور معاونت کے وسائل کو آگے بڑھانے، اور جہاں مناسب ہو ایمرجنسی رسپانس اہلکاروں کو مطلع کرنے کا اختیار ہے۔ ہم جن وسائل کو شیئر کرتے ہیں وہ ہماری حفاظتی وسائل کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام Snapchatters کے لیے عوامی طور پر دستیاب ہیں۔

اپیلیں

اس رپورٹ کے مطابق، ہم صارفین کی جانب سے اپیلز کی تعداد پر اطلاع دینا شروع کر رہے ہیں جن کے اکاؤنٹس کو ہماری پالیسیوں کی خلاف ورزی کے لیے بند کر دیا گیا ہے۔ ہم صرف ان اکاؤنٹس کو بحال کرتے ہیں جن کا تعین ہمارے ماڈریٹرز کرتے ہیں کہ ان کو غلط طریقے سے لاک کر دیا تھا۔ اس عرصے کے دوران، ہم منشیات کے مواد سے متعلق اپیلوں کی اطلاع دے رہے ہیں۔  ہماری اگلی رپورٹ میں، ہم اپنی دیگر خلاف ورزیوں سے پیدا ہونے والی اپیلوں سے متعلق مزید ڈیٹا جاری کرنے کے منتظر ہیں۔
**نوٹ کریں کہ NCMEC پر ہر جمع بندی میں مواد کے متعدد ٹکڑے ہوسکتے ہیں۔ NCMEC کو جمع کرائے گئے میڈیا کے کل انفرادی ٹکڑے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔

اشتہارات کی ماڈریشن

Snap ثابت قدمی سے اس بات کو یقینی بنانے کے لیے پرعزم ہے کہ تمام اشتہارات ہماری پلیٹ فارم کی پالیسیوں کے مطابق ہیں۔ ہم اپنے تمام صارفین کے لیے ایک محفوظ اور پرلطف تجربہ تخلیق کرتے ہوئے تشہیر کاری کے لیے ایک ذمہ دار اور باعزت طریقے پر یقین رکھتے ہیں۔ ذیل میں ہم نے تشہیر کاری کی ماڈریشن میں بصیرت شامل کی ہے۔ نوٹ کریں کہ Snapchat پر اشتہارات کو مختلف وجوہات کی بنا پر ہٹایا جا سکتا ہے جیسا کہ Snap کی تشہیری پالیسیوں میں بیان کیا گیا ہے، بشمول فریب آمیز مواد، بالغوں کا مواد، پرتشدد یا پریشان کن مواد، نفرت انگیز تقریر، اور املاکِ دانش کی خلاف ورزی۔ مزید برآں، اب آپ شفافیت کی رپورٹ کے نیویگیشن بار میں Snapchat کے اشتہارات کی گیلری تلاش کر سکتے ہیں۔ 

مُلک کا جائزہ

یہ سیکشن جغرافیائی علاقوں کے نمونے لینے میں ہماری کمیونٹی کی ہدایات کے نفاذ کا ایک جائزہ فراہم کرتا ہے۔ ہماری ہدایات Snapchat پر موجود تمام مواد — اور پوری دنیا میں تمام سنیپ چیٹرز پر - اس سے قطع نظر کے وہ کس خطے میں ہیں، لاگو ہوتی ہیں۔
انفرادی ممالک کے لیے معلومات منسلک CSV فائل کے ذریعے ڈاؤن لوڈ کے لیے دستیاب ہے۔