Snap Values
شفافیت کی رپورٹ
1 جنوری 2023 - 30 جون 2023

جاری کیا گیا:

25 اکتوبر 2023

اپ ڈیٹ کیا گیا:

13 دسمبر 2023

Snap کی حفاظتی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کے بارے میں بصیرت فراہم کرنے کے لیے، ہم سال میں دو بار شفافیت کی رپورٹیں شائع کرتے ہیں۔
ہم اس عزم پر کاربند ہیں کہ ان رپورٹس کو مزید جامع اور معلوماتی بنائیں تاکہ وہ ان تمام متعلقہ فریقوں کے لیے معنی خیز ہوں جو ہمارے کانٹینٹ/مواد کی نگرانی، قانون نافذ کرنے والے عمل اور کمیونٹی کی بھلائی میں گہری دلچسپی رکھتے ہیں۔

یہ شفافیت کی رپورٹ، 2023 کے پہلے نصف حصے (یکم جنوری تا 30 جون) کا احاطہ کرتی ہے۔ ہماری پچھلی رپورٹس کی طرح، ہم ایپ کے اندر موجود مواد/کانٹینٹ کی دنیا بھر میں موصول ہونے والی تعداد اور اکاؤنٹ کی سطح کی رپورٹس کے بارے میں ڈیٹا کا اشتراک کرتے ہیں جو ہمیں پالیسی کی خلاف ورزیوں کے مخصوص زمروں میں موصول ہوئی اور ان کے خلاف نافذ کی گئی ہیں؛ ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کیسے جواب دیا؛
اور ہمارے نفاذ کردہ اقدامات کو ملک کے حساب سے تفصیل کے ساتھ پیش کیا جاتا ہے۔

ہماری مسلسل کاوش کے عزم پر کاربند رہنے کے ایک حصّہ کے طور پر ہم اپنی شفافیت کی رپورٹس کو مزیر بہتر بناتے ہیں، اور اس جاری کردہ رپورٹ میں ہم چند نئے عوامل شامل کر رہے ہیں۔ ہم نے اپنی اشتہاری مہمات، اور نگرانی کے حوالے سے، مزید ڈیٹا پوائنٹس کے ساتھ ساتھ، کانٹینٹ/مواد اور اکاؤنٹ اپیلز کو بھی شامل کیا ہے۔ یورپی یونین کے ڈیجیٹل سروسز ایکٹ کے مطابق، ہم نے یورپی یونین کے رکن ممالک میں اپنے آپریشنز و اقدامات کے بارے، نئے سیاق و سباق سے متعلقہ معلومات بھی شامل کی ہیں، جیسا کہ خطے میں
مقررہ نگرانوں اور ماہانہ فعال صارفین (MAUs) کی تعداد۔ یہ معلومات زیادہ تر رپورٹ میں موجود ہیں، اور ہماری شفافیت کے سینٹر کے مخصوص یورپی یونین کے صفحے پر بھی دستیاب ہیں۔

آخر میں، ہم نے اپنی گلوسری کو اپ ڈیٹ کیا ہے اور اس میں ہماری کمیونٹی کی ہدایات کے وضاحتی لنکس شامل کیے ہیں، جو ہماری پلیٹ فارم پالیسی اور آپریشنل کوششوں کے بارے میں اضافی سیاق و سباق فراہم کرتے ہیں۔

آن لائن نقصانات سے نمٹنے سے متعلقہ ہماری پالیسیز، اور رپورٹنگ کے طریقوں کو مزید بہتر بنانے کے منصوبوں کے بارے میں مزید معلومات کے لیے، براہ کرم اس شفافیت کی رپورٹ سے متعلق ہمارا حالیہ سیفٹی & امپیکٹ بلاگ پڑھیں۔

Snapchat پر حفاظت اور پرائیویسی کے اضافی وسائل کے لیے، صفحے کے نیچے ہمارے شفافیت کی رپورٹنگ کے بارے میں کے ٹیب کو دیکھیں۔

براہ کرم نوٹ کریں کہ اس شفافیت کی رپورٹ کا تازہ ترین ورژن en-US لوکیل میں دستیاب ہے۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا مجموعی جائزہ

1 جنوری سے - 30 جون 2023 تک، Snap نے عالمی سطح پر ایسے 6,216,118 مواد کے حصوں کے خلاف کارروائی کی جو ہماری پالیسیز کی خلاف ورزی کرتے تھے۔

رپورٹنگ کی مدت کے دوران، ہم نے 0.02 فیصد کی خلاف ورزی کے ویوز کی شرح (VVR) ملاحظہ کی، جس کا مطلب یہ ہے کہ Snapchat پر ہر 10,000 Snap اور کہانی کے ویوز میں سے 2 میں ہماری پالیسیز کی خلاف ورزی کرنے والا مواد موجود تھا۔

*غلط معلومات کے خلاف درست اور مسلسل نفاذ ایک متحرک عمل ہے جس کے لیے تازہ ترین سیاق و سباق اور جانفشانی کی ضرورت ہوتی ہے۔ چونکہ ہم اس زمرے میں اپنے ایجنٹس کے نفاذ کی درستگی کو مسلسل بہتر بنانے کی کوشش کرتے ہیں، لہٰذا ہم نے H1 2022 کے بعد، "نافذ کردہ مواد" اور "نافذ کردہ منفرد اکاؤنٹس" میں اعداد و شمار کو رپورٹ کرنے کے لیے ایسے زمروں کا انتخاب کیا ہے کہ جن کا تخمینہ غلط معلومات کے نفاذ کے اقدامات کے شماریاتی طور پر نمایاں حصے کے سخت کوالٹی اشورینس کے جائزے کی بنیاد پر لگایا گیا ہو۔ خصوصی طور پر، ہم ہر ملک میں غلط معلومات کے نفاذ کے اقدامات کے شماریاتی طور پر نمایاں حصے کا ایک سیمپل لیتے ہیں اور نفاذ کے فیصلوں کے معیار کی جانچ کرتے ہیں۔ اس کے بعد ہم معیار کے مطابق جانچ کردہ ان اقدامات کا استعمال کرتے ہیں تاکہ %95 (+/- %5 نقص کا امکان) اعتماد کی حد کی حامل نفاذ کے اقدامات کی وہ شرح اخذ کی جا سکے، جس کا استعمال ہم شفافیت کی رپورٹ میں رپورٹ کردہ غلط معلومات پر مبنی نفاذ کے اقدامات کا حساب کرنے کے لیے کرتے ہیں۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ

ہماری مجموعی رپورٹنگ اور نفاذ کی شرح پچھلے چھ مہینوں کی نسبت کافی حد تک یکساں رہی، اگرچہ اہم زمروں میں کچھ مستثنیات موجود ہیں۔ ہم نے اس سائیکل میں مواد اور اکاؤنٹ کی رپورٹس اور نفاذ کے اقدامات میں تقریباً 3 فیصد کمی دیکھی ہے۔

سب سے زیادہ نمایاں اتار چڑھاؤ والے زمرے میں ہراسانگی اور غنڈہ گردی، اسپام، ہتھیار، اور غلط معلومات شامل ہیں۔ ہراسانگی اور غنڈہ گردی کی وجہ سے کل رپورٹس میں %56~ اضافہ دیکھا گیا، اور اس کے بعد مواد اور اکاؤنٹ کے منفرد نفاذ میں %39~ اضافہ دیکھا گیا۔ نفاذ کے اقدامات میں اس اضافے کے ساتھ ساتھ جواب دہی کے وقت میں %46~ کمی واقع ہوئی ہے، جو ہماری ٹیم کی آپریشنل کارکردگی کو اجاگر کرتا ہے کہ اس قسم کی خلاف ورزی کرنے والے مواد کے خلاف کارروائی میں کی گئی ہے۔ اسی طرح، ہم نے اسپام سے متعلق کُل رپورٹس میں %65~، مواد کے نفاذ سے متعلق طریقوں میں %110~ اور نافذ کردہ منفرد اکاؤنٹس کی تعداد میں %80~ اضافہ دیکھا ہے، جبکہ ہماری ٹیمز نے جواب دہی کے وقت کو %80~ تک کم کیا ہے۔ ہمارے ہتھیاروں کے زمرے میں کل رپورٹس میں %13~، اور مواد کے نفاذ کے اقدامات میں %51~ اور نافذ کردہ منفرد اکاؤنٹس میں %53~ کمی دیکھی گئی۔ آخر میں، ہمارے غلط معلومات کے زمرے میں کل رپورٹس میں %14~ اضافہ دیکھا گیا، لیکن مواد کے نفاذ کے اقدامات میں %78~ اور نافذ کردہ منفرد اکاؤنٹس میں %74~ کمی دیکھی گئی۔
اسے کوالٹی اشورینس (QA) کے مسلسل عمل اور وسائل سے منسوب کیا جا سکتا ہے جو ہم غلط معلومات کی رپورٹس پر لاگو کرتے ہیں، تاکہ یہ یقینی بنایا جا سکے کہ ہماری نگرانی کی ٹیمیں پلیٹ فارم پر غلط معلومات کو درست طریقے سے پکڑ رہی ہیں اور کارروائی کر رہی ہیں۔

مجموعی طور پر، اگرچہ اس مدت کے اعداد و شمار سابقہ مدت سے کافی حد تک مماثل رہے، لیکن ہم سمجھتے ہیں کہ یہ ضروری ہے کہ ہم ان ٹولز کو مزید بہتر بنائیں کہ جنہیں ہماری کمیونٹی پلیٹ فارم پر ممکنہ خلاف ورزیوں کی بروقت اور درست رپورٹنگ کے لیے استعمال کرتی ہے۔

بچوں کے جنسی استحصال اور بدسلوکی کی روک تھام

ہماری کمیونٹی کے کسی بھی رکن، خاص طور پر نابالغوں کا جنسی استحصال غیر قانونی، قابل نفرت، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی پر مبنی تصویری مواد (CSEAI) کی روک تھام، نشاندہی، اور خاتمہ Snap کے لیے اولین ترجیح ہے، اور ہم ان کے ساتھ ساتھ دیگر جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل بہتر بنا رہے ہیں۔

ہم جدید ٹیکنالوجی کا استعمال کرتے ہیں جیسا کہ PhotoDNA کی مضبوط ہیش میچنگ اور گوگل کی چائلڈ سیکسچوئل ایبیوز امیجری (CSEA) میچنگ، تاکہ معروف غیر قانونی تصاویر اور ویڈیوز کو شناخت کیا جا سکے، اور ان کو امریکی نیشنل سینٹر فار میسنگ اینڈ ایکپلائیٹڈ چلڈرن (NCMEC) کو رپورٹ کیا جا سکے، جیسا کہ یہ قانون کے مطابق مطلوب ہے۔ اس کے بعد، NCMEC ضرورت کے مطابق، مقامی یا بین الاقوامی پولیس اور قانونی اداروں کے ساتھ ہم آہنگی و رابطہ کاری کرتا ہے۔

2023 کے پہلے نصف حصے میں، ہم نے یہاں رپورٹ کردہ بچوں کے جنسی استحصال اور بدسلوکی کے 98 فیصد واقعات کی پیشگی فعال طور پر نشاندہی کر کے ان کے خلاف کارروائی کی — جو کہ گزشتہ مدت کے مقابلے میں %4 زیادہ ہے۔

**نوٹ کریں کہ NCMEC کی ہر جمع بندی میں مواد کے متعدد حصے شامل ہو سکتے ہیں۔ NCMEC کو جمع کروائے گئے میڈیا کے کل انفرادی مواد کی تعداد ہماری جانب سے نافذ کیے گئے مجموعی مواد کے برابر ہے۔

دہشت گردی اور شدت پسندی پر مبنی مواد

رپورٹنگ کی مدت کے دوران، 1 جنوری 2023- 30 جون 2023، ہم نے دہشت گردی اور شدت پسندی پر مبنی مواد پر پابندی عائد کرنے والی اپنی پالیسی کی خلاف ورزیوں پر 18 اکاؤنٹس کو ہٹایا۔

Snap میں، ہم متعدد چینلز کے ذریعے رپورٹ کردہ دہشت گردی اور شدت پسندی پر مبنی مواد کو ہٹاتے ہیں۔ ہم صارفین کی حوصلہ افزائی کرتے ہیں کہ وہ اپنے ایپ میں رپورٹنگ مینو کے ذریعے دہشت گردی اور انتہا پسندی پر مبنی مواد سے متعلق رپورٹ کریں، اور ہم قانون نافذ کرنے والے اداروں کے ساتھ مل کر کام کرتے ہیں تاکہ Snap پر ظاہر ہونے والے دہشت گردی اور شدت پسندی پر مبنی مواد کا سدباب کیا جا سکے۔

خود اذیتی اور خودکشی پر مبنی مواد

ہمیں سنیپ چیٹرز کی ذہنی صحت اور فلاح و بہبود کا انتہائی خیال رکھتے ہیں، اسی عنصر نے ہمارے فیصلوں کی رہنمائی کی – اور مسلسل کر رہا ہے، تاکہ Snapchat کو مختلف طریقے سے تشکیل دی جا سکے۔ حقیقی دوستوں کے درمیان مواصلت کے لیے ڈیزائن کردہ پلیٹ فارم کے طور پر، ہم سمجھتے ہیں کہ Snapchat دوستوں کو بااختیار بنانے میں ایک منفرد کردار ادا کر سکتا ہے تاکہ مختلف اوقات میں ایک دوسرے کی مدد کی جا سکے۔

جب ہماری ٹرسٹ اینڈ سیفٹی ٹیم مایوسی کے زیرِ اثر کسی سنیپ چیٹر کی شناخت کرتی ہے، تو وہ خود اذیتی کی روک تھام اور معاونت پر مبنی وسائل ارسال کر سکتے ہیں، اور جب موزوں ہو تو ہنگامی امدادی اداروں کو مطلع کر سکتے ہیں۔ ہماری جانب سے اشتراک کردہ ذرائع ہمارے حفاظتی ذرائع کی عالمی فہرست پر دستیاب ہیں، اور یہ تمام سنیپ چیٹرز کے لیے عوامی طور پر دستیاب ہیں۔

اپیلیں

اس رپورٹ کے مطابق، ہم ان صارفین کی جانب سے موصول ہونے والی اپیلز کی تعداد کو رپورٹ کرنے کا آغاز کر رہے ہیں کہ جن کے اکاؤنٹس ہماری پالیسیز کی خلاف ورزی کے باعث لاک کیے گئے۔ ہم صرف ان اکاؤنٹس کو بحال کرتے ہیں کہ جن سے متعلق ہمارے نگران یہ تعین کریں کہ انہیں غلط طریقے سے لاک کیا گیا تھا۔ اس مدت کے دوران، ہم منشیات کے مواد سے متعلق اپیلز کو رپورٹ کر رہے ہیں۔ اپنی اگلی رپورٹ میں، ہم اپنی پالیسیز کی دیگر خلاف ورزیوں کے نتیجے میں سامنے آنے والی اپیلز سے متعلق مزید ڈیٹا جاری کرنے جا رہے ہیں۔

اشتہارات کی نگرانی

سنیپ اس بات کو یقینی بنانے کے لیے پرعزم ہے کہ تمام اشتہارات ہمارے پلیٹ فارم کی پالیسیز کے مطابق ہیں۔ ہم اشتہار کے لیے ذمہ دارانہ اور احترام پر مبنی نقطہ نظر پر یقین رکھتے ہیں، جو ہمارے تمام صارفین کے لیے ایک محفوظ اور لطف اندوز تجربہ تخلیق کرتا ہے۔ ذیل میں ہم نے اپنی اشتہاری نگرانی سے متعلق فراست کو شامل کیا ہے۔ نوٹ کریں کہ Snapchat پر اشتہارات کو مختلف وجوہات کی بنا پر ہٹایا جا سکتا ہے جیسا کہ Snapchat کی تشہیری پالیسیوں میں بیان کیا گیا ہے، جن میں دھوکہ دہی پر مبنی مواد، بالغوں کا مواد، پرتشدد یا خلل ڈالنے والا مواد، نفرت انگیز تقریر، اور املاکِ دانش کی خلاف ورزی شامل ہے۔ اس کے علاوہ، اب آپ اس شفافیت کی رپورٹ کے نیویگیشن بار میں سنیپ چیٹ کے اشتہارات کی گیلری کو تلاش کر سکتے ہیں۔

ملک کا مجموعی جائزہ

یہ سیکشن جغرافیائی علاقوں کے نمونے لینے میں ہماری کمیونٹی کی ہدایات کے نفاذ کا مجموعی جائزہ فراہم کرتا ہے۔ ہماری ہدایات کا اطلاق Snapchat پر موجود تمام مواد—اور دنیا بھر میں موجود، مقام سے قطع نظر—تمام سنیپ چیٹرز پر ہوتا ہے ۔

انفرادی ممالک کے لیے معلومات منسلک کردہ CSV فائل کے ذریعے ڈاؤن لوڈ کی غرض سے دستیاب ہے: