شفافیت کی رپورٹ

1 جولائی 2022 – 31 دسمبر 2022

جاری شد:

15 جون 2023

اپ ڈیٹیڈ:

15 جون 2023

Snap کی حفاظتی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کو بصیرت فراہم کرنے کے لئے، ہم سال میں دو بار شفافیت کی رپورٹیں شائع کرتے ہیں۔ ہم ان رپورٹس کو بہت سے اسٹیک ہولڈرز کے لیے مزید جامع اور معلوماتی بنانے کے لیے پرعزم ہیں جو ہمارے مواد میں اعتدال اور قانون نافذ کرنے والے طریقوں، اور ہماری کمیونٹی کی فلاح و بہبود کا سنجیدگی سے خیال رکھتے ہیں۔

یہ رپورٹ 2022 کے دوسرے نصف حصے (1 جولائی تا 31 دسمبر) کا احاطہ کرتی ہے۔ ہماری پچھلی رپورٹس کی طرح، ہم ایپ کے اندر موجود مواد کی عالمی اعداد و شمار اور اکاؤنٹ کی سطح کی رپورٹس کے بارے میں ڈیٹا کا اشتراک کرتے ہیں جو ہمیں پالیسی کی خلاف ورزیوں کے مخصوص زمروں میں موصول ہوئی اور ان کے خلاف نافذ کی گئی؛ ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کیسے جواب دیا؛ اور ملک کے لحاظ سے ہماری نافذ کردہ کارروائیوں کا استحصال۔ یہ اس رپورٹ میں حالیہ اضافے پر بھی روشنی ڈالتا ہے جس میں Snapchat کے مواد کی خلاف ورزی کی شرح، ٹریڈ مارک کی ممکنہ خلاف ورزیاں، اور پلیٹ فارم پر غلط معلومات کے واقعات شامل ہیں۔

اپنی شفافیت کی رپورٹوں کو مسلسل بہتر بنانے کے لیے ہمارے جاری عزم کے ایک حصے کے طور پر، ہم اس ریلیز کے ساتھ چند نئے عناصر متعارف کروا رہے ہیں۔ ہم نے "مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ" کے نام سے ایک سیکشن شامل کیا ہے جس میں ہم اپنی سابقہ ​​رپورٹنگ کی مدت کے مقابلے میں ڈیٹا کی بڑی تبدیلیوں کا اندازہ لگاتے ہیں۔

اس کے علاوہ، ہم نے اپ ڈیٹ کیا ہے، دونوں لینڈنگ پیج اور ہمارے ملکی ذیلی صفحات پر کہ ہم اپنے مواد اور اکاؤنٹ کی خلاف ورزیوں کے ٹیبل میں ڈیٹا کیسے پیش کرتے ہیں۔ اس سے پہلے، ہم نے زیادہ تر سے کم تر مواد کے نفاذ سے خلاف ورزیوں کا حکم دیا تھا۔ مستقل مزاجی کو بہتر بنانے کے لیے، ہمارا آرڈر اب ہماری کمیونٹی کی ہدایات کی عکاسی کرتا ہے۔ یہ Snap کے سیفٹی ایڈوائزری بورڈ کی تجویز پر آیا ہے، جو آزادانہ طور پر تعلیم دیتا ہے، چیلنج کرتا ہے، مسائل کو اٹھاتا ہے اور Snap کو مشورہ دیتا ہے کہ Snapchat کمیونٹی کو محفوظ رکھنے میں کس طرح مدد کی جائے۔

آخر میں، ہم نے کمیونٹی کی ہدایات کے وضاحت کنندگان کے لنکس کے ساتھ اپنی لغت کو اپ ڈیٹ کیا ہے، جو ہماری پلیٹ فارم کی پالیسی اور آپریشنل کوششوں کے بارے میں اضافی سیاق و سباق فراہم کرتے ہیں۔

آن لائن نقصانات کا مقابلہ کرنے کے لیے ہماری پالیسیوں کے بارے میں مزید معلومات کے لیے، اور ہماری رپورٹنگ کے طریقوں کو فروغ دینے کے منصوبوں کو جاری رکھنے کے لئے، براہ کرم اس شفافیت کی رپورٹ کے بارے میں ہمارا حالیہ حفاظت اور اثرات بلاگ پڑھیں۔

۔Snapchat پر حفاظت اور رازداری کے لئے اضافی وسائل تلاش کرنے کے لئے، صفحے کے نچلے حصے میں شفافیت کی رپورٹنگ ٹیب پر جائیں تاکہ ہمارے بارے میں مزید جانیں۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے دسمبر 2022 تک، Snap نے ہماری پالیسیوں کی خلاف ورزی کرنے والے مواد کے 6,360,594 ٹکڑوں کے خلاف عالمی سطح پر نفاذ کیا۔

رپورٹنگ کی مدت کے دوران، ہم نے 0.03 فیصد خلاف ورزی دیکھنے کی شرح (VVR) دیکھی، جس کا مطلب ہے کہ Snapchat پر ہر 10,000 Snap اور کہانی کے ملاحظات میں سے ہر3مواد ایسا تھا جس سے ہماری پالیسیوں کی خلاف ورزی ہوتی ہے.

*غلط معلومات کے خلاف درست اور مستقل طور پر نفاذ ایک متحرک عمل ہے جس کے لیے تازہ ترین سیاق و سباق اور مستعدی کی ضرورت ہوتی ہے۔ جیسا کہ ہم اس زمرے میں اپنے ایجنٹوں کے نفاذ کی درستگی کو مسلسل بہتر بنانے کی کوشش کرتے ہیں، ہم نے H1 2022 سے، "مطلوبہ مواد" اور "منفرد اکاؤنٹس کا نفاذ" زمروں میں اعداد و شمار کی اطلاع دینے کا انتخاب کیا ہے جن کا تخمینہ غلط معلومات کے نفاذ کے اعداد و شمار کے لحاظ سے اہم حصے کے سخت معیار کی یقین دہانی کے جائزے کی بنیاد پر لگایا گیا ہے۔ خاص طور پر، ہم ہر ملک میں غلط معلومات کے نفاذ کے آماری معیار کے ایک اہم حصے کو نمونہ بناتے ہیں اور اس نفاذ کے فیصلوں کی کوالٹی چیک کرتے ہیں۔ شفافیت کی رپورٹ پھر ہم ان کوالٹی چیک کردہ نفاذ کا استعمال کرتے ہیں تاکہ ہم ایک ٪95 اعتمادی وقفہ (+/- 5٪ نقص کا مارجن) کے ساتھ نفاذ کے ریٹس حاصل کر سکیں، جسے ہم شفافیت کی رپورٹ میں رپورٹ کردہ غلط معلومات کے نفاذ کا حساب لگانے کے لیے استعمال کرتے ہیں۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ

اس دورانیے میں ہم نے کل مواد اور اکاؤنٹ کی رپورٹس میں 38% اضافہ دیکھا، جس کی وجہ اکاؤنٹس کے لیے ہمارے درون ایپ رپورٹنگ مینو میں ایک اپ ڈیٹ سے منسوب کیا جا سکتا ہے، جس کے نتیجے میں، سنیپ چیٹرز کو رپورٹنگ کے لیے مزید اختیارات فراہم کیے گئے ہیں۔ نتیجتاً، ہم نے نافذ کردہ کل مواد میں ٪12 اضافہ دیکھا، اور نافذ کردہ کل منفرد اکاؤنٹس میں ٪40 اضافہ دیکھا۔ خاص طور پر، سنیپ چیٹرز نے ہراساں کرنا اور غنڈہ گردی اور دیگر ریگولیٹڈ گڈز کے زمرے میں مزید مواد اور اکاؤنٹس کی اطلاع دی، جس میں رپورٹس میں بالترتیب ~ ٪300 اور ~ ٪100 اضافہ دیکھا گیا، اور مواد کے نفاذ میں بالترتیب ~ ٪83 اور ~ ٪86 اضافہ دیکھا گیا۔ ہم نے اسپیم کے لیے ~ ٪68 اضافے کی رپورٹس اور مواد کے نفاذ میں ~ ٪88 اضافے کو بھی دیکھا۔

مزید برآں، مواد اور اکاؤنٹ کی رپورٹس کی زیادہ تعداد کے نتیجے میں مواد اور اکاؤنٹس پر عمل درآمد کے اوقات میں اضافہ ہوا ہے۔ تمام مواد اور اکاؤنٹس کے لیے درمیانی تبدیلی کا وقت اب بھی تمام زمروں کے لیے 1 گھنٹے سے کم ہے۔

عموماً ہم نے تمام شعبوں میں اضافے دیکھے ہیں، ہمارا ماننا ہے کہ پلیٹ فارم پر ظاہر ہوتے ہی خلاف ورزیوں کی فعال اور درست طریقے سے رپورٹ کرنے کے لیے ہماری کمیونٹی کے استعمال کردہ ٹولز کو بہتر بنانا ضروری ہے۔

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کا جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔

ہماری ٹرسٹ اینڈ سیفٹی ٹیم فعال ٹیکنالوجی کے پتہ لگانے کے اوزار استعمال کرتی ہے، جیسے کہ PhotoDNA کی زبردست ہیش میچنگ اور گوگل کے چائلڈ سیکشوئل ابیوز امیجری (CSAI) جو معلوم غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کے ساتھ بالترتیب میچ کر کے شناخت کرتے ہیں اور انہیں قانون کی روشنی میں درکار ہونے پر امریکی نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئیٹڈ چلڈرن (NCMEC) کو رپورٹ کرتے ہیں۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔

2022 کے دوسرے نصف حصے میں، ہم نے یہاں رپورٹ کی گئی بچوں کے جنسی استحصال اور بدسلوکی کی کل خلاف ورزیوں میں سے 94 فیصد کو فعال طور پر تلاش کیا اور ان پر کارروائی کی۔

**نوٹ کریں کہ NCMEC پر ہر جمع بندی میں مواد کے متعدد ٹکڑے ہوسکتے ہیں۔ NCMEC کو جمع کرائے گئے میڈیا کے کل انفرادی ٹکڑے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔

دہشت گرد اور پرتشدد انتہا پسندانہ مواد

دہشت گرد اور پرتشدد انتہا پسندانہ مواد

رپورٹنگ کی مدت کے دوران، ہم نے دہشت گردی اور پرتشدد انتہا پسندانہ مواد کو روکنے والی ہماری پالیسی کی خلاف ورزیوں پر 132 اکاؤنٹس کو حذف کردیا۔

Snap پر، ہم متعدد چینلز کے ذریعے رپورٹ کردہ دہشت گردی اور تشدد کے انتہا پسندی کے مواد کو ہٹاتے ہیں۔ ان میں صارفین کو ہمارے ایپ کے اندر رپورٹنگ مینو کے ذریعے دہشت گردی اور پرتشدد انتہا پسندانہ مواد کی اطلاع دینے کی ترغیب دینا شامل ہے، اور ہم Snap پر ظاہر ہونے والے دہشت گردی اور پرتشدد انتہا پسندی کے مواد سے نمٹنے کے لیے قانون نافذ کرنے والے اداروں کے ساتھ مل کر کام کرتے ہیں۔

خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد

خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد

ہم Snapchatters کی ذہنی صحت اور بہبود کا بہت خیال رکھتے ہیں، جس نے Snapchat کو مختلف بنانے کے لیے ہمارے فیصلوں کو مطلع کیا ہے - اور مطلع کرنا جاری رکھے ہوئے ہے۔ ایک پلیٹ فارم کے طور پر جو حقیقی دوستوں کے درمیان رابطے کے لیے بنایا گیا ہے، ہمیں یقین ہے کہ Snapchat دوستوں کو مشکل میں ایک دوسرے کی مدد کرنے کے لیے بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔

جب ہماری ٹرسٹ اینڈ سیفٹی ٹیم کو ایک سنیپ چیٹر مصیبت میں نظر آتا ہے، تو ان کے پاس خود کو نقصان پہنچانے سے بچاؤ اور معاونت کے وسائل کو آگے بڑھانے، اور جہاں مناسب ہو ایمرجنسی رسپانس اہلکاروں کو مطلع کرنے کا اختیار ہے۔ ہم جن وسائل کو شیئر کرتے ہیں وہ ہماری حفاظتی وسائل کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام Snapchatters کے لیے عوامی طور پر دستیاب ہیں۔

مُلک کا جائزہ

یہ سیکشن جغرافیائی علاقوں کے نمونے لینے میں ہماری کمیونٹی کی ہدایات کے نفاذ کا ایک جائزہ فراہم کرتا ہے۔ ہماری ہدایات Snapchat پر موجود تمام مواد — اور پوری دنیا میں تمام سنیپ چیٹرز پر - اس سے قطع نظر کے وہ کس خطے میں ہیں، لاگو ہوتی ہیں۔

انفرادی ممالک کے لیے معلومات منسلک CSV فائل کے ذریعے ڈاؤن لوڈ کے لیے دستیاب ہے۔