29 نومبر 2022
29 نومبر 2022
Snap کی حفاظتی کوششوں اور ہمارے پلیٹ فارم پر رپورٹ کردہ مواد کی نوعیت اور حجم کے بارے میں بصیرت فراہم کرنے کے لیے، ہم سال میں دو بار شفافیت کی رپورٹیں شائع کرتے ہیں۔
ہم اس عزم پر کاربند ہیں کہ ان رپورٹس کو مزید جامع اور معلوماتی بنائیں تاکہ وہ ان تمام متعلقہ فریقوں کے لیے معنی خیز ہوں جو ہمارے کانٹینٹ/مواد کی نگرانی، قانون نافذ کرنے والے عمل اور کمیونٹی کی بھلائی میں گہری دلچسپی رکھتے ہیں۔
یہ رپورٹ 2022 کے پہلے نصف حصے (یکم جنوری تا 30 جون) کا احاطہ کرتی ہے۔ ہماری پچھلی رپورٹس کی طرح، ہم ایپ کے اندر موجود مواد/کانٹینٹ کی دنیا بھر میں موصول ہونے والی تعداد اور اکاؤنٹ کی سطح کی رپورٹس کے بارے میں ڈیٹا کا اشتراک کرتے ہیں جو ہمیں پالیسی کی خلاف ورزیوں کے مخصوص زمروں میں موصول ہوئی اور ان کے خلاف نافذ کی گئی ہیں؛ ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کیسے جواب دیا؛ اور ہمارے نافذ کردہ اقدامات ملک وار تفیصل کے ساتھ پیش کیے گئے ہیں۔ اس رپورت میں حالیہ اضافے بھی شامل ہیں، جن میں Snapchat کے کانٹینٹ/مواد کی خلاف ورزی دیکھنے کی شرح، ممکنہ ٹریڈ مارک کی خلاف ورزیاں، اور پلیٹ فارم پر غلط معلومات کے واقعات شامل ہیں۔
اپنی شفافیت کی رپورٹس کو بہتر بنانے کے عزم کے تحت، ہم اس رپورٹ میں کئی نئے عناصر متعارف کرا رہے ہیں۔ اس قسط کے لیے اور آئندہ بھی، ہم رپورٹ میں استعمال ہونے والی گلوسریکی فہرست شامل کر رہے ہیں۔ ہمارا مقصد ان اصطلاحات کے بارے میں مزید شفافیت کو بڑھانا ہے، جو واضح طور پر بتاتی ہیں کہ ہر زمرے کے تحت کون سے اقسام کے خلاف ورزی کرنے والے کانٹینٹ/مواد شامل ہیں اور ہر ایک درجہ کی خلاف ورزی کے لیے کارروائیوں کی وضاحت شامل کرنا ہے۔ اس بار پہلی مرتبہ، ہم جھوٹی معلومات کو ایک علیحدہ زمرے کے طور پر متعلقہ ملک کی سطح پر متعارف کرا رہے ہیں، جو پہلے سے موجود ہماری عالمی سطح پر جھوٹی معلومات کی رپورٹنگ کی پریکٹس پر مبنی ہے۔
اس کے علاوہ، ہم بچوں کے جنسی استحصال اور بدسلوکی پر مبنی تصوریری مواد (CSEAI) سے نمٹنے کے لیے اپنی کوششوں کے بارے میں مزید معلومات فراہم کر رہے ہیں۔ آگے بڑھتے ہوئے ہم CSEA سے متعلق کُل مواد کی معلومات شیئر کریں گے جس کے خلاف ہم نے CSEA سے متعلق رپورٹس * (یعنی سائبرٹپس) کی کُل تعداد بھی شیئر کریں گے جو ہم نے .U.S نیشنل سینٹر فار مسنگ اینڈ ایکسپلوئٹڈ چلڈرن کو جمع کروائی ہیں۔
آن لائن نقصانات سے نمٹنے کی ہماری پالیسیوں اور اپنی رپورٹنگ طریقوں کو بہتر بنانے کے منصوبوں کے بارے میں مزید معلومات کے لیے، براہ کرم اس شفافیت کی رپورٹ پر ہمارا حالیہ سیفٹی & امپیکٹ بلاگ پڑھیں۔
Snapchat پر حفاظت اور پرائیویسی کے اضافی وسائل کے لیے، صفحے کے نیچے ہمارے شفافیت کی رپورٹنگ کے بارے میں کے ٹیب کو دیکھیں۔
مواد اور اکاؤنٹ کی خلاف ورزیوں کا مجموعی جائزہ
1 جنوری سے 30 جون 2022 تک، ہم نے عالمی سطح پر مواد کے 5,688,970 حصوں کے خلاف نفاذ کیا ہے جو ہماری پالیسیز کی خلاف ورزی کرتے تھے۔ نفاذ کی کارروائیوں میں توہین آمیز مواد کو ہٹانا یا زیر بحث اکاؤنٹ کا خاتمہ شامل ہے۔
رپورٹنگ کی مدت کے دوران، ہم نے 0.04 فیصد کی خلاف ورزی کے ویوز کی شرح (VVR) دیکھی، جس کا مطلب ہے کہ Snapchat پر ہر 10,000 Snap اور کہانی کے ویوز میں سے 4 میں ہماری پالیسیز کی خلاف ورزی کرنے والا مواد شامل تھا۔
توسیع شدہ خلاف ورزیاں
بچوں کے جنسی استحصال اور بدسلوکی کے خلاف کارروائی
ہماری کمیونٹی کے کسی بھی رکن، خاص طور پر نابالغوں کا جنسی استحصال غیر قانونی، قابل نفرت، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی پر مبنی تصوریری مواد (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہماری اولین ترجیح ہے، اور ہم ان کے ساتھ ساتھ دیگر قسم کے جرائم سے نمٹنے کے لیے اپنی صلاحیتوں کو مسلسل بہتر بنا رہے ہیں۔
ہماری ٹرسٹ اینڈ سیفٹی ٹیمز فعال ٹیکنالوجی کے ذریعے پتہ لگانے والے ٹولز استعمال کرتی ہیں، جیسے کہ PhotoDNA کی مضبوط ہیش میچنگ اور Google کے ذریعے بچوں کے جنسی استحصال پر مبنی مواد (CSAI) کی میچنگ، تاکہ معروف غیر قانونی تصاویر اور ویڈیوز کو شناخت کیا جا سکے، اور ان کو امریکی نیشنل سینٹر فار میسنگ اینڈ ایکپلائیٹڈ چلڈرن (NCMEC) کو رپورٹ کیا جا سکے، جیسا کہ یہ قانون کے مطابق مطلوب ہے۔ اس کے بعد، NCMEC ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔
2022 کے پہلے نصف میں، ہم نے یہاں رپورٹ کردہ بچوں کے جنسی استحصال اور بدسلوکی کی کُل خلاف ورزیوں سے 94 فیصد واقعات کی پیشگی فعال طور پر نشاندہی کر کے ان کے خلاف کارروائی کی — جو ہماری سابقہ رپورٹ کے مقابلے میں 6 فیصد زیادہ ہے۔
*نوٹ کریں کہ NCMEC کو ہر جمع بندی میں متعدد مواد شامل ہو سکتا ہے۔ NCMEC کو جمع کروائے گئے میڈیا کے کُل انفرادی حصے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔
دہشت گردی اور شدت پسندی پر مبنی مواد
رپورٹنگ کی مدت کے دوران، ہم نے دہشت گردی اور شدت پسندی پر مبنی مواد کو روکنے والی ہماری پالیسی کی خلاف ورزیوں پر 73 اکاؤنٹس کو ہٹا دیا۔
Snap میں، ہم متعدد چینلز کے ذریعے رپورٹ کردہ دہشت گردی اور شدت پسندی پر مبنی مواد کو ہٹاتے ہیں۔ ان میں صارفین کی حوصلہ افزائی کرنا شامل ہے کہ وہ ہماری ان ایپ رپورٹنگ مینو کے ذریعے دہشت گردی اور شدت پسندی پر مبنی مواد سے متعلق رپورٹ کریں، اور ہم Snap پر ظاہر ہونے والے دہشت گردی اور شدت پسندی پر مبنی مواد سے نمٹنے کے لیے قانون نافذ کرنے والے اداروں کے ساتھ مل کر کام کرتے ہیں۔
خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد
ہم سنیپ چیٹرز کی ذہنی صحت اور فلاح و بہبود کو انتہائی اہمیت دیتے ہیں، یہی بات – پہلے بھی اور اب بھی – ہمیں Snapchat کو مختلف انداز میں بنانے کے فیصلوں میں رہنمائی دیتی ہے۔ ایسے پلیٹ فارم کے طور پر جو حقیقی دوستوں کے درمیان مواصلات کے لیے ڈیزائن کیا گیا ہے، ہم یقین رکھتے ہیں کہ Snapchat مشکل لمحات میں دوستوں کو ایک دوسرے کی مدد کرنے کے لیے انہیں بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔
جب ہماری ٹرسٹ اینڈ سیفٹی ٹیم کسی اسنیپ چیٹر کو پریشانی کی حالت میں دیکھتی ہے، تو وہ خودکشی سے بچاؤ اور معاونت سے متعلق ذرائع آگے بھیج سکتی ہے، اور جہاں ضروری ہو وہاں ایمرجنسی جواب دہی کے عملے کو بھی اطلاع دے سکتی ہے۔ ہم جو ذرائع شیئر کرتے ہیں وہ ہماری حفاظتی ذرائع کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام سنیپ چیٹرز کے لیے عوامی طور پر دستیاب ہیں۔
ملک کا مجموعی جائزہ
یہ سیکشن جغرافیائی علاقوں کے نمونے لینے میں ہماری کمیونٹی کی ہدایات کے نفاذ کا مجموعی جائزہ فراہم کرتا ہے۔ ہماری ہدایات کا اطلاق Snapchat پر موجود تمام مواد—اور دنیا بھر میں موجود، مقام سے قطع نظر—تمام سنیپ چیٹرز پر ہوتا ہے ۔
انفرادی ممالک کے لیے معلومات منسلک کردہ CSV فائل کے ذریعے ڈاؤن لوڈ کی غرض سے دستیاب ہے:



























