Snap Values
شفافیت کی رپورٹ
1 جنوری 2024 – 30 جون 2024

جاری کیا گیا:

05 دسمبر 2024

اپ ڈیٹ کیا گیا:

05 دسمبر 2024

ہم اس شفافیت کی رپورٹ کو سال میں دو مرتبہ شائع کرتے ہیں تاکہ Snap کے حفاظتی اقدامات کے حوالے سے معلومات و آگاہی فراہم کی جا سکے۔ ہم ان کوششوں کے لیے پرعزم ہیں اور مسلسل کوشش کرتے ہیں کہ یہ رپورٹس ہمارے مواد کی نگرانی، قانون کے نفاذ کے طریقوں، اور Snapchat کمیونٹی کی حفاظت اور فلاح و بہبود کے بارے میں گہری دلچسپی رکھنے والے تمام اسٹیک ہولڈرز کے لیے مزید جامع اور معلوماتی بنائی جا سکیں۔

یہ شفافیت کی رپورٹ 2024 کی پہلی ششماہی (1 جنوری - 30 جون) پر مشتمل ہے۔ ہماری گزشتہ رپورٹس کی طرح، ہم اس رپورٹ میں بھی ان-ایپ کے مواد اور اکاؤنٹ کی سطح پر ہونے والی رپورٹس کے عالمی ڈیٹا کو شیئر کرتے ہیں، جو ہماری ٹرسٹ اور سیفٹی ٹیموں نے کمیونٹی کی ہدایات کی خلاف ورزیوں کے مخصوص زمرے میں موصول اور نافذ کیں؛ اور ہم نے قانون نافذ کرنے والے اداروں اور حکومتوں کی درخواستوں کا کس طرح جواب دیا؛ اور ہم نے حق اشاعت اور ٹریڈ مارک کی خلاف ورزیوں کے نوٹسز پر کس طرح ردعمل ظاہر کیا۔ ہم اس صفحہ کے نچلے حصے میں منسلک فائلوں میں ملک کے لحاظ سے مخصوص بصیرتیں بھی فراہم کرتے ہیں۔

اپنی شفافیت کی رپورٹوں کو مسلسل بہتر بنانے کے اپنے پختہ عزم کے تحت، ہم نئے ڈیٹا کا تعارف کرا رہے ہیں جو کہ ہماری پیشگی کوششوں کو اجاگر کرتا ہے تاکہ ہم کمیونٹی کی ہدایات کی خلاف ورزیوں کی ایک وسیع تر رینج کی شناخت کر کے ان کا نفاذ کر سکیں ہم نے اس ڈیٹا کو عالمی اور ملکی سطح پر اس رپورٹ میں شامل کیا ہے اور آئیندہ بھی ایسا کرتے رہیں گے۔ ہم نے اپنی گزشتہ رپورٹس میں ایک لیبلنگ کے نقص کو بھی درست کیا ہے: جہاں ہم نے پہلے "مجموعی مواد کا نفاذ" کا ذکر کیا تھا، اب ہم "مجموعی نفاذ" کا ذکر کرتے ہیں تاکہ یہ بات واضح ہو سکے کہ متعلقہ کالموں میں فراہم کردہ ڈیٹا میں مواد کی سطح اور اکاؤنٹ کی سطح دونوں کے نفاذ شامل ہیں۔

ہماری آن لائن ممکنہ نقصانات کے خلاف اقدامات کرنے والی پالیسیوں اور رپورٹنگ کے طریقوں کو مزید بہتر بنانے کے ہمارے منصوبوں کے بارے میں مزید معلومات کے لیے، براہ کرم اس شفافیت کی رپورٹ پر ہماری حالیہ سیفٹی اور امپیکٹ بلاگ پڑھیں۔ Snapchat پر اضافی حفاظتی اور پرائیویسی وسائل تلاش کرنے کے لیے، براہ کرم صفحے کے نیچے موجود شفافیت کی رپورٹنگ کے بارے میں ہمارا ٹیب دیکھیں۔

براہ کرم نوٹ کریں کہ اس شفافیت کی رپورٹ کا سب سے حالیہ ترین ورژن EN-US لوکیل میں دستیاب ہے۔

ہماری کمیونٹی کی ہدایات کو نافذ کرنے کے لیے ہماری ٹرسٹ اور سیفٹی ٹیموں کے اقدامات کا جائزہ

ہماری ٹرسٹ اور سیفٹی ٹیمیں ہماری کمیونٹی کی ہدایات کو دونوں طرح سے نافذ کرتی ہیں: پہلے سے اقدامات کے طور پر (خودکار ٹولز کی مدد سے) اور جوابی طور پر (رپورٹس کے جواب میں)، جیسا کہ اس رپورٹ کے آئندہ حصوں میں تفصیل سے بتایا گیا ہے۔ اس رپورٹنگ سائیکل (H1 2024) میں، ہماری ٹرسٹ اور سیفٹی ٹیموں نے جو نفاذ کے لیے اقدامات اٹھائے، وہ درج ذیل ہیں:

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔ رپورٹ کے مواد کو نافذ کرنے کے لئے اوسط ٹرن اراؤنڈ وقت تقریباً 10 منٹ تھا۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔ رپورٹ کے مواد کو نافذ کرنے کے لئے اوسط ٹرن اراؤنڈ وقت تقریباً 10 منٹ تھا۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔ رپورٹ کے مواد کو نافذ کرنے کے لئے اوسط ٹرن اراؤنڈ وقت تقریباً 10 منٹ تھا۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا تجزیہ

ہماری مجموعی رپورٹنگ اور نافذ کرنے والے کی شرح گزشتہ چھ ماہ کے لیے بالکل اسی طرح رہی۔ اس سائیکل، ہم نے کل مواد اکاؤنٹ کی رپورٹوں میں تقریبا 10 فیصد اضافہ دیکھا تھا۔

اسرائیل-حماس کے تنازع کا آغاز اس عرصے کے دوران ہوا اور اس کے نتیجے میں ہم نے پرتشدد مواد میں ایک اضافہ دیکھا۔ نفرت انگیز تقریر سے متعلق کل رپورٹس میں 61 فیصد اضافہ ہوا ، جبکہ نفرت انگیز تقریر کے کل مواد کے نفاذ کی تعداد میں ~ 97 فیصد اور اکاؤنٹ کے منفرد نفاذ کے ذریعے 124 فیصد تک اضافہ ہوا تھا۔ دہشت گردی اور پرتشدد انتہا پسندی کی رپورٹس اور نفاذ میں بھی اضافہ ہوا ہے، حالانکہ وہ ہمارے پلیٹ فارم پر کل مواد کے نفاذ کے >0.1 فیصد پر مشتمل ہیں۔ ہماری ٹرسٹ اور سیفٹی ٹیمیں مسلسل چوکس رہتی ہیں کیونکہ Snapchat کو محفوظ رکھنے میں مدد کے لیے عالمی تنازعات پیدا ہوتے ہیں۔ ہم نے اپنی شفافیت کی رپورٹ کو بھی وسیع کیا ہے تاکہ ہماری دہشت گردی اور پرتشدد انتہا پسندی کی پالیسی کی خلاف ورزیوں کے لیے نافذ کردہ کل رپورٹس، نافذ کردہ مواد، اور منفرد اکاؤنٹس کے حوالے سے عالمی اور ملکی سطح پر مزید معلومات شامل کی جائیں۔

مواد اور اکاؤنٹ کی خلاف ورزیوں کا جائزہ

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔

1 جولائی سے 31 دسمبر 2023 تک، Snap نے عالمی سطح پر مواد کے 5,376,714 ٹکڑوں کے خلاف نفاذ کیا جن کی ہمیں اطلاع دی گئی اور ہماری کمیونٹی گائیڈلائنز کی خلاف ورزی کی گئی۔ رپورٹ کے مواد کو نافذ کرنے کے لئے اوسط ٹرن اراؤنڈ وقت تقریباً 10 منٹ تھا۔

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کے جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔

ہم فعال ٹیکنالوجی سے معروف غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کرنے والے ٹولز، جیسے PhotoDNA کا مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصویری میچ (CSAI) کا استعمال کرتے ہیں اور انکی اطلا‏ع یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔

2023 کے دوسرے نصف میں، ہم نے بچوں کے جنسی استحصال اور زیادتی کی خلاف ورزیوں کا 59 فیصد حصہ فعال طور پر پتہ چلا اور عمل کیا تھا۔ یہ Snapchat Snapchat پر بھیجے گئے ممکنہ CSEA کی نمائش میں اضافے کی وجہ سے پچھلی مدت سے 39 فیصد کل کمی کو ظاہر کرتا ہے، اس سے Snapchat پر بھیجی جانے والے ممکنہ CSEA کی نمائش میں اضافہ ہوتا ہے۔ 

*نوٹ کریں کہ NCMEC پر ہر جمع بندی میں مواد کے متعدد ٹکڑے ہوسکتے ہیں۔ NCMEC کو جمع کرائے گئے میڈیا کے کل انفرادی ٹکڑے ہمارے نافذ کردہ کُل مواد کے برابر ہیں۔ ہم نے اس نمبر سے NCMEC کو بھی بے حد گذارشات خارج کر دیا ہے۔

خود کو نقصان پہنچانے اور خودکشی کرنے والا مواد

ہمیں Snapchatters کی ذہنی صحت اور بہبود کا بہت خیال ہے، جو Snapchat کو مختلف طریقے سے بنانے کے ہمارے فیصلوں سے آگاہ کرتا رہتا ہے۔ ایک پلیٹ فارم کے طور پر جو حقیقی دوستوں کے درمیان اور ان کے درمیان مواصلت کے لیے ڈیزائن کیا گیا ہے، ہمیں یقین ہے کہ Snapchat دوستوں کو مشکل میں ایک دوسرے کی مدد کرنے کے لیے بااختیار بنانے میں منفرد کردار ادا کر سکتا ہے۔

جب ہماری ٹرسٹ اور سیفٹی ٹیم تکلیف میں Snapchat کے بارے میں آگاہ ہو جاتی ہے، تو وہ خود کو نقصان پہنچانے سپورٹ وسائل کو آگے بڑھا سکتے ہیں، اور جب مناسب ہو ہنگامی ردعمل کے اہلکاروں کو مطلع کر سکتے ہیں۔ ہم جن وسائل کو شیئر کرتے ہیں وہ ہماری حفاظتی وسائل کی عالمی فہرست میں دستیاب ہیں، اور یہ تمام Snapchatters کے لیے عوامی طور پر دستیاب ہیں۔

اپیلیں

ہماری اطلاع دیں کہ ہم نے اپیلوں پر میٹرکس اعداد و شمار متعارف کرایا۔ جہاں ہم نے اوقات صارفین کی تعداد کو اجاگر کیا کہ ہم اکاؤنٹ کے خلاف اپنے ابتدائی اعتدال کا فیصلہ دوبارہ جائزہ لینے کے لیے ہم سے کہا تھا۔ اطلاع دیں کہ ہم نے اکاؤنٹ کی سطح کی خلاف ورزیوں کے لئے اپنی پالیسی کی اقسام کی مکمل رینج کیپچر کو بڑھانے کے لیے اپنی اپیلوں کو بڑھایا ہے۔

* بچوں کے جنسی استحصال سے متعلق مواد یا سرگرمی کے پھیلاؤ کو روکنا ٹاپ ترجیح ہے۔ Snap اس مقصد پر بہت زیادہ وسائل مختص کرتا ہے اور اس طرح کے رویے کے لئے کوئ رواداری نہیں رکھتا ہے۔ CSE اپیلوں کا جائزہ لینے کے لئے خصوصی تربیت کی ضرورت ہے، اور اس مواد کی گرافک نوعیت کی وجہ سے ان تجاویز کا جائزہ لینے والے ایجنٹس کی ٹیم بھی محدود ہے۔ 2023 کے موسم خزاں کے دوران، Snap نے پالیسی میں تبدیلیاں نافذ کیں جن سے CSE کے بعض نفاذ کی استواری متاثر ہوئی، اور ہم نے ان عدم تسلسل کو ایجنٹوں کی دوبارہ تربیت اور سخت معیار کی یقین دہانی کے ذریعے درست کیا ہے۔ ہم امید کرتے ہیں کہ اگلی شفافیت کی رپورٹ CSE اپیلوں کے ردعمل کے اوقات کو بہتر بنانے اور ابتدائی نفاذ کی درستگی کو بہتر بنانے کی طرف پیش رفت کا انکشاف کرے گی۔

علاقائی اور ملک کا جائزہ

یہ سیکشن ہماری کمیونٹی کی ہدایات کو نافذ کرنے کے لیے ہماری ٹرسٹ اور سیفٹی ٹیموں کی کارروائیوں کا ایک جائزہ فراہم کرتا ہے، دونوں طرح سے، جغرافیائی علاقوں کے نمونے لینے میں، خلاف ورزیوں کی درون ایپ رپورٹس کے جواب میں۔
ہماری کمیونٹی کی ہدایات — Snapchat اور دنیا بھر میں موجود تمام سنیپ چیٹرز
— پر، بنا کسی جغرافیائی حد کے، موجود تمام مواد پر لاگو ہوتی ہیں۔

انفرادی ممالک کی معلومات، جن میں تمام یورپی یونین EU کے رکن ممالک شامل ہیں، منسلک CSV فائل کے ذریعے ڈاؤن لوڈ کی جا سکتی ہیں۔

ہماری کمیونٹی کی ہدایات کو نافذ کرنے کے لیے ہماری ٹرسٹ اور سیفٹی ٹیموں کے اقدامات کا جائزہ

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کے جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔

ہم فعال ٹیکنالوجی سے معروف غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کرنے والے ٹولز، جیسے PhotoDNA کا مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصویری میچ (CSAI) کا استعمال کرتے ہیں اور انکی اطلا‏ع یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔

2023 کے دوسرے نصف میں، ہم نے بچوں کے جنسی استحصال اور زیادتی کی خلاف ورزیوں کا 59 فیصد حصہ فعال طور پر پتہ چلا اور عمل کیا تھا۔ یہ Snapchat Snapchat پر بھیجے گئے ممکنہ CSEA کی نمائش میں اضافے کی وجہ سے پچھلی مدت سے 39 فیصد کل کمی کو ظاہر کرتا ہے، اس سے Snapchat پر بھیجی جانے والے ممکنہ CSEA کی نمائش میں اضافہ ہوتا ہے۔ 

بچوں کے جنسی استحصال اور زیادتی کا مقابلہ کرنا 

ہماری کمیونٹی کے کسی بھی فرد، خاص کر نابالغوں کے جنسی استحصال کو غیر قانونی، گھناؤنا، اور ہماری کمیونٹی کی ہدایات کے مطابق ممنوع قرار دیا گیا ہے۔ ہمارے پلیٹ فارم پر بچوں کے جنسی استحصال اور بدسلوکی کی تصویر کشی (CSEAI) کو روکنا، ان کا پتہ لگانا اور اسے ختم کرنا ہمارے لیے اولین ترجیح ہے، اور ہم ان جیسے اور دیگر اقسام کے جرائم کا مقابلہ کرنے کے لیے اپنی صلاحیتوں کو مسلسل ابھارتے ہیں۔

ہم فعال ٹیکنالوجی سے معروف غیر قانونی تصاویر اور بچوں کے جنسی استحصال کی ویڈیوز کی شناخت کرنے والے ٹولز، جیسے PhotoDNA کا مضبوط ہیش میچنگ اور Google کے بچوں کے جنسی استحصال کی تصویری میچ (CSAI) کا استعمال کرتے ہیں اور انکی اطلا‏ع یو ایس نیشنل سینٹر فار مسنگ اینڈ ایکسپلوٹڈ چلڈرن (NCMEC) کو دیتے ہیں، جیسا کہ قانون کی ضرورت ہے۔ NCMEC پھر، بدلے میں، ضرورت کے مطابق، ملکی یا بین الاقوامی قانون نافذ کرنے والے اداروں کے ساتھ تعاون کرتا ہے۔

2023 کے دوسرے نصف میں، ہم نے بچوں کے جنسی استحصال اور زیادتی کی خلاف ورزیوں کا 59 فیصد حصہ فعال طور پر پتہ چلا اور عمل کیا تھا۔ یہ Snapchat Snapchat پر بھیجے گئے ممکنہ CSEA کی نمائش میں اضافے کی وجہ سے پچھلی مدت سے 39 فیصد کل کمی کو ظاہر کرتا ہے، اس سے Snapchat پر بھیجی جانے والے ممکنہ CSEA کی نمائش میں اضافہ ہوتا ہے۔ 

اشتہارات کی ماڈریشن

Snap یہ یقینی بنانے کے لئے پرعزم ہے کہ تمام اشتہارات ہماری تشہیری پالیسیوں سے مکمل طور پر مطابق ہیں۔ ہم اپنے تمام صارفین کے لیے ایک محفوظ اور پرلطف تجربہ تخلیق کرتے ہوئے تشہیر کاری کے لیے ایک ذمہ دار اور باعزت طریقے پر یقین رکھتے ہیں۔ ذیل میںہم نے Snapchat پر بامعاوضہ اشتہارات کے لیے اپنے اعتدال کی بصیرت شامل کی ہے۔ نوٹ کریں کہ Snapchat پر اشتہارات کو مختلف وجوہات کی بنا پر ہٹایا جا سکتا ہے جیسا کہ Snap کی تشہیری پالیسیوں میں بیان کیا گیا ہے، بشمول فریب آمیز مواد، بالغوں کا مواد، پرتشدد یا پریشان کن مواد، نفرت انگیز تقریر، اور املاکِ دانش کی خلاف ورزی۔ مزید برآں، اب آپ شفافیت کی اس رپورٹ کے نیویگیشن بار میں Snapchat کے اشتہارات کی گیلری تلاش کر سکتے ہیں۔