انتخابی سالمیت پر سول سوسائٹی گروپس کے ساتھ ہمارے ردعمل کا اشتراک کرنا

22 اپریل 2024

اس مہینے کے شروع میں، دیگر بڑی ٹیک کمپنیوں کے ساتھ، سول سوسائٹی کی 200 سے زائد تنظیموں، محققین اور صحافیوں کی جانب سے ایک خط موصول ہوا ہے جس میں ہم پر زور دیا گیا ہے کہ ہم 2024 میں انتخابات کی سالمیت کے تحفظ کے لیے اپنی کوششوں میں اضافہ کریں۔ ہم ان کی وکالت کو سراہتے ہیں اور اس بات کو یقینی بنانے کے لئے ان کے عزم کا اشتراک کرتے ہیں کہ دنیا بھر کے لوگ ان کے انتخابات میں حصہ لے سکیں، جبکہ ہم اپنی جمہوریت کے تحفظ کے لئے ہر ممکن کوشش کر رہے ہیں۔

ان مسائل کی اہمیت کو دیکھتے ہوئے، اور وہ بڑی ذمہ داری جو ہم ان لاکھوں لوگوں کے لیے محسوس کرتے ہیں جو Snapchat کو اپنے دوستوں اور خاندان والوں کے ساتھ بات چیت کرنے کے لئے استعمال کرتے ہیں اور ہمارے مواد کے ذریعے دنیا کے بارے میں مزید معلومات حاصل کرتے ہیں، ہم نے محسوس کیا کہ اپنے ردعمل کو عوامی طور پر جاری کرنا ضروری تھا۔ آپ ذیل میں ہمارے خط کو پڑھ سکتے ہیں، اور یہاںاس سال کے انتخابات کے لیے ہمارے منصوبوں کے بارے میں مزید جان سکتے ہیں۔

***

21 اپریل 2024

محترم سول سوسائٹی کی تنظیمیں:

دنیا بھر میں بے مثال انتخابی سرگرمی کے اس سال میں آپ کی مسلسل نگرانی اور وکالت کے لئے آپ کا شکریہ۔ ہم اس بارے میں مزید اشتراک کرنے کے موقع کے لئے شکر گزار ہیں کہ Snap اس ماحول میں ہماری ذمہ داریوں کو کس طرح ادا کر رہا ہے، اور یہ کوششیں ہماری کمپنی کی دیرینہ اقدار سے کیسے مطابقت رکھتی ہیں۔

Snapchat کے نقطہ نظر کا جائزہ

الیکشن سے متعلق پلیٹ فارم کی سالمیت کے بارے میں ہمارا نقطہ نظر سطحی ہے۔ ایک اعلی سطح پر، بنیادی عناصر میں شامل ہیں:

  • دانستہ مصنوعات کی حفاظتی تدابیر؛

  • واضح اور تدبرور پالیسیاں؛

  • سیاسی اشتہارات کے لئے سرگرم نقطہ نظر؛

  • باہمی تعاون، مربوط آپریشن؛ اور

  • سنیپ چیٹرز
    کو بااختیار بنانے کے لئے ٹولز اور وسائل پیش کرنا۔


ان سب کو ملا کر دیکھا جائے تو یہ سب ستون انتخابات سے متعلق خطرات کی ایک وسیع حد کو کم کرنے کے ہمارے نقطہ نظر کو تقویت دیتے ہیں، جبکہ اس بات کو بھی یقینی بنایا جاتا ہے کہ سنیپ چیٹرز کو ایسے ٹولز اور معلومات تک رسائی حاصل ہو جو دنیا بھر میں جمہوری عمل میں شرکت کی حمایت کرتے ہیں۔

1- دانستہ مصنوعات کی حفاظتی تدابیر

شروع سے ہی، Snapchat کو دیگر روایتی سوشل میڈیا سے مختلف طریقے سے بنایا گیا تھا۔ Snapchat لامتناہی، غیر تصدیق شدہ مواد کے اندراج کے لئے نہیں ہے، اور یہ لوگوں کو براہ راست اسٹریم کرنے کی اجازت بھی نہیں دیتا ہے۔

ہم ہمیشہ سے یہ جانتے ہیں کہ نقصان دہ ڈیجیٹل غلط معلومات سے سب سے بڑا خطرہ اس رفتار اور پیمانے سے پیدا ہوتا ہے جس پر کچھ ڈیجیٹل پلیٹ فارم اسے پھیلانے کے قابل بناتے ہیں۔ ہمارے پلیٹ فارم کی پالیسیاں اور ساخت غیر تصدیق شدہ یا غیر ماڈریٹ مواد کے مواقع کو محدود کرتے ہیں تاکہ بامعنی پیمانے کو بلا روک ٹوک حاصل کیا جاسکے۔ اس کے بجائے، ہم مواد کو پہلے سے ماڈریٹ کرتے ہیں اس سے پہلے کہ اسے بڑے سامعین تک پہنچایا جا سکے، اور خبروں اور سیاسی معلومات کی تقسیم کو وسیع پیمانے پر محدود کرتے ہیں جب تک کہ یہ قابل اعتماد پبلشرز اور تخلیق کاروں کی طرف سے نہ آئے (مثال کے طور پر امریکہ میں وال اسٹریٹ جرنل اور واشنگٹن پوسٹ، فرانس میں لی مونڈے اور انڈیا میں ٹائمز ناؤ جیسے میڈیا ادارے شامل ہیں)۔

گزشتہ ایک سال کے دوران، Snapchat پر جنریٹو AI خصوصیات کا اضافہ بھی اسی مقصد کے ساتھ کیا گیا ہے۔ ہم اپنی AI کی مصنوعات کی صلاحیتوں کو محدود کرتے ہیں تاکہ کوئی بھی ایسا مواد یا تصاویر تیارنہ کرسکے جس کو شہری عمل کو کمزور کرنے یا رائے دہندگان کو دھوکہ دینے کے لئے استعمال کیا جاسکتا ہے۔ ہمارے چیٹ بوٹ، My AI، مثال کے طور پر، سیاسی واقعات یا سماجی مسائل کے تناظر کے بارے میں معلومات فراہم کر سکتے ہیں؛ یہ سیاسی امیدواروں کے بارے میں رائے پیش کرنے یا سنیپ چیٹرز کو کسی خاص نتیجے کے لئے ووٹ دینے کی ترغیب دینے کے لئے نہیں بنایا گیا ہے۔ اور ہماری متن سے تصویر تک والی خصوصیات میں، ہم نے خطرناک مواد کی اقسام کی تخلیق پر نظام کی سطح پر پابندیوں کو اپنایا ہے ، جس میں معروف سیاسی شخصیات کی مماثلت بھی شامل ہے۔ 

اب ایک دہائی سے زیادہ عرصے سے، اور متعدد انتخابی دورانیے میں، ہماری مصنوعات کی ساخت نے شہری عمل میں خلل ڈالنے یا معلوماتی ماحول کو کمزور کرنے کے لئے کام کرنے والوں کے لئے انتہائی ناسازگار ماحول پیدا کرنے میں مرکزی کردار ادا کیا ہے۔ اور شواہد سے پتہ چلتا ہے کہ یہ اچھی طرح سے کام کر رہا ہے۔ ہمارے تازہ ترین اعداد و شمار سے پتہ چلتا ہے کہ یکم جنوری سے 30 جون، 2023 تک، نقصان دہ غلط معلومات (بشمول انتخابی سالمیت کو لاحق خطرات) کے لئے عالمی سطح پر نافذ کرنے والوں کی کل تعداد نافذ کردہ کل مواد کا 0.0038٪ کی نمائندگی کرتی ہے، ہمارے پلیٹ فارم پر نقصان کے سب سے کم امکان والے زمروں میں آتا ہے۔

ہم 2024 میں اپنے پلیٹ فارم کی سالمیت کی کوششوں کے لئے مصنوعات کو مددگار انداز میں لے کر کام کرنا جاری رکھیں گے، جس میں 2024 کے انتخابات میں AI کے گمراہ کن استعمال کا مقابلہ کرنے کے لئے Tech Accord معاہدے پردستخط کنندگان کے طور پر شامل ہونا ہمارے معاہدے میں شامل ہیں۔

2- واضح اور تدبرور پالیسیاں

ہماری مصنوعات کے تحفظ کی تکمیل کے لئے، ہم نے متعدد پالیسیاں نافذ کی ہیں جو انتخابات جیسے ہائی پروفائل واقعات کے تناظر میں حفاظت اور سالمیت کو آگے بڑھانے کے لئے کام کرتی ہیں۔ ہماری کمیونٹی کی ہدایات واضح طور پر منع کرتی ہیں، مثال کے طور پر، نقصان دہ غلط معلومات، نفرت انگیز تقریر، اور دھمکیاں یا تشدد کی دعوت دینا۔ 

انتخابات کے سلسلے میں نقصان دہ مواد کے موضوع پر، ہماری بیرونی پالیسیاں سخت ہیں اور معلومات کی سالمیت کے شعبے کے ماہرین کی طرف سے مستند ہیں۔ وہ نقصان دہ مواد کی مخصوص اقسام کی وضاحت کرتے ہیں جو ممنوع ہیں، بشمول:

  • طریقہ کار میں مداخلت: حقیقی انتخابات یا شہری طریقہ کار سے متعلق غلط معلومات، جیسے اہم تاریخوں اور اوقات کو غلط انداز میں پیش کرنا یا شرکت کے لئے اہلیت کے تقاضے؛

  • شرکت میں مداخلت: ایسا مواد س میں ذاتی حفاظت کے لیے دھمکیاں شامل ہوں یا انتخابی یا شہری عمل میں شرکت کو روکنے کے لیے افواہیں پھیلائے۔

  • دھوکہ دہی یا غیر قانونی شرکت: ایسا مواد جو لوگوں کو شہری عمل میں حصہ لینے یا غیر قانونی طور پر ووٹ ڈالنے یا ضائع کرنے کے لئے خود کو غلط طریقے سے پیش کرنے کی ترغیب دیتا ہو؛ اور

  • شہری عمل کو غیر قانونی قرار دینا: انتخابی نتائج کے بارے میں جھوٹے یا گمراہ کن دعووں کی بنیاد پر جمہوری اداروں کو غیر قانونی قرار دینے کا مقصد رکھنے والا مواد، مثال کے طور پر۔

نیوز پر واپسی
1 یہ بات قابل غور ہے کہ Snapchat پر AI سے تیار کردہ یا AI سے بھرپور مواد کا اشتراک کرنا ہماری پالیسیوں کے خلاف نہیں ہے، اور یقینی طور پر کوئی ایسی چیز نہیں ہے جسے ہم فطری طور پر نقصان دہ سمجھتے ہیں۔ اب کئی سالوں سے، سنیپ چیٹرز موجودہ لینزز اور دیگر AR تجربات کے ساتھ تصاویر کو تبدیل کرکے خوشی محسوس کرتے ہیں، اور ہم ان طریقوں کے بارے میں پرجوش ہیں جن سے ہماری کمیونٹی خود کو تخلیقی طور پر اظہار کرنے کے لئے AI کا استعمال کرسکتی ہے۔ اگر، تاہم، مواد گمراہ کن (یا بصورت دیگر نقصان دہ) ہے، ہم یقینا اسے ہٹا دیں گے، اس سے قطع نظر کہ AI کی ٹیکنالوجی نے اس کی تخلیق میں کس حد تک کردار ادا کیا ہے۔