25 أبريل 2024
29 أغسطس 2024
مرحبًا بكم في صفحة الشفافية الخاصة بالاتحاد الأوروبي (EU)، حيث ننشر معلومات خاصة بالاتحاد الأوروبي مطلوبة بموجب قانون الخدمات الرقمية (DSA) وتعليمات خدمات الوسائط المسموعة والمرئية (AVMSD) وقانون الإعلام الهولندي (DMA) وتنظيم المحتوى الإرهابي عبر الإنترنت (TCO). يُرجى ملاحظة أن أحدث إصدار من تقارير الشفافية هذه يمكن العثور عليه باللغة الإنجليزية (en-US).
لقد عيّنت Snap Group Limited شركة Snap B.V كممثل قانوني لها لأغراض قانون الخدمات الرقمية (DSA). ويُمكنك التواصل مع المندوب على dsa-enquiries@snapchat.com بشأن قانون الخدمات الرقمية (DSA) وعلى vsp-enquiries@snapchat.com من أجل تعليمات خدمات الوسائط المسموعة والمرئية (AVMSD) وقانون الإعلام الهولندي (DMA) ، وعلى tco-enquiries@snapchat.com من أجل المحتوى الإرهابي عبر الإنترنت، خلال موقع الدعم الخاص بنا [هنا]، أو على:
Snap B.V.
كيزرزجراشت 165، 1016 دي بي
أمستردام، هولندا
إذا كنت وكالة إنفاذ لقانون، فيُرجى اتباع الخطوات الموضّحة هنا.
يُرجى التواصل باللغة الإنجليزية أو الهولندية عند الاتصال بنا.
بالنسبة إلى قانون الخدمات الرقمية DSA، فإننا نخضع لتنظيم المفوضية الأوروبية والهيئة الهولندية للمستهلكين والأسواق (ACM). وبالنسبة إلى تعليمات خدمات الوسائط المسموعة والمرئية (AVMSD) وقانون الإعلام الهولندي (DMA) ، فإننا نخضع لهيئة الإعلام الهولندية (CvdM). وبالنسبة إلى المحتوى الإرهابي عبر الإنترنت TCO، فإننا نخضع للهيئة الهولندية لمنع المحتوى الإرهابي عبر الإنترنت ومواد الاعتداء الجنسي على الأطفال (ATKM).
إن شركة سناب مطالبة بموجب المواد 15 و24 و42 من قانون الخدمات الرقمية (DSA) بنشر التقارير التي تحتوي على معلومات محددة فيما يتعلق بإدارة محتوى شركة سناب لخدمات سناب شات التي تعتبر "منصات على الإنترنت"، مثل منصّة الأضواء، وFor You، والملفات التعريفية العامة، والخرائط، وعدسات Lens والإعلانات. ويجب نشر هذا التقرير كل 6 أشهر، اعتبارًا من 25 أكتوبر 2023.
تنشر شركة سناب تقارير الشفافية مرتين في السنة لتقديم نظرة ثاقبة على جهود السلامة لدى شركة سناب وطبيعة وحجم المحتوى الذي تم الإبلاغ عنه على منصتنا. ويمكن العثور على أحدث تقرير لنا للنصف الثاني من عام 2023 (1 يوليو - 31 ديسمبر) هنا (مع تحديثات لمتوسط أرقام المستلمين النشطين شهريًا اعتبارًا من 1 أغسطس 2024 - انظر أسفل هذه الصفحة). كما يمكن العثور على المقاييس الخاصة بقانون الخدمات الرقمية في هذه الصفحة.
في 31 ديسمبر 2023، يوجد لدينا 90.9 مليون مستلم نشط شهريًا في المتوسط ("AMAR") لتطبيق سناب شات في الاتحاد الأوروبي. وهذا يعني أنّه على مدار الأشهر الستة الماضية، فتح في المتوسط 90.9 مليون مستخدم مسجّل في الاتحاد الأوروبي تطبيق سناب شات مرة واحدة على الأقل خلال شهر معين.
هذا الرقم مفصّل حسب الدول الأعضاء على النحو التالي:
لقد تم حساب هذه الأرقام لتلبية قواعد قانون الخدمات الرقمية الحالية ولا ينبغي الاعتماد عليها إلا لأغراض قانون الخدمات الرقمية DSA. وقد غيرنا طريقة حساب هذا الرقم بمرور الوقت، بما في ذلك استجابة لتغيير السياسة الداخلية وإرشادات الجهات التنظيمية والتكنولوجيا، وليس من المقصود مقارنة الأرقام بين الفترات. وقد يختلف هذا أيضًا عن الحسابات المستخدمة لأرقام المستخدمين النشطين الأخرى التي ننشرها لأغراض أخرى.
طلبات الإزالة
خلال هذه الفترة، تلقينا 0 طلبات إزالة من الدول الأعضاء في الاتحاد الأوروبي عملاً بالمادة 9 من قانون الخدمات الرقمية.
طلبات المعلومات
في هذه الفترة، تلقينا الطلبات التالية من الدول الأعضاء في الاتحاد الأوروبي للحصول على معلومات:
يبلغ متوسط وقت الاستجابة لإبلاغ السلطات باستلام طلبات المعلومات 0 دقيقة - حيث نُرسل ردًا تلقائيًا لتأكيد الاستلام. يبلغ متوسط وقت الاستجابة لإنفاذ طلبات المعلومات حوالي 10 أيام. يُعكس هذا المقياس الفترة الزمنية بداية من تلقي سناب لطلب معلومات وحتى اعتقاد سناب بأن الطلب قد تم حله بالكامل. وفي بعض الحالات، يعتمد طول هذه العملية جزئيًا على سرعة استجابة جهات إنفاذ القانون لأي طلبات توضيح من طرف سناب تكون ضرورية لمعالجة طلبهم.
يجب أن يلتزم كل محتوى على سناب شات بتعليمات التواصل الاجتماعي و شروط الخدمة، بالإضافة إلى الشروط والتعليمات والشروح الداعمة. آليات الكشف الاستباقية وتقارير المحتوى أو الحسابات غير القانونية أو المنتهكة تستدعي إجراء مراجعة، وعند هذه النقطة، تقوم أنظمة الأدوات لدينا بمعالجة الطلب وجمع البيانات الوصفية ذات الصلة، وتوجيه المحتوى ذي الصلة إلى فريق الإشراف لدينا عبر واجهة مستخدم منظمة تم تصميمها لتسهيل عمليات المراجعة الفعالة والكفؤة. عندما تقرر فرق الإشراف لدينا، إما من خلال المراجعة البشرية أو الوسائل الآلية، أن المستخدم قد انتهك شروطنا، فقد نزيل المحتوى أو الحساب المسيء، وننهي أو نحد من رؤية الحساب ذي الصلة، و/أو نبلغ سلطات إنفاذ القانون كما هو موضح في شرح الإشراف والإنفاذ والاستئناف على سناب شات. يمكن للمستخدمين الذين تم إغلاق حساباتهم من قبل فريق السلامة لدينا بسبب انتهاكات تعليمات التواصل الاجتماعي تقديم تظلّم على حساب مغلق، ويمكن للمستخدمين تقديم تظلم على إجراءات متخذة ضد محتوى معين.
إشعارات المحتوى والحساب (المادة 15.1 (ب) من قانون الخدمات الرقمية)
وضعت سناب آليات تجعل المستخدمين وغير المستخدمين قادرين على إخطار سناب بالمحتوى والحسابات التي تنتهك تعليمات التواصل الاجتماعي وشروط الخدمة على المنصة، بما في ذلك تلك التي تعتبرها غير قانونية وفقًا للمادة 16 من قانون الخدمات الرقمية. تتوفر آليات الإبلاغ هذه داخل التطبيق نفسه (أي مباشرةً من المحتوى) وعلى موقعنا الإلكتروني.
وخلال الفترة ذات الصلة، تلقينا إشعارات المحتويات والحسابات التالية في الاتحاد الأوروبي:
في النصف الثاني من عام 2023، تعاملنا مع 664,896 إشعارًا من خلال الوسائل الآلية فقط. وقد تم فرض كل هذه الإجراءات وفق تعليمات التواصل الاجتماعي لأن تعليمات التواصل الاجتماعي تُغطي المحتوى غير القانوني.
بالإضافة إلى المحتويات والحسابات التي ينشئها المستخدمون، نُعدل الإعلانات إذا كانت تنتهك سياسات منصتنا. فيما يلي إجمالي الإعلانات التي تم الإبلاغ عنها وإزالتها في الاتحاد الأوروبي.
إشعارات "المُخبرين الموثوقين" (المادة 15.1 (ب))
وخلال الفترة التي يُغطيها أحدث تقرير شفافية (النصف الثاني من عام 2023)، لم يكن هناك أي مخبرين موثوقين تم تعيينهم رسميًا بموجب قانون الخدمات الرقمية. نتيجةً لذلك، كان عدد الإشعارات التي تم تقديمها من قِبل المخبرين الموثوقين هؤلاء صفرًا (0) خلال هذه الفترة.
الإشراف الاستباقي على المحتوى (المادة 15.1 (ج))
وخلال الفترة ذات الصلة، فرضت سناب المحتويات والحسابات التالية في الاتحاد الأوروبي بعد إشراك الإشراف على المحتوى بمبادرة خاصة بها:
تستخدم جميع جهود الإشراف ضمن مبادرة سناب الخاصة كلاً من الجهود البشرية أو الأتمتة. على منصات المحتوى العامة الخاصة بنا، يمر المحتوى عمومًا من خلال الإشراف التلقائي والمراجعة البشرية قبل أن يكون مؤهلاً للتوزيع على جمهور واسع. فيما يتعلق بالأدوات الآلية، تتضمّن هذه:
الكشف الاستباقي عن المحتوى غير القانوني والمخالف باستخدام التعلم الآلي؛
أدوات مطابقة التجزئة (مثل PhotoDNA ومطابقة CSAI Match من Google)؛
اكتشاف اللغة المسيئة لرفض المحتوى بناءً على قائمة محددة ومحدثة بانتظام من الكلمات الرئيسية المسيئة، بما في ذلك emojis
الاستئنافات (المادة 15.1 (د))
وخلال الفترة ذات الصلة، عالجت سناب استئنافات المحتويات والحسابات التالية في الاتحاد الأوروبي من خلال أنظمة التعامل مع الشكاوى الداخلية:
* يُعد وقف الاستغلال الجنسي للأطفال أولوية قصوى. وتكرّس شركة سناب موارد كبيرة لهذا الغرض ولا تتسامح مطلقًا مع هذا السلوك. يلزم تدريب خاص لمراجعة الطعون على الاستغلال الجنسي للأطفال (CSE)، وهناك فريق محدود من الوكلاء الذين يتعاملون مع هذه المراجعات بسبب الطبيعة الرسومية للمحتوى. خلال خريف عام 2023، نفذّت شركة سناب تغييرات في السياسة أثرت على اتساق بعض عمليات إنفاذ قانون مكافحة الاستغلال الجنسي على الأطفال (CSE)، وعالجنا هذه التناقضات من خلال إعادة تدريب الوكيل وضمان الجودة الصارمة. ونتوقع أن يكشف تقرير الشفافية التالي عن التقدم المحرز نحو تحسين أوقات الاستجابة لطعون الاستغلال الجنسي للأطفال (CSE) وتحسين دقّة عمليات التنفيذ الأولية.
الوسائل الٱلية للإشراف على المحتوى (البند 15.1(هـ))
على منصات المحتوى العامة الخاصة بنا، يمر المحتوى عمومًا من خلال الإشراف التلقائي والمراجعة البشرية قبل أن يكون مؤهلاً للتوزيع على جمهور واسع. فيما يتعلق بالأدوات الآلية، تتضمّن هذه:
الكشف الاستباقي عن المحتوى غير القانوني والمخالف باستخدام التعلم الآلي؛
أدوات مطابقة التجزئة (مثل PhotoDNA ومطابقة صور الاعتداء الجنسي على الأطفال CSAI من Google)؛
اكتشاف اللغة المسيئة لرفض المحتوى بناءً على قائمة محددة ومحدثة بانتظام من الكلمات الرئيسية المسيئة، بما في ذلك emojis.
بلغت دقة تقنيات الإشراف الآلي لجميع الأضرار 96.61% تقريبًا، وكان معدل الخطأ حوالي 3.39%.
إننا ندرك أن هناك مخاطر مرتبطة بإدارة المحتوى، بما في ذلك المخاطر التي تتعرض لها حريات التعبير وعلى النحو الذي قد يكون ناجمًا عن تحيز المشرف الآلي والبشري والتقارير المسيئة، بما في ذلك تلك التقارير من قِبل الحكومات أو الدوائر السياسية أو الأفراد المنظمين جيدًا. ولا يُعد سناب شات مكانًا للمحتوى السياسي أو النّشط، لا سيما في أماكننا العامة.
ومع ذلك، للحماية من هذه المخاطر، فإن شركة سناب لديها اختبار وتدريب معمول به، ولديها إجراءات قوية ومتّسقة للتعامل مع تقارير المحتوى غير القانوني أو المنتهك، بما في ذلك الواردة من سلطات إنفاذ القانون والسلطات الحكومية. إننا نقيّم ونطوّر خوارزميات الإشراف على المحتوى الخاصة بنا باستمرار. في حين أنه من الصعب اكتشاف الأضرار المحتملة لحرية التعبير، فإننا لسنا على دراية بأي قضايا مهمة ونوفر سبلاً لمستخدمينا للإبلاغ عن الأخطاء في حالة حدوثها.
تعزز سياساتنا وأنظمتنا الإنفاذ المتّسق والنّزيه، وكما هو موضّح أعلاه، تزود مستخدمي سناب شات فرصة للنزاع بشكل هادف على نتائج الإنفاذ من خلال عمليات الإشعار والطعون التي تهدف إلى حماية اهتمامات مجتمعنا مع حماية حقوق مُستخدم سناب شات الفردية.
إننا نسعى باستمرار لتحسين سياسات وعمليات الإنفاذ الخاصة بنا، وقد قطعنا خطوات كبيرة في مكافحة المحتوى والأنشطة التي قد تكون ضارة وغير قانونية على سناب شات. ويتّضح ذلك في اتجاه تصاعدي في أرقام الإبلاغ والإنفاذ الخاصة بنا الموضّحة في أحدث تقرير شفافية لدينا وكذلك في انخفاض معدلات الانتهاكات على سناب شات بشكل عام.
وخلال فترة تقرير الشفافيةالأخير لدينا (النصف الثاني من عام 2023)، لم تكن هناك هيئات معينة رسميًا لتسوية النزاعات خارج المحاكم بموجب قانون الخدمات الرقمية (DSA). نتيجةً لذلك، كان عدد النزاعات التي تم تقديمها إلى هذه الهيئات صفرًا (0) في هذه الفترة، ولم نتمكن من تقديم نتائج ومتوسط أوقات الاستجابة للتسويات، وحصة النزاعات التي نفذنا فيها قرارات الهيئة.
خلال النصف الثاني من عام 2023، لم يكن لدينا أي تعليق حساب مفروض بموجب المادة 23. ولدى فريق الثقة والسلامة في شركة سناب إجراءات معمول بها للحد من إمكانية قيام حسابات المستخدمين بتقديم إشعارات أو شكاوى لا أساس لها من الصحة بشكل متكرّر. وهذه الإجراءات تشمل تقييد إنشاء التقارير المكرّرة واستخدام مرشّحات البريد الإلكتروني لمنع المستخدمين الذين قدّموا بشكل متكرر تقارير لا صحّة لها من الاستمرار في القيام بذلك. ومع ذلك، تتّخذ شركة سناب إجراء إنفاذ مناسب ضدّ الحسابات كما هو موضح في شرح الإشراف والإنفاذ والاستئناف على سناب شات ويُمكن العثور على المعلومات المتعلقة بمستوى إنفاذ حساب سناب في تقرير الشفافية لدينا (النصف الثاني من عام 2023). وستستمر مراجعة هذه التدابير وتكرارها.
يعمل فريق الإشراف على المحتوى لدينا في جميع أنحاء العالم، مما يمكننا من المساعدة في الحفاظ على سلامة مستخدمي سناب شات على مدار الساعة طوال أيام الأسبوع. ستجد أدناه تفصيل موارد الإشراف البشري لدينا حسب التخصصات اللغوية للمشرفين (لاحظ أن بعض المشرفين متخصصون في لغات متعددة) اعتبارًا من 31 ديسمبر 2023:
يشمل الجدول أعلاه جميع المشرفين الذين يدعمون لغات الدول الأعضاء بالاتحاد الأوروبي اعتبارًا من 31 ديسمبر 2023. وفي الحالات التي نحتاج فيها إلى دعم لغوي إضافي، نستخدم خدمات الترجمة.
يتم تعيين المشرفين باستخدام وصف وظيفي قياسي يتضمّن متطلبًا لغويًا (اعتمادًا على الحاجة). وينص متطلب اللغة على أن يكون المرشّح قادرًا على إثبات إجادة اللغة كتابة وتحدّثًا وأن يكون لديه خبرة عمل لمدة عام على الأقل في وظائف مستوى المبتدئين. ويجب على المرشّحين استيفاء المتطلّبات التعليمية ومتطلّبات الخلفية حتى يتم النظر في طلبهم. كما يجب عليهم إثبات فهمهم للأحداث الحالية للبلد أو منطقة الإشراف على المحتوى الذي سيدعمونه.
يطبّق فريق الإشراف لدينا سياساتنا وتدابير الإنفاذ الخاصة بنا للمساعدة في حماية مجتمع سناب شات لدينا. يتم إجراء التدريب على مدى عدة أسابيع، حيث يتم تثقيف أعضاء الفريق الجدد حول سياسات شركة سناب وأدواتها وإجراءات التصعيد. وبعد التدريب، يجب على كل مشرف اجتياز امتحان الشهادة قبل السماح له بمراجعة المحتوى. يشارك فريق الإشراف لدينا بانتظام في تدريب تجديد المعلومات ذي الصلة بسير عملهم، لا سيما عندما نواجه حالات تعتمد على السياسة والحالات التي تعتمد على السياق. كما ندير برامج تحسين المهارات وجلسات الاعتماد والاختبارات لضمان أن جميع المشرفين مُحدّثين وممتثلين لجميع السياسات التي تم تحديثها. أخيرًا، عندما تظهر اتجاهات المحتوى العاجلة بناءً على الأحداث الحالية، فإننا ننشر توضيحات السياسة بسرعة حتى تتمكن الفرق من الاستجابة وفقًا لسياسات شركة سناب.
إنّنا نوفّر إلى فريق الإشراف على المحتوى لدينا - "أول المستجيبين الرقميين" من شركة سناب - دعمًا وموارد كبيرة، بما في ذلك دعم العافية أثناء العمل وسهولة الوصول إلى خدمات الصحة النفسية.
الخلفية
يُعتبر الاستغلال الجنسي لأي فرد من أفراد مجتمعنا، وخاصة الشباب والقُصّر، أمرًا غير قانوني وبغيضًا ومحظورًا بموجب تعليمات التواصل الاجتماعي لدينا. إن منع واكتشاف والقضاء على الاستغلال الجنسي للأطفال وإساءة معاملتهم (CSEA) على منصّتنا يُعتبر أولوية قصوى لشركة سناب، ونعمل باستمرار على تطوير قدراتنا لمكافحة هذه الأنواع من الجرائم وغيرها.
إننا نستخدم أدوات مطابقة التجزئة القوية PhotoDNA، ومطابقة صور الاعتداء الجنسي على الأطفال (CSAI) من Google لتحديد الصور ومقاطع الفيديو غير القانونية المعروفة المتعلّقة بالاعتداء الجنسي على الأطفال، على التوالي، والإبلاغ عنها إلى المركز الوطني الأمريكي للمفقودين والمستغَلّين من الأطفال (NCMEC)، وفق ما يقتضيه القانون. بعدئذ، يُنسّق المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) مع جهات تنفيذ القانون المحلية أو الدولية، حسب ما يقتضيه الأمر.
التقرير
تستند البيانات أدناه إلى نتيجة المسح الاستباقي، باستخدام أدوات PhotoDNA و/أو مطابقة صور الاعتداء الجنسي على الأطفال (CSAI)، للوسائط التي تم تحميلها بواسطة كاميرا المستخدم على سناب شات.
يُعد وقف الاستغلال الجنسي للأطفال أولوية قصوى. وتكرّس شركة سناب موارد كبيرة لهذا الغرض ولا تتسامح مطلقًا مع هذا السلوك. يلزم تدريب خاص لمراجعة الطعون على الاستغلال الجنسي للأطفال (CSE)، وهناك فريق محدود من الوكلاء الذين يتعاملون مع هذه المراجعات بسبب الطبيعة الرسومية للمحتوى. خلال خريف عام 2023، نفذّت شركة سناب تغييرات في السياسة أثرت على اتساق بعض عمليات إنفاذ قانون مكافحة الاعتداء الجنسي على الأطفال (CSE)، وعالجنا هذه التناقضات من خلال إعادة تدريب الوكيل وضمان الجودة الصارمة. ونتوقع أن يكشف تقرير الشفافية التالي عن التقدم المحرز نحو تحسين أوقات الاستجابة لطعون الاستغلال الجنسي للأطفال (CSE) وتحسين دقّة عمليات التنفيذ الأولية.
ضمانات الإشراف على المحتوى
تم تحديد الضمانات المطبّقة على مسح وسائط استغلال الأطفال والاعتداء الجنسي عليهم (CSEA) في قسم "ضمانات الإشراف على المحتوى" أعلاه بموجب تقرير قانون الخدمات الرقمية (DSA).
تاريخ النشر: 17 يونيو 2024
آخر تحديث: 17 يونيو 2024
تم نشر تقرير الشفافية هذا وفقًا للمادتين 7(2) و7(3) من اللائحة 2021/784 للبرلمان الأوروبي ومجلس الاتحاد الأوروبي، والتي تتناول نشر المحتوى الإرهابي عبر الإنترنت (اللائحة). وهو يغطي فترة الإبلاغ من 1 يناير - 31 ديسمبر 2023.
المادة 7(3)(أ): معلومات عن تدابير مزوّد خدمة الاستضافة فيما يتعلق بتحديد المحتوى الإرهابي وإزالته أو تعطيل الوصول إليه
المادة 7(3)(ب): معلومات عن تدابير مزوّد خدمة الاستضافة لمعالجة إعادة الظهور عبر الإنترنت للمواد التي تمت إزالتها سابقًا أو تم تعطيل الوصول إليها لأنها تعتبر محتوى إرهابيًا، لا سيّما عندما تم استخدام الأدوات الآلية
يُحظر على الإرهابيين والمنظمات الإرهابية والمتطرفين العنيفين استخدام سناب شات. المحتوى الذي يدافع عن الإرهاب أو الأعمال العنيفة والإجرامية الأخرى أو يروّجها أو يمجدها أو يحسّنها محظور بموجب تعليمات التواصل الاجتماعي الخاصة بنا. يمكن للمستخدمين الإبلاغ عن المحتوى الذي ينتهك تعليمات التواصل الاجتماعي عبر قائمة الإبلاغ داخل التطبيق وموقع الدعم الخاص بنا. كما نستخدم الكشف الاستباقي لمحاولة تحديد المحتوى المنتهك على المنصات العامة مثل منصّة الأضواء واكتشف.
بغض النظر عن كيفية إدراكنا للمحتوى المنتهك، فإن فِرَق الثقة والسلامة لدينا، من خلال مجموعة من الأتمتة والإشراف البشري، تقوم بمراجعة المحتوى المحدد على الفور واتخاذ قرارات الإنفاذ. قد تشمل إجراءات الإنفاذ إزالة المحتوى أو التحذير أو قفل الحساب المنتهك، والإبلاغ عن الحساب إلى سلطات إنفاذ القانون إذا لزم الأمر. ولمنع ظهور المحتوى الإرهابي أو غيره من المحتوى المتطرف العنيف مرة أخرى على سناب شات، فإنّنا، بالإضافة إلى العمل مع جهات إنفاذ القانون، نتخذ خطوات لحظر الجهاز المرتبط بالحساب المخالف ومنع المستخدم من إنشاء حساب سناب شات آخر.
يمكن العثور على تفاصيل إضافية فيما يتعلق بتدابيرنا لتحديد المحتوى الإرهابي وإزالته في الشرح الخاص بنا حول المحتوى الذي يحضّ على الكراهية والإرهاب والتطرف العنيف، وفي الشرح الخاص بنا حول الإشراف والإنفاذ والطعون.
المادة 7(3)(ج): عدد عناصر المحتوى الإرهابي التي تمت إزالتها أو تعطيل الوصول إليها بعد أوامر الإزالة أو التدابير المحددة، وعدد أوامر الإزالة حيث لم تتم إزالة المحتوى أو الوصول إليه أو تعطيله وفقًا للفقرة الفرعية الأولى من المادة 3(7) والفقرة الفرعية الأولى من المادة 3(8)، مع أسباب ذلك
خلال فترة الإبلاغ، لم تتلق سناب أي أوامر إزالة، ولم نكن مطالبين بتنفيذ أي تدابير محددة وفقًا للمادة 5 من اللائحة. وفقًا لذلك، لم نكن مطالَبين باتخاذ إجراءات تنفيذية بموجب اللائحة.
يصف الجدول التالي إجراءات الإنفاذ المتخذة بناءً على تقارير المستخدم والكشف الاستباقي ضد المحتوى والحسابات، في كل من الاتحاد الأوروبي وأماكن أخرى في جميع أنحاء العالم، والتي انتهكت تعليمات التواصل الاجتماعي المتعلقة بالإرهاب ومحتوى التطرف العنيف
المادة 7(3)(د): عدد ونتيجة الشكاوى التي تم التعامل معها من قبل مقدم خدمة الاستضافة وفقًا للمادة 10
المادة 7(3)(ز): عدد الحالات التي قام فيها مقدم خدمة الاستضافة بإعادة المحتوى أو الوصول إليه بعد شكوى من مقدم المحتوى
نظرًا لأنه لم يكن لدينا إجراءات إنفاذ مطلوبة بموجب اللائحة خلال فترة الإبلاغ كما هو مذكور أعلاه، لم نتعامل مع أي شكاوى وفقًا للمادة 10 من اللائحة ولم يكن لدينا إعادة إصدار.
يحتوي الجدول التالي على معلومات تتعلق بالطعون وإعادة الإصدار، في كل من الاتحاد الأوروبي وأماكن أخرى في جميع أنحاء العالم، والتي تنطوي على المحتوى الإرهابي والمتطرف العنيف الذي تم فرضه بموجب تعليمات التواصل الاجتماعي الخاصة بنا.
يُعد وقف الاستغلال الجنسي للأطفال أولوية قصوى. وتكرّس شركة سناب موارد كبيرة لهذا الغرض ولا تتسامح مطلقًا مع هذا السلوك. يلزم تدريب خاص لمراجعة الطعون على الاستغلال الجنسي للأطفال (CSE)، وهناك فريق محدود من الوكلاء الذين يتعاملون مع هذه المراجعات بسبب الطبيعة الرسومية للمحتوى. خلال خريف عام 2023، نفذّت شركة سناب تغييرات في السياسة أثرت على اتساق بعض عمليات إنفاذ قانون مكافحة الاعتداء الجنسي على الأطفال (CSE)، وعالجنا هذه التناقضات من خلال إعادة تدريب الوكيل وضمان الجودة الصارمة. ونتوقع أن يكشف تقرير الشفافية التالي عن التقدم المحرز نحو تحسين أوقات الاستجابة لطعون الاستغلال الجنسي للأطفال (CSE) وتحسين دقّة عمليات التنفيذ الأولية.
ضمانات الإشراف على المحتوى
تم تحديد الضمانات المطبّقة على مسح وسائط استغلال الأطفال والاعتداء الجنسي عليهم (CSEA) في قسم "ضمانات الإشراف على المحتوى" أعلاه بموجب تقرير قانون الخدمات الرقمية (DSA).
اعتبارًا من 1 أغسطس 2024، أصبح لدينا 92.4 مليون مستلم نشط شهريًا في المتوسط لتطبيق سناب شات في الاتحاد الأوروبي. وهذا يعني أنّه على مدار الأشهر الستة الماضية، فتح في المتوسط 92.4 مليون مستخدم مسجّل في الاتحاد الأوروبي تطبيق سناب شات مرة واحدة على الأقل خلال شهر معين.
هذا الرقم مفصّل حسب الدول الأعضاء على النحو التالي: