Ευρωπαϊκή Ένωση
1 Ιουλίου 2023 – 31 Δεκεμβρίου 2023

Δημοσιεύθηκε:

25 Απριλίου 2024

Ενημερώθηκε:

25 Απριλίου 2024

Καλώς ήρθατε στη σελίδα διαφάνειας της Ευρωπαϊκής Ένωσης (ΕΕ), όπου δημοσιεύουμε πληροφορίες συγκεκριμένα για την ΕΕ που απαιτούνται από τον ευρωπαϊκό νόμο για τις ψηφιακές υπηρεσίες (DSA), την οδηγία υπηρεσιών οπτικοακουστικών μέσων (AVMSD) και τον νόμο ολλανδικών μέσων μαζικής ενημέρωσης (DMA). Λάβετε υπόψη ότι η πλέον ενημερωμένη έκδοση αυτής της Αναφοράς Διαφάνειας βρίσκεται στην τοποθεσία en-US.

Νομικός εκπρόσωπος

Η Snap Group Limited έχει ορίσει τη Snap B.V. ως Νομικό Εκπρόσωπό της για τους σκοπούς της DSA. Μπορείτε να επικοινωνήσετε με τον αντιπρόσωπο στη διεύθυνση dsa-enquiries [at] snapchat.com για την DSA, στη διεύθυνση vsp-enquiries [at] snapchat.com για AVMSD και DMA, μέσω της ιστοσελίδας Ιστοσελίδα Υποστήριξης [εδώ] ή στη διεύθυνση:

Snap B.V.
Keizersgracht 165, 1016 DP
Άμστερνταμ, Ολλανδία

Εάν είστε υπηρεσία επιβολής του νόμου, ακολουθήστε τα βήματα που περιγράφονται εδώ. Επικοινωνείτε στα Ολλανδικά ή Αγγλικά κατά την επικοινωνία μαζί μας.

Ρυθμιστικές αρχές

Για τον Ευρωπαϊκό Νόμο για τις Ψηφιακές Υπηρεσίες, ελεγχόμαστε από την Ευρωπαϊκή Επιτροπή και την Ολλανδική αρχή για τους καταναλωτές και τις αγορές (ACM). Για την οδηγία υπηρεσιών οπτικοακουστικών μέσων (AVMSD) και τον νόμο περί ψηφιακών αγορών (DMA), ελεγχόμαστε από την αρχή Ολλανδικών Μέσων Μαζικής Ενημέρωσης (CvdM).

Αναφορά Διαφάνειας DSA

Η Snap απαιτείται από τα άρθρα 15, 24 και 42 της DSA να δημοσιεύει αναφορές που περιέχουν προκαθορισμένες πληροφορίες σχετικά με την εποπτεία περιεχομένου της Snap για τις υπηρεσίες του Snapchat που θεωρούνται «διαδικτυακές πλατφόρμες», π.χ., Προσκήνιο, Για εσένα, Δημόσια Προφίλ, Χάρτες, Φακοί και Διαφήμιση. Αυτή η αναφορά πρέπει να δημοσιεύεται κάθε 6 μήνες, από τις 25 Οκτωβρίου 2023.

Η Snap δημοσιεύει αναφορές διαφάνειας δύο φορές τον χρόνο για να παρέχει πληροφορίες σχετικά με τις προσπάθειες ασφαλείας της Snap και τη φύση και τον όγκο του περιεχομένου που αναφέρεται στην πλατφόρμα μας. Η τελευταία αναφορά μας για το δεύτερο μισό του Ιουλίου του έτους 2023 (1 Ιουλίου - 31 Δεκεμβρίου) βρίσκεται εδώ. Τα στατιστικά στοιχεία που αφορούν στον νόμο για τις ψηφιακές υπηρεσίες βρίσκονται σε αυτή τη σελίδα.

Μέσος όρος μηνιαίων ενεργών παραληπτών 
(Άρθρα 24.2 και 42.3 του ευρωπαικού νόμου για τις ψηφιακές υπηρεσίες)

Από την 31η Δεκεμβρίου 2023, έχουμε 90,9 εκατομμύρια μέσους μηνιαίους ενεργούς παραλήπτες («AMAR») της εφαρμογής μας Snapchat στην ΕΕ. Αυτό σημαίνει ότι, κατά μέσο όρο τους τελευταίους 6 μήνες, 90,9 εκατομμύρια εγγεγραμμένοι χρήστες στην ΕΕ έχουν ανοίξει την εφαρμογή Snapchat τουλάχιστον μία φορά κατά τη διάρκεια ενός συγκεκριμένου μήνα.

Ο αριθμός αυτός αναλύεται ανά κράτος μέλος ως εξής:

Αυτά τα στοιχεία υπολογίστηκαν για να πληρούν τους ισχύοντες κανόνες DSA και θα πρέπει να βασίζονται μόνο σε αυτούς για σκοπούς DSA. Έχουμε αλλάξει τον τρόπο υπολογισμού αυτού του αριθμού με την πάροδο του χρόνου, μεταξύ άλλων λόγω αλλαγής της εσωτερικής πολιτικής, της καθοδήγησης των ρυθμιστικών αρχών και της τεχνολογίας, και τα στοιχεία δεν προορίζονται για σύγκριση μεταξύ περιόδων. Αυτό μπορεί επίσης να διαφέρει από τους υπολογισμούς που χρησιμοποιούνται για άλλα στοιχεία ενεργών χρηστών που δημοσιεύουμε για άλλους σκοπούς.


Αιτήματα εξουσιοδοσίας των κρατών μελών
(Άρθρο 15.1(α) DSA)

Αιτήματα κατάργησης 

Κατά τη διάρκεια αυτής της περιόδου, λάβαμε 0 αιτήματα κατάργησης από κράτη μέλη της ΕΕ σύμφωνα με το Άρθρο 9 της DSA.

Αιτήματα πληροφοριών 

Κατά τη διάρκεια αυτής της περιόδου, λάβαμε τα ακόλουθα αιτήματα πληροφοριών από κράτη μέλη της ΕΕ σύμφωνα με το άρθρο 10 της DSA:

Ο διάμεσος χρόνος διεκπεραίωσης για ενημέρωση των αρχών σχετικά με τη λήψη των αιτημάτων πληροφοριών είναι 0 λεπτά — παρέχουμε μια αυτοματοποιημένη απάντηση που επιβεβαιώνει τη λήψη. Ο μέσος χρόνος διεκπεραίωσης για την εφαρμογή των αιτημάτων πληροφοριών είναι περίπου 10 ημέρες. Αυτή η μέτρηση αντικατοπτρίζει τη χρονική περίοδο από τη στιγμή που η Snap λαμβάνει ένα IR έως όταν η Snap πιστεύει ότι το αίτημα έχει επιλυθεί πλήρως. Σε ορισμένες περιπτώσεις, η διάρκεια αυτής της διαδικασίας εξαρτάται εν μέρει από την ταχύτητα με την οποία οι αρχές επιβολής του νόμου ανταποκρίνονται σε τυχόν αιτήματα για διευκρινίσεις από τη Snap που απαιτούνται για την επεξεργασία του αιτήματός τους.

Έλεγχος Περιεχομένου 


Όλο το περιεχόμενο στο Snapchat πρέπει να συμμορφώνεται με τις Οδηγίες κοινότητας και τους Όρους Υπηρεσίας, καθώς και με τους υποστηρικτικούς όρους, τις οδηγίες και τις επεξηγήσεις. Οι προληπτικοί μηχανισμοί ανίχνευσης και οι αναφορές παράνομου περιεχομένου ή περιεχομένου που παραβιάζει κανόνες ή λογαριασμών προωθούν επανεξέταση, οπότε τα συστήματα εργαλείων μας επεξεργάζονται το αίτημα, συλλέγουν σχετικά μεταδεδομένα και δρομολογούν το σχετικό περιεχόμενο στην ομάδα εποπτείας μας μέσω μιας δομημένης διεπαφής χρήστη που έχει σχεδιαστεί για να διευκολύνει αποτελεσματικές και αποδοτικές διαδικασίες αναθεώρησης. Όταν οι ομάδες εποπτείας μας προσδιορίσουν, είτε μέσω ανθρώπινου ελέγχου είτε με αυτοματοποιημένα μέσα, ότι ένας χρήστης έχει παραβιάσει τους Όρους μας, ενδέχεται να καταργήσουμε το προσβλητικό περιεχόμενο ή τον λογαριασμό, να τερματίσουμε ή να περιορίσουμε την ορατότητα του σχετικού λογαριασμού ή/και να ειδοποιήσουμε τις αρχές επιβολής του νόμου όπως εξηγείται στις ενότητες Εποπτεία Snapchat, Επιβολή, και Επεξήγηση ενστάσεων.  Οι χρήστες των οποίων οι λογαριασμοί έχουν κλειδωθεί από την ομάδα ασφαλείας μας για παραβιάσεις των Οδηγιών κοινότητας μπορούν να υποβάλουν αίτημα επανεξέτασης κλειδωμένου λογαριασμού, και οι χρήστες μπορούν να υποβάλουν ένσταση για ορισμένες επιβολές περιεχομένου.

Σημειώσεις περιεχομένου και λογαριασμού (άρθρο 15.1(β) της DSA)

Η Snap έχει θέσει σε εφαρμογή μηχανισμούς που επιτρέπουν στους χρήστες και τους μη χρήστες να ειδοποιούν τη Snap για περιεχόμενο και λογαριασμούς που παραβιάζουν τις Οδηγίες κοινότητας και τους Όρους Υπηρεσίας στην πλατφόρμα, συμπεριλαμβανομένων εκείνων που θεωρούν παράνομους σύμφωνα με το Άρθρο 16 της DSA. Αυτοί οι μηχανισμοί αναφοράς είναι διαθέσιμοι στην ίδια την εφαρμογή (δηλαδή απευθείας από το κομμάτι του περιεχομένου) και στον ιστότοπό μας.

Κατά τη σχετική περίοδο, λάβαμε το ακόλουθο περιεχόμενο και ειδοποιήσεις λογαριασμού στην ΕΕ:

Το εξάμηνο του 2023, χειριστήκαμε 664.896 ειδοποιήσεις αποκλειστικά με αυτοματοποιημένα μέσα. Όλα αυτά επιβλήθηκαν κατά των Οδηγιών κοινότητας, επειδή οι Οδηγίες κοινότητας περικλείουν παράνομο περιεχόμενο.

Εκτός από το περιεχόμενο και τους λογαριασμούς που δημιουργούνται από χρήστες, εποπτεύουμε τις διαφημίσεις εάν παραβιάζουν τις πολιτικές της πλατφόρμας μας. Παρακάτω είναι το σύνολο των διαφημίσεων που αναφέρθηκαν και καταργήθηκαν στην ΕΕ.

Ειδοποιήσεις αξιόπιστων πηγών επισήμανσης παράνομου περιεχομένου (άρθρο 15.1(β))

Για την περίοδο της τελευταίας μας Αναφοράς Διαφάνειας (2 εξάμηνο 2023), δεν υπήρξαν επίσημα αξιόπιστες πηγές επισήμανσης παράνομου περιεχομένου βάσει της DSA. Ως αποτέλεσμα, ο αριθμός των ειδοποιήσεων που υποβλήθηκαν από τέτοιες αξιόπιστες πηγές επισήμανσης παράνομου περιεχομένου ήταν μηδέν (0) σε αυτήν την περίοδο.

Προληπτική εποπτεία περιεχομένου (άρθρο 15.1(γ))

Κατά τη σχετική περίοδο, η Snap επέβαλε το ακόλουθο περιεχόμενο και τους λογαριασμούς στην ΕΕ μετά από εποπτεία περιεχομένου με δική της πρωτοβουλία:

Όλες οι προσπάθειες συντονισμού με πρωτοβουλία της Snap αξιοποίησαν τον άνθρωπο ή τον αυτοματισμό. Στις επιφάνειες δημόσιου περιεχομένου μας, το περιεχόμενο γενικά υποβάλλεται τόσο σε αυτόματη εποπτεία όσο και σε ανθρώπινο έλεγχο προτού καταστεί κατάλληλο για διανομή σε ευρύ κοινό. Όσον αφορά τα αυτοματοποιημένα εργαλεία, αυτά περιλαμβάνουν:

  • Προληπτικός εντοπισμός παράνομου περιεχομένου και περιεχομένου που παραβιάζει τους κανόνες με χρήση μηχανικής μάθησης,

  • Εργαλεία αντιστοίχισης κατακερματισμού (όπως το PhotoDNA και το CSAI Match της Google),

  • Ανίχνευση υβριστικής γλώσσας για απόρριψη περιεχομένου βάσει μιας λίστας καταχρηστικών λέξεων-κλειδιών που προσδιορίζεται και ενημερώνεται τακτικά, συμπεριλαμβανομένων των emoji


Προσφυγές (άρθρο 15.1(δ))

Κατά τη σχετική περίοδο, η Snap επεξεργάστηκε τα ακόλουθα αιτήματα προσφυγής περιεχομένου και λογαριασμών στην ΕΕ μέσω των εσωτερικών συστημάτων διαχείρισης καταγγελιών:


* Η διακοπή της σεξουαλικής εκμετάλλευσης παιδιών αποτελεί κορυφαία προτεραιότητα. Η Snap αφιερώνει σημαντικούς πόρους σε αυτό και έχει μηδενική ανοχή σε τέτοια συμπεριφορά.  Απαιτείται ειδική εκπαίδευση για τον έλεγχο των προσφυγών CSE και υπάρχει περιορισμένη ομάδα αντιπροσώπων που χειρίζεται αυτούς τους ελέγχους λόγω της γραφικής φύσης του περιεχομένου.  Κατά το φθινόπωρο του 2023, η Snap εφάρμοσε αλλαγές πολιτικής που επηρέασαν τη συνέπεια ορισμένων μέτρων επιβολής CSE, και έχουμε αντιμετωπίσει αυτές τις ασυνέπειες μέσω της επανεκπαίδευσης των αντιπροσώπων και της αυστηρής διασφάλισης ποιότητας.  Αναμένουμε ότι η επόμενη Αναφορά Διαφάνειας θα αποκαλύψει την πρόοδο προς τη βελτίωση των χρόνων απόκρισης για τις προσφυγές CSE και τη βελτίωση της ακρίβειας των αρχικών μέτρων επιβολής.

Αυτοματοποιημένα μέσα για τη ρύθμιση περιεχομένου (Άρθρο 15.1(ε))

Στις επιφάνειες δημόσιου περιεχομένου μας, το περιεχόμενο γενικά υποβάλλεται τόσο σε αυτόματη εποπτεία όσο και σε ανθρώπινο έλεγχο προτού καταστεί κατάλληλο για διανομή σε ευρύ κοινό. Όσον αφορά τα αυτοματοποιημένα εργαλεία, αυτά περιλαμβάνουν:

  • Προληπτικός εντοπισμός παράνομου και παραβατικού περιεχομένου που παραβιάζει τους κανόνες με χρήση μηχανικής μάθησης.

  • Εργαλεία αντιστοίχισης κατακερματισμού (όπως το PhotoDNA και το CSAI Match της Google),

  • Ανίχνευση υβριστικής γλώσσας για απόρριψη περιεχομένου βάσει μιας λίστας καταχρηστικών λέξεων-κλειδιών που προσδιορίζεται και ενημερώνεται τακτικά, συμπεριλαμβανομένων των emoji.


Η ακρίβεια των αυτοματοποιημένων τεχνολογιών εποπτείας για όλες τις βλάβες ήταν περίπου 96,61% και το ποσοστό σφάλματος ήταν περίπου 3,39%.


Δικλείδες Ασφαλείας για τον Έλεγχο Περιεχομένου (Άρθρο 15.1(ε))

Αναγνωρίζουμε ότι υπάρχουν κίνδυνοι που σχετίζονται με τον έλεγχο περιεχομένου, συμπεριλαμβανομένων των κινδύνων για τις ελευθερίες έκφρασης και συγκέντρωσης που μπορεί να προκληθούν από αυτοματοποιημένες και ανθρώπινες μεροληψίες και καταχρηστικές αναφορές, συμπεριλαμβανομένων των κυβερνήσεων, πολιτικών περιφερειών ή καλά οργανωμένων ατόμων. Το Snapchat γενικά δεν είναι χώρος για πολιτικό ή ακτιβιστικό περιεχόμενο, ιδιαίτερα στους δημόσιους χώρους μας. 


Ωστόσο, για να προστατευτεί από αυτούς τους κινδύνους, η Snap κάνει δοκιμές και εκπαίδευση ενώ παράλληλα διαθέτει ισχυρές, συνεπείς διαδικασίες για χειρισμό αναφορών για παράνομο ή παραβατικό περιεχόμενο, συμπεριλαμβανομένων των αρχών επιβολής του νόμου και των κυβερνητικών αρχών. Συνεχώς αξιολογούμε και εξελίσσουμε τους αλγόριθμους ελέγχου περιεχομένου μας. Αν και είναι δύσκολο να εντοπιστούν πιθανές βλάβες στην ελευθερία της έκφρασης, δεν γνωρίζουμε σημαντικά ζητήματα και παρέχουμε τρόπους στους χρήστες μας να αναφέρουν λάθη εάν συμβούν. 


Οι πολιτικές και τα συστήματά μας προωθούν τη συνεπή και δίκαιη επιβολή και, όπως περιγράφεται παραπάνω, παρέχουν στους Snapchatters την ευκαιρία να αμφισβητήσουν ουσιαστικά τα αποτελέσματα επιβολής μέσω των διαδικασιών Ειδοποίησης και Ενστάσεων που στοχεύουν στη διασφάλιση των συμφερόντων της κοινότητάς μας προστατεύοντας παράλληλα τα ατομικά δικαιώματα του Snapchatter.

Προσπαθούμε συνεχώς να βελτιώνουμε τις πολιτικές και τις διαδικασίες επιβολής μας και έχουμε κάνει μεγάλα βήματα για την καταπολέμηση του δυνητικά επιβλαβούς και παράνομου περιεχομένου και δραστηριοτήτων στο Snapchat. Αυτό αντικατοπτρίζεται σε μια ανοδική τάση στα στοιχεία αναφοράς και επιβολής που εμφανίζονται στην πιο πρόσφατη Αναφορά Διαφάνειας και σε μειωμένα ποσοστά επικράτησης για παραβιάσεις στο Snapchat συνολικά.


Εξωδικαστικοί διακανονισμοί (άρθρο 24.1(α))

Για την περίοδο της τελευταίας μας Αναφοράς Διαφάνειας (2ο εξάμηνο 2023), δεν υπήρξαν επίσημα αξιόπιστες πηγές επισήμανσης παράνομου περιεχομένου βάσει της DSA. Ως αποτέλεσμα, ο αριθμός των ενστάσεων που υποβλήθηκαν σε τέτοιους φορείς ήταν μηδέν (0) σε αυτήν την περίοδο και δεν είμαστε σε θέση να παράξουμε αποτελέσματα, διάμεσους χρόνους διευθέτησης των διακανονισμών και το μερίδιο των διαφορών στις οποίες εφαρμόσαμε τις αποφάσεις του φορέα.



Αναστολές λογαριασμών (Άρθρο 24.1(β))

Κατά το δεύτερο εξάμηνο του 2023, δεν επιβλήθηκαν αναστολές λογαριασμών σύμφωνα με το άρθρο 23. Η ομάδα Trust & Safety της Snap εφαρμόζει διαδικασίες για τον περιορισμό της πιθανότητας συχνής υποβολής ειδοποιήσεων ή καταγγελιών από λογαριασμούς χρηστών που είναι προδήλως αβάσιμες. Αυτές οι διαδικασίες περιλαμβάνουν τον περιορισμό της δημιουργίας διπλότυπων αναφορών και τη χρήση φίλτρων email για να αποτρέψουν τους χρήστες που έχουν συχνά υποβάλει προδήλως αβάσιμες αναφορές να συνεχίσουν να το κάνουν. Ωστόσο, η Snap λαμβάνει τα κατάλληλα μέτρα επιβολής εναντίον λογαριασμών, όπως εξηγείται στην Επεξήγηση Συντονισμού, Επιβολής και Ενστάσεων Snapchat και πληροφορίες σχετικά με το επίπεδο επιβολής του λογαριασμού της Snap μπορείτε να βρείτε στην Αναφορά Διαφάνειάς μας (2ο εξάμηνο 2023). Τέτοια μέτρα θα συνεχίσουν να επανεξετάζονται και να επαναλαμβάνονται.


Πόροι συντονιστή, εμπειρογνωμοσύνη και υποστήριξη επόπτη (άρθρο 42.2)

Η ομάδα εποπτείας περιεχομένου μας δραστηριοποιείται σε όλο τον κόσμο, δίνοντάς μας τη δυνατότητα να βοηθήσουμε ώστε οι Snapchatters να είναι ασφαλείς επί εικοσιτετραώρου βάσεως, 7 ημέρες την εβδομάδα. Παρακάτω, θα βρείτε την κατανομή των πόρων μας για την ανθρώπινη εποπτεία ανά γλωσσικές ειδικότητες των συντονιστών (σημειώστε ότι ορισμένοι συντονιστές ειδικεύονται σε πολλές γλώσσες) από τις 31 Δεκεμβρίου του 2023:

Ο παραπάνω πίνακας περιλαμβάνει όλους τους συντονιστές που υποστηρίζουν τις γλώσσες των κρατών μελών της ΕΕ από τις 31 Δεκεμβρίου 2023. Σε περιπτώσεις όπου χρειαζόμαστε επιπλέον γλωσσική υποστήριξη, χρησιμοποιούμε μεταφραστικές υπηρεσίες.

Οι συντονιστές προσλαμβάνονται χρησιμοποιώντας μια τυπική περιγραφή θέσης εργασίας που περιλαμβάνει μια απαίτηση γλώσσας (ανάλογα με την ανάγκη). Η γλωσσική απαίτηση ορίζει ότι ο υποψήφιος πρέπει να είναι σε θέση να επιδεικνύει γραπτή και προφορική ευχέρεια στη γλώσσα και να έχει τουλάχιστον ένα έτος εργασιακής εμπειρίας για θέσεις εισαγωγικού επιπέδου. Οι υποψήφιοι πρέπει επίσης να πληρούν τις προϋποθέσεις εκπαίδευσης και προϋπηρεσίας προκειμένου να ληφθούν υπόψη. Οι υποψήφιοι πρέπει επίσης να αποδείξουν ότι κατανοούν τα τρέχοντα γεγονότα για τη χώρα ή την περιοχή συντονισμού περιεχομένου που θα υποστηρίξουν.

Η ομάδα συντονισμού μας εφαρμόζει τις πολιτικές μας και τα μέτρα επιβολής για να συμβάλει στην προστασία της κοινότητάς μας στο Snapchat. Η εκπαίδευση διεξάγεται σε περίοδο πολλών εβδομάδων, κατά την οποία τα νέα μέλη της ομάδας εκπαιδεύονται σχετικά με τις πολιτικές, τα εργαλεία και τις διαδικασίες κλιμάκωσης της Snap. Μετά την εκπαίδευση, κάθε συντονιστής πρέπει να περάσει μια εξέταση πιστοποίησης προτού του επιτραπεί να ελέγξει το περιεχόμενο. Η ομάδα συντονισμού μας συμμετέχει τακτικά σε εκπαίδευση ανανέωσης σχετική με τις ροές εργασίας της, ιδιαίτερα όταν αντιμετωπίζουμε περιπτώσεις που εξαρτώνται από την πολιτική και το πλαίσιο. Εκτελούμε επίσης προγράμματα αναβάθμισης δεξιοτήτων, συνεδρίες πιστοποίησης και κουίζ για να διασφαλίσουμε ότι όλοι οι συντονιστές είναι ενημερωμένοι και συμμορφώνονται με όλες τις ενημερωμένες πολιτικές. Τέλος, όταν εμφανίζονται επείγουσες τάσεις περιεχομένου με βάση τα τρέχοντα γεγονότα, διανέμουμε γρήγορα διευκρινίσεις πολιτικής, ώστε οι ομάδες να είναι σε θέση να ανταποκρίνονται σύμφωνα με τις πολιτικές της Snap.

Παρέχουμε στην ομάδα συντονισμού περιεχομένου μας – τους «ψηφιακούς πρώτους ανταποκριτές» της Snap – σημαντική υποστήριξη και πόρους, συμπεριλαμβανομένης της υποστήριξης ευεξίας στην εργασία και της εύκολης πρόσβασης σε υπηρεσίες ψυχικής υγείας.

Αναφορά ανίχνευσης μέσων μαζικής ενημέρωσης και ανίχνευσης για τη σεξουαλική εκμετάλλευση και κακοποίηση παιδιών (CSEA)


Υπόβαθρο

Η σεξουαλική εκμετάλλευση οποιουδήποτε μέλους της κοινότητάς μας, ιδιαίτερα ανηλίκων, είναι παράνομη, αποτρόπαια και απαγορεύεται από τις Οδηγίες κοινότητάς μας. Η πρόληψη, η ανίχνευση και η εξάλειψη της σεξουαλικής εκμετάλλευσης παιδιών (CSEA) στην πλατφόρμα μας αποτελεί πρώτη προτεραιότητα για τη Snap, και συνεχώς εξελίσσουμε τις δυνατότητές μας για την καταπολέμηση αυτών και άλλων αδικημάτων.


Χρησιμοποιούμε ενεργά τεχνολογικά εργαλεία ανίχνευσης, όπως το ισχυρό σύστημα ανίχνευσης PhotoDNA με λειτουργία αντιστοίχισης hash (hash-matching) και την αντιστοίχιση εικόνων σεξουαλικής κακοποίησης της Google (CSAI) για τον εντοπισμό γνωστών παράνομων εικόνων και βίντεο από υλικό σεξουαλικής κακοποίησης παιδιών, αντίστοιχα, και την αναφορά τους στο Εθνικό κέντρο των Η.Π.Α. για τα εξαφανισμένα και κακοποιημένα παιδιά (NCMEC), όπως απαιτείται από τον νόμο. Το Εθνικό Κέντρο των Η.Π.Α. για τα εξαφανισμένα και κακοποιημένα παιδιά, με τη σειρά του, συντονίζει τις ενέργειές του με την εγχώρια ή διεθνή επιβολή του νόμου, όπως απαιτείται.


Αναφορά

Τα παρακάτω δεδομένα βασίζονται στο αποτέλεσμα της προληπτικής σάρωσης χρησιμοποιώντας το PhotoDNA ή/και την αντιστοίχιση Τεχνητής Νοημοσύνης για τη σεξουαλική κακοποίηση των παιδιών των μέσων που μεταφορτώθηκαν από το άλμπουμ κάμερας προς το Snapchat.

Η διακοπή της σεξουαλικής εκμετάλλευσης των παιδιών αποτελεί κορυφαία προτεραιότητα. Η Snap αφιερώνει σημαντικούς πόρους σε αυτό και έχει μηδενική ανοχή σε τέτοια συμπεριφορά. Απαιτείται ειδική εκπαίδευση για τον έλεγχο των προσφυγών CSE και υπάρχει περιορισμένη ομάδα αντιπροσώπων που χειρίζεται αυτούς τους ελέγχους λόγω της γραφικής φύσης του περιεχομένου. Κατά το φθινόπωρο του 2023, η Snap εφάρμοσε αλλαγές πολιτικής που επηρέασαν τη συνέπεια ορισμένων μέτρων επιβολής CSE, και έχουμε αντιμετωπίσει αυτές τις ασυνέπειες μέσω της επανεκπαίδευσης των αντιπροσώπων και της αυστηρής διασφάλισης ποιότητας. Αναμένουμε ότι η επόμενη Αναφορά Διαφάνειας θα αποκαλύψει την πρόοδο προς τη βελτίωση των χρόνων απόκρισης για τις προσφυγές CSE και τη βελτίωση της ακρίβειας των αρχικών μέτρων επιβολής.  

Διασφαλίσεις ελέγχου περιεχομένου

Οι διασφαλίσεις που εφαρμόζονται για τη σάρωση μέσων μαζικής ενημέρωσης σχετικά με τη διαδικτυακή εκμετάλλευση και κακοποίηση παιδιών παρατίθενται στην παραπάνω ενότητα «Διασφαλίσεις για την Παρακολούθηση περιεχομένου» στην αναφορά για τον νόμο περί ψηφιακών υπηρεσιών.


Αναφορά ανίχνευσης μέσων μαζικής ενημέρωσης και ανίχνευσης για τη σεξουαλική εκμετάλλευση και κακοποίηση παιδιών (CSEA)


Υπόβαθρο

Η σεξουαλική εκμετάλλευση οποιουδήποτε μέλους της κοινότητάς μας, ιδιαίτερα ανηλίκων, είναι παράνομη, αποτρόπαια και απαγορεύεται από τις Οδηγίες κοινότητάς μας. Η πρόληψη, η ανίχνευση και η εξάλειψη της σεξουαλικής εκμετάλλευσης παιδιών (CSEA) στην πλατφόρμα μας αποτελεί πρώτη προτεραιότητα για τη Snap, και συνεχώς εξελίσσουμε τις δυνατότητές μας για την καταπολέμηση αυτών και άλλων αδικημάτων.


Χρησιμοποιούμε ενεργά τεχνολογικά εργαλεία ανίχνευσης, όπως το ισχυρό σύστημα ανίχνευσης PhotoDNA με λειτουργία αντιστοίχισης hash (hash-matching) και την αντιστοίχιση εικόνων σεξουαλικής κακοποίησης της Google (CSAI) για τον εντοπισμό γνωστών παράνομων εικόνων και βίντεο από υλικό σεξουαλικής κακοποίησης παιδιών, αντίστοιχα, και την αναφορά τους στο Εθνικό κέντρο των Η.Π.Α. για τα εξαφανισμένα και κακοποιημένα παιδιά (NCMEC), όπως απαιτείται από τον νόμο. Το Εθνικό Κέντρο των Η.Π.Α. για τα εξαφανισμένα και κακοποιημένα παιδιά, με τη σειρά του, συντονίζει τις ενέργειές του με την εγχώρια ή διεθνή επιβολή του νόμου, όπως απαιτείται.


Αναφορά

Τα παρακάτω δεδομένα βασίζονται στο αποτέλεσμα της προληπτικής σάρωσης χρησιμοποιώντας το PhotoDNA ή/και την αντιστοίχιση Τεχνητής Νοημοσύνης για τη σεξουαλική κακοποίηση των παιδιών των μέσων που μεταφορτώθηκαν από το άλμπουμ κάμερας προς το Snapchat.

Η διακοπή της σεξουαλικής εκμετάλλευσης των παιδιών αποτελεί κορυφαία προτεραιότητα. Η Snap αφιερώνει σημαντικούς πόρους σε αυτό και έχει μηδενική ανοχή σε τέτοια συμπεριφορά. Απαιτείται ειδική εκπαίδευση για τον έλεγχο των προσφυγών CSE και υπάρχει περιορισμένη ομάδα αντιπροσώπων που χειρίζεται αυτούς τους ελέγχους λόγω της γραφικής φύσης του περιεχομένου. Κατά το φθινόπωρο του 2023, η Snap εφάρμοσε αλλαγές πολιτικής που επηρέασαν τη συνέπεια ορισμένων μέτρων επιβολής CSE, και έχουμε αντιμετωπίσει αυτές τις ασυνέπειες μέσω της επανεκπαίδευσης των αντιπροσώπων και της αυστηρής διασφάλισης ποιότητας. Αναμένουμε ότι η επόμενη Αναφορά Διαφάνειας θα αποκαλύψει την πρόοδο προς τη βελτίωση των χρόνων απόκρισης για τις προσφυγές CSE και τη βελτίωση της ακρίβειας των αρχικών μέτρων επιβολής.  

Διασφαλίσεις ελέγχου περιεχομένου

Οι διασφαλίσεις που εφαρμόζονται για τη σάρωση μέσων μαζικής ενημέρωσης σχετικά με τη διαδικτυακή εκμετάλλευση και κακοποίηση παιδιών παρατίθενται στην παραπάνω ενότητα «Διασφαλίσεις για την Παρακολούθηση περιεχομένου» στην αναφορά για τον νόμο περί ψηφιακών υπηρεσιών.


Η διακοπή της σεξουαλικής εκμετάλλευσης των παιδιών αποτελεί κορυφαία προτεραιότητα. Η Snap αφιερώνει σημαντικούς πόρους σε αυτό και έχει μηδενική ανοχή σε τέτοια συμπεριφορά. Απαιτείται ειδική εκπαίδευση για τον έλεγχο των προσφυγών CSE και υπάρχει περιορισμένη ομάδα αντιπροσώπων που χειρίζεται αυτούς τους ελέγχους λόγω της γραφικής φύσης του περιεχομένου. Κατά το φθινόπωρο του 2023, η Snap εφάρμοσε αλλαγές πολιτικής που επηρέασαν τη συνέπεια ορισμένων μέτρων επιβολής CSE, και έχουμε αντιμετωπίσει αυτές τις ασυνέπειες μέσω της επανεκπαίδευσης των αντιπροσώπων και της αυστηρής διασφάλισης ποιότητας. Αναμένουμε ότι η επόμενη Αναφορά Διαφάνειας θα αποκαλύψει την πρόοδο προς τη βελτίωση των χρόνων απόκρισης για τις προσφυγές CSE και τη βελτίωση της ακρίβειας των αρχικών μέτρων επιβολής.  

Διασφαλίσεις ελέγχου περιεχομένου

Οι διασφαλίσεις που εφαρμόζονται για τη σάρωση μέσων μαζικής ενημέρωσης σχετικά με τη διαδικτυακή εκμετάλλευση και κακοποίηση παιδιών παρατίθενται στην παραπάνω ενότητα «Διασφαλίσεις για την Παρακολούθηση περιεχομένου» στην αναφορά για τον νόμο περί ψηφιακών υπηρεσιών.


Ο αριθμός αυτός αναλύεται ανά κράτος μέλος ως εξής:

Ο αριθμός αυτός αναλύεται ανά κράτος μέλος ως εξής: