Privacy, Safety, and Policy Hub

Νέα έρευνα σχετικά με το πώς οι άνθρωποι αλληλεπιδρούν με σεξουαλικό περιεχόμενο GenAI

19 Νοεμβρίου 2024

Η ραγδαία άνοδος των εργαλείων τεχνητής νοημοσύνης τα τελευταία χρόνια έχει δημιουργήσει και θα συνεχίσει να δημιουργεί νέες ευκαιρίες για δημιουργικότητα, μάθηση και σύνδεση. Ωστόσο, η τεχνολογία έχει επίσης εισαγάγει νέα δυναμική στους υφιστάμενους διαδικτυακούς κινδύνους. Μια νέα έρευνα δείχνει ότι καθώς ο αριθμός των ανθρώπων που συναντούν σεξουαλικά φορτισμένες εικόνες και βίντεο τεχνητής νοημοσύνης στο διαδίκτυο συνεχίζει να αυξάνεται, η επίγνωση της παράνομης φύσης κάποιου από αυτού του περιεχομένου εξακολουθεί να αποτελεί πρόκληση.

Για να κατανοήσει καλύτερα τις στάσεις και τις συμπεριφορές των εφήβων και των νέων ενηλίκων σε όλες τις πλατφόρμες και υπηρεσίες, η Snap διεξάγει και κοινοποιεί μια ετήσια έρευνα του κλάδου που ονομάζεται Δείκτης Ψηφιακής Ευημερίας. (Η Snap ανέθεσε την έρευνα, αλλά αυτή καλύπτει τις εμπειρίες της Generation Z σε όλους τους ψηφιακούς χώρους γενικά, χωρίς να εστιάζει ειδικιδιαίτερη εστίαση στο Snapchat.)  Αν και σχεδιάζουμε να ανακοινώσουμε τα πλήρη αποτελέσματα της μελέτης μας για το 3ο έτος σε συνδυασμό με τη διεθνή Ημέρα Ασφαλέστερου Διαδικτύου τον Φεβρουάριο του 2025, θέλουμε να προβάλουμε ορισμένα βασικά ευρήματα σχετικά με το πώς οι έφηβοι, οι νέοι ενήλικες, και ακόμη και οι γονείς ασχολούνται και αντιδρούν σε σεξουαλικό περιεχόμενο που παράγεται με βάση την τεχνητή νοημοσύνη. Αυτό κάνουμε σήμερα, δεδομένης της παγκόσμιας εστίασης στην παιδική σεξουαλική εκμετάλλευση και κακοποίηση αυτή την εβδομάδα, και σε συνδυασμό με τη συμμετοχή μας στη Διάσκεψη Empowering Voices DC, η οποία επικεντρώθηκε στην αντιμετώπιση των βλαβών που σχετίζονται με το σεξουαλικό περιεχόμενο που παράγεται από την τεχνητή νοημοσύνη.

Για παράδειγμα, στη μελέτη μας, η οποία εξέτασε 9.007 έφηβους, νεαρούς ενήλικες και γονείς εφήβων σε 6 χώρες 1, το 24% είπε ότι είχαν δει κάποιου είδους εικόνες ή βίντεο παραχθέντα από τεχνητή νοημοσύνη που ήταν σεξουαλικής φύσης. Από εκείνους που ισχυρίστηκαν ότι είδαν αυτό το είδος περιεχομένου, μόνο το 2% είπε ότι η εικόνα ήταν κάποιου ηλικίας κάτω των 18 ετών.

Είναι ενθαρρυντικό ότι όταν οι χρήστες είδαν αυτό το είδος περιεχομένου, 9 στους 10 προέβησαν σε κάποια ενέργεια που κυμαινόταν από το μπλοκάρισμα ή τη διαγραφή του περιεχομένου (54%) ως τη συνομιλία με έμπιστους φίλους ή με την οικογένεια (52%). Ωστόσο, μόνο το 42% ανέφερε ότι κατάγγειλαν το περιεχόμενο στην πλατφόρμα, ή στην υπηρεσία όπου το είδαν ή σε μια γραμμή επικοινωνίας/βοήθειας. Αυτή η εικόνα ακολουθεί μια μεγαλύτερη τάση χαμηλότερων ποσοστών καταγγελιών για θέματα που σχετίζονται με την ψηφιακή ασφάλεια γενικά. Επισημάναμε σε μια προηγούμενη ανάρτηση, τη σημασία της αντιμετώπισης των αρνητικών αντιλήψεων για τις καταγγελίες έτσι ώστε οι νέοι να μην κανονικοποιούν την έκθεση σε ορισμένο προβληματικό περιεχόμενο και συμπεριφορά στο διαδίκτυο, ή να εξισώνουν την καταγγελία με το κουτσομπολιό.

Ακόμη πιο ανησυχητικό είναι ότι περισσότερο από το 40% των ερωτηθέντων δε γνωρίζει με σαφήνεια τη νομική υποχρέωση των πλατφορμών/υπηρεσιών να καταγγέλλουν σεξουαλικές εικόνες ανηλίκων, ακόμη και αν αυτές οι εικόνες προορίζονται ως αστεία ή meme. Και, ενώ ένας μεγαλύτερος αριθμός (70%+) αναγνώρισε ότι ήταν παράνομη η χρήση τεχνολογίας τεχνητής νοημοσύνης για τη δημιουργία ψεύτικου σεξουαλικού περιεχομένου για ένα άτομο, ή η κατοχή, προβολή ή η κοινοποίηση σεξουαλικών εικόνων ανηλίκων, αυτά τα ευρύματα υποδεικνύουν ότι πρέπει να γίνει αρκετή δουλειά για να διασφαλιστεί ότι το ευρύ κοινό γνωρίζει τις νομικές απαιτήσεις που σχετίζονται με αυτό το είδος περιεχομένου.

Στις ΗΠΑ για παράδειγμα, σχεδόν το 40% των ερωτηθέντων είπαν ότι πιστεύουν πως είναι νόμιμο να χρησιμοποιούν την τεχνολογία τεχνητής νοημοσύνης για τη δημιουργία ψευδών σεξουαλικών εικόνων για ένα άτομο. Και, ανεκδοτολογικά, έχουμε ακούσει για μια ανησυχητική τάση από συναδέλφους του κλάδου: με τη διάδοση αυτού του είδους του περιεχομένου, ειδικά ορισμένα έφηβα κορίτσια αισθάνονται «στην απέξω» εάν δεν εμφανίζονται σε σεξουαλικές εικόνες τεχνητής νοημοσύνης τις οποίες οι συνομήλικοί τους δημιουργούν και μοιράζονται. Αυτό το ανησυχητικό σημείο υπογραμμίζει περαιτέρω την ανάγκη να εκπαιδεύσουμε και να αυξήσουμε την ενημέρωση σχετικά με αυτόν τον συγκεκριμένο διαδικτυακό κίνδυνο, με τους έμπιστους ενήλικες και ενημερωμένους συνομηλίκους να παίζουν ενεργό ρόλο στην αποθάρρυνση αυτού του είδους της συμπεριφοράς.  

Η συνεχής δέσμευση της Snap

Στη Snap, επενδύουμε συνεχώς σε πόρους, εργαλεία και τεχνολογία για να βοηθήσουμε στην προώθηση ασφαλέστερων, πιο υγιών και πιο θετικών εμπειριών στο Snapchat και σε όλο το τεχνολογικό οικοσύστημα.

Σε ορισμένες περιπτώσεις, χρησιμοποιούμε συμπεριφορικά «σήματα» για να εντοπίσουμε δυνητικά παράνομη δραστηριότητα, έτσι ώστε να μπορούμε να αφαιρέσουμε προληπτικά παραβάτες και να τους αναφέρουμε στις αρχές. Επιπλέον, ως μια υπηρεσία που περιλαμβάνει ένα ΑΙ chatbot συνομιλίας, καταβάλλουμε προσπάθειες ώστε να είμαστε ιδιαίτερα προσεκτικοί στην αποτροπή μιας πιθανής δημιουργίας τέτοιου υλικού στο Snapchat, καθώς και στην προστασία από την κοινοποίηση και τη διανομή υλικού που μπορεί να έχει δημιουργηθεί σε άλλες πλατφόρμες. Αντιμετωπίζουμε ύποπτες σεξουαλικές εικόνες ανηλίκων που παράγονται από τεχνητή νοημοσύνη όπως τις «αυθεντικές» εικόνες σεξουαλικής εκμετάλλευσης και κακοποίησης (CSEAI), αφαιρώντας το περιεχόμενο μόλις το αντιληφθούμε, αναστέλλοντας τον παραβατικό λογαριασμό, και αναφέροντας το στο Εθνικό Κέντρο για τα Εξαφανισμένα και υπό Εκμετάλλευση Παιδιά (NCMEC). Αυτό γίνεται πέρα από την αξιοποίηση και την ανάπτυξη τεχνολογίας που έχει σχεδιαστεί για να αποτρέψει την εξάπλωση CSEAI, συμπεριλαμβανομένου του PhotoDNA (για την ανίχνευση διπλότυπων παράνομων εικόνων) και του CSAI Match της Google (για την ανίχνευση διπλότυπων παράνομων βίντεο). Επίσης, πρόσφατα αρχίσαμε να χρησιμοποιούμε το API Ασφάλειας Περιεχομένου της Google (για να βοηθήσουμε στην ανίχνευση καινούργιων, «μη υπογεγραμμένων προηγουμένως» εικόνων σε δημόσιο περιεχόμενο). Έχουμε επίσης συνεργαστεί στενά με τη NCMEC σχετικά με το πώς να αξιοποιήσουμε τις μοναδικές ψηφιακές υπογραφές (ή «hashes») των 4.700 καταγγελιώνπου έλαβαν πέρυσι σχετικά με υλικό παιδικής σεξουαλικής κακοποίησης που αφορούσε την GenAI.

Εμείς συνεργαζόμαστε με τις αρχές επιβολής του νόμου, υποστηρίζοντας τις έρευνές τους και επενδύουμε σε μεγάλο βαθμό στις διεθνείς ομάδες μας Επιχειρήσεων Εμπιστοσύνης, Ασφάλειας και Επιβολής Νόμου που εργάζονται 24/7 για να διατηρήσουν ασφαλή την κοινότητάς μας. Διοργανώνουμε ετήσιες συναντήσεις για την επιβολή του νόμου στις Η.Π.Α. με στόχο να διασφαλίσουμε ότι αξιωματικοί και φορείς γνωρίζουν πώς να αναλάβουν την κατάλληλη δράση κατά κάθε παράνομης δραστηριότητας που μπορεί να λαμβάνει χώρα στην πλατφόρμα μας.

Επίσης, συνεχίζουμε να επεκτείνουμε τα εργαλεία αναφοράς εντός της εφαρμογής, τα οποία περιλαμβάνουν επιλογές για να επισημάνει η κοινότητά μας γυμνό και σεξουαλικό περιεχόμενο, και συγκεκριμένα CSEAI. Η αναφορά προβληματικού περιεχομένου και λογαριασμών είναι εξαιρετικά σημαντική στο να συνδράμει τις εταιρείες τεχνολογίας να αφαιρέσουν παραβάτες από τις υπηρεσίες τους και να εμποδίσουν περαιτέρω δραστηριότητα προτού δυνητικά προκαλέσει βλάβη σε άλλους. 

Πιο πρόσφατα, προσθέσαμε νέα χαρακτηριστικά στη σουίτα εργαλείων Family Center, τα οποία οι γονείς μπορούν να χρησιμοποιήσουν για να κατανοήσουν καλύτερα πώς τα έφηβα παιδιά τους χρησιμοποιούν το Snapchat, συμπεριλαμβανομένου του ΑΙ chatbot συνομιλίας. Κυκλοφορήσαμε επίσης νέους πόρους για να βοηθήσουμε τους εκπαιδευτικούς και τους διευθυντές σχολείων να κατανοήσουν πώς οι μαθητές τους χρησιμοποιούν το Snapchat και τους πόρους που προσφέρουμε για να βοηθήσουμε τα σχολεία στις προσπάθειές τους να δημιουργήσουν ασφαλή και υποστηρικτικά περιβάλλοντα για τους μαθητές.

Και, συνεχίζουμε να επενδύουμε σε τρόπους αύξησης της ενημέρωσης του κοινού και των Snapchatter σχετικά με τις διαδικτυακές σεξουαλικές βλάβες. Τα επεισόδια «Safety Snapshot»εντός της εφαρμογής εστιάζουν σε σεξουαλικούς κινδύνους, συμπεριλαμβανομένων θεμάτων όπως η αποπλάνηση και η εμπορία ανηλίκων. Ήμασταν επίσης η πρώτη οντότητα που υποστήριξε την Know2Protect, μια εκστρατεία του Υπουργείου Εσωτερικής Ασφάλειας των Η.Π.Α., εστιασμένη στην εκπαίδευση και την ενδυνάμωση των νέων, των γονέων, των έμπιστων ενηλίκων και των υπεύθυνων χάραξης πολιτικής σχετικά με τη διαδικτυακή σεξουαλική κακοποίηση παιδιών.

Ανυπομονούμε να συνεχίσουμε να συνεργαζόμαστε με όλους τους ενδιαφερόμενους φορείς - γονείς, νέους, εκπαιδευτικούς και υπεύθυνους χάραξης πολιτικής, για να αναφέρουμε μερικούς από αυτούς - σε τέτοιου είδους θέματα που αφορούν ολόκληρη την κοινωνία, και ελπίζουμε ότι οι γνώσεις από τη διαπλατφορμική έρευνά μας θα βοηθήσουν στη δημιουργία νέων ιδεών και ευκαιριών για να διασφαλίσουμε ότι οι άνθρωποι γνωρίζουν υπάρχουσες και νέες διαδικτυακές απειλές, καθώς και τους διαθέσιμους πόρους για την καταπολέμηση αυτών των κινδύνων.

— Viraj Doshi, Επικεφαλής Ασφάλειας Πλατφόρμας

Επιστροφή στα Νέα

1

Οι χώρες που περιλαμβάνονται στη μελέτη είναι: Αυστραλία, Γαλλία, Γερμανία, Ινδία, Ηνωμένο Βασίλειο και ΗΠΑ.

1

Οι χώρες που περιλαμβάνονται στη μελέτη είναι: Αυστραλία, Γαλλία, Γερμανία, Ινδία, Ηνωμένο Βασίλειο και ΗΠΑ.