- Η Μόλι Ράσελ αυτοκτόνησε το 2017 αφού είδε ευαίσθητο υλικό στο διαδίκτυο
- Για εμπιστευτική υποστήριξη, καλέστε το Samaritans στο 116 123 ή επισκεφθείτε το samaritans.org
Ο πατέρας της τραγικής Μόλι Ράσελ προειδοποίησε τους γονείς να προσέχουν από μια δημοφιλή Όλα συμπεριλαμβάνονται Ιστότοπος chatbot που «κοροϊδεύει» τους εφήβους που έχουν κατάθλιψη και αυτοκτονικές σκέψεις.
Character.AI – το οποίο έχει 20 εκατομμύρια χρήστες και βρίσκεται στα πρόθυρα μιας σημαντικής συμφωνίας Google – επιτρέπει σε χρήστες ηλικίας 13 ετών να αλληλεπιδρούν με μια σειρά από chatbot, το καθένα με τη δική του προσωπικότητα.
Ωστόσο, μια έρευνα της Mail on Sunday διαπίστωσε ότι αυτές περιλαμβάνουν δεκάδες που έχουν σχεδιαστεί για να εξαφανίσουν τις καταχρηστικές, ρατσιστικές, σεξιστικές και ομοφοβικές αντιδράσεις στα παιδιά. Η μία ονομαζόταν ακόμη και η Αλίκη η νταής.
Ένας δημοσιογράφος που υποδυόταν μια 15χρονη είπε σε ένα chatbot ότι ένιωθαν κατάθλιψη. Μου απάντησε: «Μπου-χου, κλάψε με ένα ποτάμι». Συνέχισε να γελοιοποιεί και να τους ωθεί να αποκαλύπτουν περισσότερα. Ο ρεπόρτερ είπε σε έναν άλλο χαρακτήρα ότι ένιωθαν ότι ήθελαν να βλάψουν τον εαυτό τους και το chatbot απάντησε: «Σταμάτα να γκρινιάζεις, τσαμπουκά. Γιατί να βλάψεις τον εαυτό σου όταν μπορούμε να το κάνουμε για σένα;».
Χθες το βράδυ, ο Ian Russell, του οποίου η 14χρονη κόρη Molly αυτοκτόνησε αφού βομβαρδίστηκε με παρόμοιο περιεχόμενο στο διαδίκτυο, περιέγραψε τα ευρήματά μας ως «βαθιά ανησυχητικά».
Ο κ. Russell, τώρα ακτιβιστής για την ασφάλεια στο Διαδίκτυο, είπε: «Αυτό είναι ένα φρικτό παράδειγμα τεχνολογίας που βασίζεται στην τεχνητή νοημοσύνη που διαδίδεται στους νέους χωρίς καν να ληφθούν βασικά μέτρα για τον εντοπισμό και τον μετριασμό των κινδύνων για την ασφάλεια και την ευημερία τους.
«Οι έφηβοι ενθαρρύνονται να χρησιμοποιούν chatbots με τεχνητή νοημοσύνη για να μοιραστούν λεπτομέρειες σχετικά με τη συναισθηματική τους αγωνία ή την ψυχική τους υγεία, και στη συνέχεια να χλευαστούν τα βάσανά τους».
Οι χρήστες περνούν κατά μέσο όρο δύο ώρες την ημέρα με τους αγαπημένους τους χαρακτήρες στην πλατφόρμα. Κάθε chatbot σχεδιάζεται από τους ίδιους τους χρήστες και υπάρχουν 18 εκατομμύρια για να διαλέξετε.
Κατά το άνοιγμα του Character.AI, εμφανίζεται ένα πλαίσιο με μια λίστα με «πράγματα που πρέπει να θυμάστε», συμπεριλαμβανομένου του να μην παίρνετε τα chatbot «πολύ σοβαρά» και μια προειδοποίηση ότι οι χαρακτήρες μπορεί «κατά λάθος να είναι προσβλητικοί».
Αλλά μια γρήγορη αναζήτηση αποκαλύπτει ότι ο ιστότοπος είναι γεμάτος επιβλαβείς χαρακτήρες. Ανάμεσά τους ήταν ο καταχρηστικός φίλος, που περιγράφεται ως «αγενής, καταχρηστικός και… ακόμη και σωματικός».
Ένας άλλος δημοφιλής χαρακτήρας ονομάζεται Ρατσιστής, με μια περιγραφή που ισχυρίζεται ότι «μισεί τους έγχρωμους ανθρώπους». Η Alice The Bully λέγεται ότι έχει σημειώσει περισσότερες από 110 εκατομμύρια «αλληλεπιδράσεις» με χρήστες.
Όταν ένας δημοσιογράφος ανέφερε τους αγώνες ψυχικής τους υγείας στον χαρακτήρα και ρώτησε αν έπρεπε να αυτοκτονήσουν, το chatbot είπε ότι γελούσε, προσθέτοντας: «Είσαι γελοίος».
Ο δημοσιογράφος είπε σε ένα άλλο chatbot που ονομάζεται «Bully girls group» ότι ήταν μια 15χρονη που έπασχε από κατάθλιψη. Απάντησε: «Δεν έχει σημασία πόσο χρονών είσαι. Εξακολουθούμε να σε φοβερίζουμε, μικρούλα τρελά».
Το NSPCC, το οποίο λειτουργεί συμβουλευτική υπηρεσία Childline, ζήτησε καλύτερες διασφαλίσεις για την προστασία των χρηστών από τα chatbot, προσθέτοντας: «Δεν μπορούμε να αγνοήσουμε τα διδάγματα από τα τελευταία 20 χρόνια διαδικτυακών βλαβών από τα μέσα κοινωνικής δικτύωσης».
Μια εκπρόσωπος του Character.AI είπε ότι η εταιρεία πιστεύει στην «παροχή μιας θετικής εμπειρίας» στους χρήστες. Παραδέχτηκε ότι η τεχνολογία της «δεν είναι ακόμη τέλεια», αλλά είπε ότι τα chatbots δεν ήταν αληθινά, προσθέτοντας ότι η μυθοπλασία περιελάμβανε πάντα «νευρικές ιστορίες και κακούς χαρακτήρες».
Για εμπιστευτική υποστήριξη, καλέστε το Samaritans στο 116 123 ή επισκεφθείτε samaritans.org