- Από τον Joe Tidy
- Κυβερνοανταποκριτής
Μια φιλανθρωπική οργάνωση που βοηθά άτομα που ανησυχούν για τις δικές τους σκέψεις ή συμπεριφορά λέει ότι ένας αυξανόμενος αριθμός καλούντων αισθάνεται σύγχυση σχετικά με την ηθική της προβολής εικόνων κακοποίησης παιδιών με τεχνητή νοημοσύνη.
Το Ίδρυμα Lucy Faithfull (LFF) λέει ότι οι εικόνες AI λειτουργούν ως πύλη.
Η φιλανθρωπική οργάνωση προειδοποιεί ότι η δημιουργία ή η προβολή τέτοιων εικόνων εξακολουθεί να είναι παράνομη ακόμα κι αν τα παιδιά δεν είναι αληθινά.
Ο Neil, όχι το πραγματικό του όνομα, επικοινώνησε με τη γραμμή βοήθειας αφού συνελήφθη για τη δημιουργία εικόνων AI.
Ο 43χρονος αρνήθηκε ότι είχε οποιαδήποτε σεξουαλική έλξη για παιδιά.
Ο εργαζόμενος στον τομέα της πληροφορικής, ο οποίος χρησιμοποίησε λογισμικό τεχνητής νοημοσύνης για να φτιάξει τις δικές του απρεπείς εικόνες παιδιών χρησιμοποιώντας μηνύματα κειμένου, είπε ότι δεν θα έβλεπε ποτέ τέτοιες εικόνες πραγματικών παιδιών επειδή δεν τον ελκύουν. Ισχυρίστηκε απλώς ότι ήταν γοητευμένος από την τεχνολογία.
Κάλεσε το LFF για να προσπαθήσει να καταλάβει τις σκέψεις του και οι χειριστές κλήσεων του υπενθύμισαν ότι οι ενέργειές του είναι παράνομες, ανεξάρτητα από το αν τα παιδιά είναι αληθινά ή όχι.
Η φιλανθρωπική οργάνωση λέει ότι είχε παρόμοιες κλήσεις από άλλους που εκφράζουν σύγχυση.
Μια άλλη τηλεφωνήτρια ήρθε σε επαφή αφού ανακάλυψε ότι ο 26χρονος σύντροφός της έβλεπε άσεμνες εικόνες παιδιών με τεχνητή νοημοσύνη, αλλά είπε ότι δεν ήταν σοβαρές επειδή οι φωτογραφίες “δεν είναι αληθινές”. Ο δράστης έκτοτε ζήτησε βοήθεια.
Μια δασκάλα ζήτησε τη συμβουλή της φιλανθρωπικής οργάνωσης επειδή ο 37χρονος σύντροφός της έβλεπε εικόνες που έμοιαζαν παράνομες, αλλά κανένας από τους δύο δεν ήταν σίγουρος αν ήταν.
Ο Donald Findlater του LFF λέει ότι ορισμένοι καλούντες στην εμπιστευτική γραμμή βοήθειας Stop It Now πιστεύουν ότι οι εικόνες τεχνητής νοημοσύνης θολώνουν τα όρια για το τι είναι παράνομο και ηθικά λάθος.
“Αυτή είναι μια επικίνδυνη άποψη. Μερικοί παραβάτες πιστεύουν ότι αυτό το υλικό είναι κατά κάποιο τρόπο εντάξει για δημιουργία ή προβολή επειδή δεν υπάρχουν παιδιά που να τραυματίζονται, αλλά αυτό είναι λάθος”, λέει.
Σε ορισμένες περιπτώσεις, οι εικόνες κατάχρησης τεχνητής νοημοσύνης μπορεί επίσης να επισημαίνονται λανθασμένα ή να διαφημίζονται ως κατασκευασμένες από τεχνητή νοημοσύνη και η διαφορά στον ρεαλισμό γίνεται πιο δύσκολο να εντοπιστεί.
Ο κ. Findlater λέει ότι η παρεκκλίνουσα σεξουαλική φαντασίωση είναι ο ισχυρότερος προγνωστικός παράγοντας επανάληψης εγκλήματος για όποιον καταδικαστεί για σεξουαλικό έγκλημα.
«Αν τροφοδοτείτε αυτή την αποκλίνουσα φαντασίωση, τότε κάνετε πιο πιθανό να κάνετε κακό στα παιδιά», είπε.
Η φιλανθρωπική οργάνωση λέει ότι ο αριθμός των καλούντων που αναφέρουν εικόνες τεχνητής νοημοσύνης ως λόγο για την προσβολή τους παραμένει χαμηλός, αλλά αυξάνεται. Το ίδρυμα προτρέπει την κοινωνία να αναγνωρίσει το πρόβλημα και τους νομοθέτες να κάνουν κάτι για να μειώσουν την ευκολία με την οποία δημιουργείται και δημοσιεύεται διαδικτυακό υλικό σεξουαλικής κακοποίησης παιδιών (CSAM).
Παρόλο που η φιλανθρωπική οργάνωση δεν κατονόμασε συγκεκριμένους ιστότοπους όπου βρήκε τις εικόνες, ένας δημοφιλής ιστότοπος τέχνης τεχνητής νοημοσύνης ήταν κατηγορείται ότι επιτρέπει στους χρήστες να δημοσιεύουν σεξουαλικές και γραφικές εικόνες πολύ νεαρών μοντέλων. Όταν το BBC προσέγγισε το Civit.ai για το θέμα τον Νοέμβριο, η εταιρεία είπε ότι λαμβάνει το ενδεχόμενο CSAM στον ιστότοπο “πολύ σοβαρά” και ζητά από την κοινότητα να αναφέρει εικόνες που οι χρήστες θεωρούν ότι “απεικονίζουν ανήλικους χαρακτήρες/άτομα σε ενήλικες ή φωτορεαλιστικό πλαίσιο».
Το LFF προειδοποίησε επίσης ότι οι νέοι δημιουργούν CSAM χωρίς να συνειδητοποιούν τη σοβαρότητα του αδικήματος. Ένας τηλεφωνητής, για παράδειγμα, ανησυχούσε για τον 12χρονο γιο του που είχε χρησιμοποιήσει μια εφαρμογή AI για να δημιουργήσει ακατάλληλες τόπλες φωτογραφίες φίλων και στη συνέχεια έψαξε για όρους όπως “γυμνός έφηβος” στο διαδίκτυο.
Πρόσφατα ξεκίνησαν ποινικές υποθέσεις στην Ισπανία και τις ΗΠΑ εναντίον νεαρών αγοριών που χρησιμοποιούν εφαρμογές απολέπισης για να δημιουργήσουν γυμνές φωτογραφίες φίλων του σχολείου.
Στο Ηνωμένο Βασίλειο, ο Graeme Biggar, επικεφαλής της Εθνικής Υπηρεσίας Εγκλήματος, είπε τον Δεκέμβριο ότι ήθελε να δει αυστηρότερες ποινές για τους παραβάτες που διαθέτουν εικόνες κακοποίησης παιδιών, προσθέτοντας ότι οι εικόνες κακοποίησης τεχνητής νοημοσύνης «έχουν σημασία, επειδή εκτιμούμε ότι η προβολή αυτών των εικόνων – είτε πραγματικών είτε δημιουργημένων από τεχνητή νοημοσύνη – αυξάνει ουσιαστικά τον κίνδυνο να προχωρήσουν οι δράστες σε σεξουαλικά κακοποιούν τα ίδια τα παιδιά».
Μερικοί συνεισφέροντες ζήτησαν να αποσιωπηθούν τα ονόματά τους σε αυτό το κομμάτι.