Οι εικόνες φαίνονται αρκετά ρεαλιστικές για να παραπλανήσουν ή να αναστατώσουν τους ανθρώπους. Αλλά είναι όλα ψεύτικα που δημιουργούνται με τεχνητή νοημοσύνη που η Microsoft λέει ότι είναι ασφαλής — και έχει ενσωματωθεί απευθείας στο λογισμικό του υπολογιστή σας.
Αυτό που είναι εξίσου ανησυχητικό με τους αποκεφαλισμούς είναι ότι η Microsoft δεν ανησυχεί πολύ για να σταματήσει την τεχνητή νοημοσύνη της να τους κάνει.
Τον τελευταίο καιρό, απλοί χρήστες της τεχνολογίας όπως τα Windows και η Google έχουν πλημμυρίσει από AI. Είμαστε εντυπωσιασμένοι από το τι μπορεί να κάνει η νέα τεχνολογία, αλλά επίσης συνεχίζουμε να μαθαίνουμε ότι μπορεί ενεργούν με απρόσκοπτο τρόποσυμπεριλαμβανομένης της άσκησης άγριας ακατάλληλης συνομιλίες και καθιστώντας παρομοίως ακατάλληλη εικόνες. Προκειμένου η τεχνητή νοημοσύνη να είναι πραγματικά αρκετά ασφαλής για προϊόντα που χρησιμοποιούνται από οικογένειες, χρειαζόμαστε τους κατασκευαστές της να αναλάβουν την ευθύνη προβλέποντας πώς μπορεί να πάει στραβά και να επενδύσουν για να το διορθώσουν γρήγορα όταν συμβεί.
Στην περίπτωση αυτών των απαίσιων εικόνων τεχνητής νοημοσύνης, η Microsoft φαίνεται να ρίχνει μεγάλο μέρος της ευθύνης στους χρήστες που τις δημιουργούν.
Η συγκεκριμένη ανησυχία μου είναι με το Image Creator, μέρος του Το Bing της Microsoft και προστέθηκε πρόσφατα στο εμβληματικό Windows Paint. Αυτό το AI μετατρέπει το κείμενο σε εικόνες, χρησιμοποιώντας την τεχνολογία που ονομάζεται DALL-E 3 από τον συνεργάτη της Microsoft OpenAI. Πριν από δύο μήνες, ένας χρήστης που πειραματίστηκε με αυτό, μου έδειξε ότι οι προτροπές που διατυπώθηκαν με συγκεκριμένο τρόπο έκαναν την τεχνητή νοημοσύνη να δημιουργήσει εικόνες βίας κατά γυναικών, μειονοτήτων, πολιτικών και διασημοτήτων.
«Όπως συμβαίνει με κάθε νέα τεχνολογία, ορισμένοι προσπαθούν να τη χρησιμοποιήσουν με τρόπους που δεν προορίζονταν», δήλωσε ο εκπρόσωπος της Microsoft Donny Turnbaugh σε δήλωση που εστάλη μέσω email. “Ερευνούμε αυτές τις αναφορές και αναλαμβάνουμε δράση σύμφωνα με την πολιτική περιεχομένου μας, η οποία απαγορεύει τη δημιουργία επιβλαβούς περιεχομένου και θα συνεχίσουμε να ενημερώνουμε τα συστήματα ασφαλείας μας.”
Αυτό έγινε πριν από ένα μήνα, αφού προσέγγισα τη Microsoft ως δημοσιογράφος. Για εβδομάδες νωρίτερα, ο πληροφοριοδότης και εγώ είχαμε προσπαθήσει να ειδοποιήσουμε τη Microsoft μέσω φορμών σχολίων χρηστών και αγνοηθήκαμε. Από τη δημοσίευση αυτής της στήλης, η τεχνητή νοημοσύνη της Microsoft εξακολουθεί να κάνει εικόνες παραμορφωμένων κεφαλιών.
Αυτό δεν είναι ασφαλές για πολλούς λόγους, συμπεριλαμβανομένου του α γενικές εκλογές απέχει λιγότερο από ένα χρόνο και η τεχνητή νοημοσύνη της Microsoft διευκολύνει τη δημιουργία «deepfake» εικόνων πολιτικών, με και χωρίς θανάσιμες πληγές. Υπάρχει ήδη αυξανόμενα στοιχεία στα κοινωνικά δίκτυα συμπεριλαμβανομένου του X, πρώην Twitter και 4chan, ότι οι εξτρεμιστές χρησιμοποιούν το Image Creator για να διαδώσουν ρητά ρατσιστικά και αντισημιτικά μιμίδια.
Ίσως, επίσης, να μην θέλετε η τεχνητή νοημοσύνη να μπορεί να απεικονίζει αποκεφαλισμούς οπουδήποτε κοντά σε έναν υπολογιστή Windows που χρησιμοποιείται από τα παιδιά σας.
Η λογοδοσία είναι ιδιαίτερα σημαντική για τη Microsoft, η οποία είναι μια από τις πιο ισχυρές εταιρείες που διαμορφώνουν το μέλλον της τεχνητής νοημοσύνης. Έχει μια επένδυση πολλών δισεκατομμυρίων δολαρίων στον κατασκευαστή του ChatGPT OpenAI — η ίδια βρίσκεται σε αναταραχή σχετικά με το πώς να διατηρήσει την τεχνητή νοημοσύνη ασφαλή. Η Microsoft έχει προχωρήσει ταχύτερα από οποιαδήποτε άλλη εταιρεία Big Tech για να βάλει γενετική τεχνητή νοημοσύνη στις δημοφιλείς εφαρμογές της. Και το σύνολο των πωλήσεών του τόσο στους χρήστες όσο και στους νομοθέτες είναι ότι είναι το υπεύθυνος γίγαντας AI.
Η Microsoft, η οποία απέρριψε τα αιτήματά μου για συνέντευξη από ένα στέλεχος που είναι υπεύθυνο για την ασφάλεια της τεχνητής νοημοσύνης, έχει περισσότερους πόρους για τον εντοπισμό των κινδύνων και τη διόρθωση προβλημάτων από σχεδόν οποιαδήποτε άλλη εταιρεία. Αλλά η εμπειρία μου δείχνει ότι τα συστήματα ασφαλείας της εταιρείας, τουλάχιστον σε αυτό το κραυγαλέο παράδειγμα, απέτυχαν ξανά και ξανά. Ο φόβος μου είναι ότι η Microsoft δεν πιστεύει ότι είναι δικό της πρόβλημα.
Η Microsoft εναντίον της «προτροπής σκοτώματος»
Έμαθα για το πρόβλημα αποκεφαλισμού της Microsoft από τον Josh McDuffie. Ο 30χρονος Καναδός είναι μέρος μιας διαδικτυακής κοινότητας που φτιάχνει εικόνες τεχνητής νοημοσύνης που μερικές φορές μετατρέπονται σε πολύ κακόγουστο.
«Θα θεωρούσα τον εαυτό μου πολυτροπικό καλλιτέχνη που κριτικάρει τα κοινωνικά πρότυπα», μου λέει. Ακόμα κι αν είναι δύσκολο να καταλάβουμε γιατί ο McDuffie κάνει μερικές από αυτές τις εικόνες, η πρόκληση του εξυπηρετεί έναν σκοπό: να φωτίσει τη σκοτεινή πλευρά της τεχνητής νοημοσύνης.
Στις αρχές Οκτωβρίου, η προσοχή του McDuffie και των φίλων του επικεντρώθηκε στην τεχνητή νοημοσύνη από τη Microsoft, η οποία μόλις είχε κυκλοφορήσει ένα ενημερωμένο Image Creator για το Bing με την τελευταία τεχνολογία του OpenAI. Microsoft λέει στον ιστότοπο του Image Creator ότι διαθέτει «χειριστήρια για να αποτρέψει τη δημιουργία επιβλαβών εικόνων». Αλλά ο Μακ Ντάφι σύντομα κατάλαβε ότι είχαν μεγάλες τρύπες.
Σε γενικές γραμμές, η Microsoft έχει δύο τρόπους για να αποτρέψει το AI της από τη δημιουργία επιβλαβών εικόνων: την είσοδο και την έξοδο. Η εισαγωγή είναι πώς το AI εκπαιδεύεται με δεδομένα από το Διαδίκτυο, το οποίο του διδάσκει πώς να μετατρέπει λέξεις σε σχετικές εικόνες. Η Microsoft δεν αποκαλύπτει πολλά σχετικά με την εκπαίδευση που πραγματοποιήθηκε στο AI της και τι είδους βίαιες εικόνες περιείχε.
Οι εταιρείες μπορούν επίσης να προσπαθήσουν να δημιουργήσουν προστατευτικά κιγκλιδώματα που εμποδίζουν τα προϊόντα τεχνητής νοημοσύνης της Microsoft να παράγουν συγκεκριμένα είδη παραγωγής. Αυτό απαιτεί την πρόσληψη επαγγελματιών, που μερικές φορές αποκαλούνται κόκκινες ομάδες, για να διερευνήσει προληπτικά το AI για το πού μπορεί να παράγει επιβλαβείς εικόνες. Ακόμη και μετά από αυτό, οι εταιρείες χρειάζονται ανθρώπους για να παίζουν «χτυπήστε» καθώς χρήστες όπως ο McDuffie ξεπερνούν τα όρια και εκθέτουν περισσότερα προβλήματα.
Αυτό ακριβώς έκανε ο Μακ Ντάφι τον Οκτώβριο όταν ζήτησε από την τεχνητή νοημοσύνη να απεικονίσει ακραία βία, συμπεριλαμβανομένων μαζικών πυροβολισμών και αποκεφαλισμών. Μετά από κάποιους πειραματισμούς, ανακάλυψε μια προτροπή που λειτούργησε και της ονόμασε «προτροπή σκότωσης».
Η προτροπή — την οποία σκόπιμα δεν κοινοποιώ εδώ — δεν περιλαμβάνει ειδικό κωδικό υπολογιστή. Είναι έξυπνα γραμμένο αγγλικά. Για παράδειγμα, αντί να γράψει ότι τα σώματα στις εικόνες πρέπει να είναι «ματωμένα», έγραψε ότι πρέπει να περιέχουν κόκκινο σιρόπι καλαμποκιού, που χρησιμοποιείται συνήθως σε ταινίες για να μοιάζουν με αίμα.
Ο Μακ Ντάφι συνέχιζε να πιέζει βλέποντας εάν μια εκδοχή της προτροπής του θα έκανε βίαιες εικόνες που στοχεύουν συγκεκριμένες ομάδες, συμπεριλαμβανομένων των γυναικών και των εθνικών μειονοτήτων. Το έκανε. Στη συνέχεια ανακάλυψε ότι θα έκανε και τέτοιες εικόνες με διασημότητες και πολιτικούς.
Τότε ήταν που ο Μακ Ντάφι αποφάσισε ότι τα πειράματά του είχαν πάει πολύ μακριά.
Τρεις ημέρες νωρίτερα, η Microsoft είχε ξεκινήσει ένα “Πρόγραμμα επιβράβευσης σφαλμάτων AI», προσφέροντας στους ανθρώπους έως 15.000 $ «για να ανακαλύψετε τρωτά σημεία στη νέα, καινοτόμο εμπειρία Bing με τεχνητή νοημοσύνη». Έτσι, ο McDuffie ανέβασε το δικό του “kill prompt” – ουσιαστικά, παραδίδοντας τον εαυτό του για πιθανή οικονομική αποζημίωση.
Μετά από δύο ημέρες, η Microsoft του έστειλε ένα email λέγοντας ότι η υποβολή του είχε απορριφθεί. “Αν και η αναφορά σας περιλάμβανε ορισμένες καλές πληροφορίες, δεν πληροί την απαίτηση της Microsoft ως ευπάθεια ασφαλείας για την εξυπηρέτηση”, αναφέρει το μήνυμα ηλεκτρονικού ταχυδρομείου.
Μη βέβαιος εάν η παράκαμψη των προστατευτικών κιγκλιδωμάτων με επιβλαβή εικόνα θεωρείται «ευπάθεια ασφαλείας», ο McDuffie υπέβαλε ξανά την προτροπή του, χρησιμοποιώντας διαφορετικές λέξεις για να περιγράψει το πρόβλημα.
Απορρίφθηκε κι αυτό. «Είχα ήδη μια αρκετά επικριτική άποψη για τις εταιρείες, ειδικά στον τεχνολογικό κόσμο, αλλά όλη αυτή η εμπειρία ήταν αρκετά αποθαρρυντική», λέει.
Απογοητευμένος, ο McDuffie μοιράστηκε την εμπειρία του μαζί μου. Υπέβαλα ο ίδιος το “kill prompt” του στο bounty AI και έλαβα το ίδιο email απόρριψης.
Σε περίπτωση που το bounty AI δεν ήταν ο σωστός προορισμός, κατέθεσα επίσης την ανακάλυψη του McDuffie στο MicrosoftΑναφέρετε μια ανησυχία στο Bing», ο οποίος έχει μια συγκεκριμένη φόρμα για να αναφέρει «προβληματικό περιεχόμενο» από το Image Creator. Περίμενα μια εβδομάδα και δεν άκουσα.
Εν τω μεταξύ, η τεχνητή νοημοσύνη συνέχιζε να απεικονίζει αποκεφαλισμούς και ο Μακ Ντάφι μου έδειξε ότι εικόνες που φαινόταν να εκμεταλλεύονται παρόμοιες αδυναμίες στα προστατευτικά κιγκλιδώματα της Microsoft εμφανίζονταν στα μέσα κοινωνικής δικτύωσης.
Είχα δει αρκετά. Κάλεσα τον επικεφαλής επικοινωνίας της Microsoft και του είπα για το πρόβλημα.
«Σε αυτήν την περίπτωση, υπάρχουν περισσότερα που θα μπορούσαμε να είχαμε κάνει», έστειλε η Microsoft μέσω email σε δήλωση από την Turnbaugh στις 27 Νοεμβρίου. «Οι ομάδες μας επανεξετάζουν την εσωτερική μας διαδικασία και κάνουν βελτιώσεις στα συστήματά μας για την καλύτερη αντιμετώπιση των σχολίων των πελατών και την πρόληψη της δημιουργίας επιβλαβές περιεχόμενο στο μέλλον.”
Πίεσα τη Microsoft για το πώς η προτροπή του McDuffie πέρασε από τα προστατευτικά κιγκλιδώματα της. «Η προτροπή για τη δημιουργία μιας βίαιης εικόνας χρησιμοποίησε πολύ συγκεκριμένη γλώσσα για να παρακάμψει το σύστημά μας», ανέφερε η εταιρεία σε ένα email της 5ης Δεκεμβρίου. «Έχουμε μεγάλες ομάδες που εργάζονται για να αντιμετωπίσουν αυτά και παρόμοια ζητήματα και έχουμε βελτιώσει τους μηχανισμούς ασφαλείας που εμποδίζουν αυτές τις προτροπές να λειτουργήσουν και θα συλλάβουν παρόμοιους τύπους προτροπών προχωρώντας».
Η ακριβής αρχική προτροπή του McDuffie δεν λειτουργεί πλέον, αλλά αφού άλλαξε μερικές λέξεις, το Image Generator εξακολουθεί να δημιουργεί εικόνες ανθρώπων με τραυματισμούς στο λαιμό και το πρόσωπό τους. Μερικές φορές το AI απαντά με το μήνυμα “Εντοπίστηκε μη ασφαλές περιεχόμενο”, αλλά όχι πάντα.
Οι εικόνες που παράγει είναι λιγότερο αιματηρές τώρα – η Microsoft φαίνεται να έχει κολλήσει το κόκκινο σιρόπι καλαμποκιού – αλλά εξακολουθούν να είναι απαίσια.
Πώς μοιάζει το υπεύθυνο AI
Οι επανειλημμένες αποτυχίες της Microsoft να ενεργήσει αποτελούν κόκκινη σημαία. Τουλάχιστον, δείχνει ότι η κατασκευή προστατευτικών κιγκλιδωμάτων τεχνητής νοημοσύνης δεν αποτελεί πολύ υψηλή προτεραιότητα, παρά τις δημόσιες δεσμεύσεις της εταιρείας για τη δημιουργία υπεύθυνη AI.
Δοκίμασα το “kill prompt” του McDuffie σε μισή ντουζίνα ανταγωνιστών τεχνητής νοημοσύνης της Microsoft, συμπεριλαμβανομένων μικροσκοπικών start-ups. Όλοι εκτός από έναν απλώς αρνήθηκαν να δημιουργήσουν εικόνες με βάση αυτό.
Το χειρότερο είναι ότι ακόμη και το DALL-E 3 από το OpenAI —της εταιρείας που κατέχει εν μέρει η Microsoft— μπλοκάρει την προτροπή του McDuffie. Γιατί η Microsoft δεν θα χρησιμοποιούσε τουλάχιστον τεχνικά προστατευτικά κιγκλιδώματα από τον δικό της συνεργάτη; Η Microsoft δεν είπε.
Αλλά κάτι που είπε η Microsoft, δύο φορές, στις δηλώσεις της προς εμένα μου τράβηξε την προσοχή: οι άνθρωποι προσπαθούν να χρησιμοποιήσουν την τεχνητή νοημοσύνη της «με τρόπους που δεν είχαν σκοπό». Σε κάποιο επίπεδο, η εταιρεία πιστεύει ότι το πρόβλημα είναι η McDuffie επειδή χρησιμοποιεί την τεχνολογία της με κακό τρόπο.
Στα νομικά της ΑΙ της εταιρείας πολιτική περιεχομένουοι δικηγόροι της Microsoft ξεκαθαρίζουν ότι τα χρήματα δεν πρέπει να κάνουν με τους χρήστες: «Μην επιχειρήσετε να δημιουργήσετε ή να μοιραστείτε περιεχόμενο που θα μπορούσε να χρησιμοποιηθεί για παρενόχληση, εκφοβισμό, κακοποίηση, απειλή ή εκφοβισμό άλλων ατόμων ή με οποιονδήποτε άλλο τρόπο πρόκληση βλάβης σε άτομα, οργανισμούς ή κοινωνία .»
Έχω ακούσει άλλους στη Silicon Valley να κάνουν μια εκδοχή αυτού του επιχειρήματος. Γιατί πρέπει να κατηγορούμε περισσότερο το Image Creator της Microsoft παρά το Photoshop της Adobe, το οποίο οι κακοί άνθρωποι χρησιμοποιούν εδώ και δεκαετίες για να κάνουν κάθε είδους τρομερές εικόνες;
Αλλά τα προγράμματα AI διαφέρουν από το Photoshop. Πρώτον, το Photoshop δεν διαθέτει ένα στιγμιαίο κουμπί «αποκεφαλίζω τον Πάπα». «Η ευκολία και ο όγκος του περιεχομένου που μπορεί να παράγει η τεχνητή νοημοσύνη το κάνει πολύ πιο προβληματικό. Έχει περισσότερες δυνατότητες να χρησιμοποιηθεί από κακούς ηθοποιούς», λέει ο McDuffie. «Αυτές οι εταιρείες βγάζουν δυνητικά επικίνδυνη τεχνολογία και προσπαθούν να μεταθέσουν την ευθύνη στον χρήστη».
Το επιχείρημα των κακών χρηστών μου δίνει επίσης αναδρομές στο Facebook στα μέσα της δεκαετίας του 2010, όταν το κοινωνικό δίκτυο «move fast and break things» ενήργησε σαν να μην ήταν υπεύθυνο για να εμποδίσει τους ανθρώπους να οπλίσουν την τεχνολογία του για να διαδώσουν παραπληροφόρηση και μίσος. Αυτή η στάση οδήγησε στην προσπάθεια του Facebook να σβήσει τη μια φωτιά μετά την άλλη, με πραγματική ζημιά στην κοινωνία.
«Βασικά, δεν νομίζω ότι πρόκειται για τεχνολογικό πρόβλημα. Νομίζω ότι είναι πρόβλημα καπιταλισμού», λέει Χάνυ Φαρίντ, καθηγητής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ. «Όλοι κοιτάζουν αυτό το τελευταίο κύμα τεχνητής νοημοσύνης και σκέφτονται, «Δεν μπορούμε να χάσουμε το σκάφος εδώ».
Και προσθέτει: «Η εποχή του «προχωρήστε γρήγορα και σπάστε τα πράγματα» ήταν πάντα ηλίθια και τώρα περισσότερο από ποτέ».
Το να επωφεληθείτε από την πιο πρόσφατη τρέλα ενώ κατηγορείτε κακούς ανθρώπους για κακή χρήση της τεχνολογίας σας είναι απλώς ένας τρόπος να αποφύγετε την ευθύνη.