Το πρόγραμμα δημιουργίας κειμένου σε εικόνα τεχνητής νοημοσύνης της Microsoft Copilot Designer φαίνεται να φιλτράρει σε μεγάλο βαθμό τα αποτελέσματα αφού ένας μηχανικός της Microsoft, ο Shane Jones, προειδοποίησε ότι η Microsoft αγνόησε τις προειδοποιήσεις ότι το εργαλείο δημιουργεί τυχαία βίαιες και σεξουαλικές εικόνες, CNBC έχουν αναφερθεί.
Ο Τζόουνς είπε στο CNBC ότι προειδοποίησε επανειλημμένα τη Microsoft για το ανησυχητικό περιεχόμενο που έβλεπε ενώ ήταν εθελοντής στις προσπάθειες της red-teaming για να δοκιμάσει τα τρωτά σημεία του εργαλείου. Η Microsoft απέτυχε να καταργήσει το εργαλείο ή να εφαρμόσει διασφαλίσεις ως απάντηση, είπε ο Τζόουνς, ή ακόμη και να δημοσιεύσει αποκαλύψεις για να αλλάξει την αξιολόγηση του προϊόντος ώστε να ωριμάσει στο κατάστημα Android.
Αντίθετα, η Microsoft προφανώς δεν έκανε τίποτα άλλο παρά τον παρέπεμψε να αναφέρει το ζήτημα στο OpenAI, τον κατασκευαστή του μοντέλου DALL-E που τροφοδοτεί τα αποτελέσματα του Copilot Designer.
Το OpenAI δεν απάντησε ποτέ, είπε ο Τζόουνς, έτσι έλαβε ολοένα και πιο δραστικά μέτρα για να ειδοποιήσει το κοινό για ζητήματα που εντόπισε στο εργαλείο της Microsoft.
Ξεκίνησε δημοσιεύοντας μια ανοιχτή επιστολή, καλώντας το OpenAI στο LinkedIn. Στη συνέχεια, όταν η νομική ομάδα της Microsoft του είπε να το καταργήσει, έκανε ό,τι του είπαν, αλλά έστειλε επίσης επιστολές σε νομοθέτες και άλλους ενδιαφερόμενους φορείς, υψώνοντας κόκκινες σημαίες προς κάθε κατεύθυνση. Αυτό περιλαμβάνει επιστολές που στάλθηκαν σήμερα στην Ομοσπονδιακή Επιτροπή Εμπορίου και στο διοικητικό συμβούλιο της Microsoft, ανέφερε το CNBC.
Στην επιστολή του Jones προς την Πρόεδρο της FTC Lina Khan, ο Jones είπε ότι η Microsoft και το OpenAI γνωρίζουν αυτά τα ζητήματα τουλάχιστον από τον Οκτώβριο και θα “συνεχίσουν να εμπορεύονται το προϊόν στο “Anyone. Anywhere. Any Device”” εκτός εάν παρέμβει η FTC.
Το Bloomberg εξέτασε επίσης την επιστολή του Jones και έχουν αναφερθεί ότι ο Jones είπε στην FTC ότι ενώ το Copilot Designer διατίθεται επί του παρόντος ως ασφαλές για παιδιά, δημιουργεί τυχαία «ακατάλληλη, σεξουαλικά αντικειμενοποιημένη εικόνα μιας γυναίκας σε ορισμένες από τις φωτογραφίες που δημιουργεί». Και μπορεί επίσης να χρησιμοποιηθεί για τη δημιουργία «επιβλαβούς περιεχομένου σε μια ποικιλία άλλων κατηγοριών, όπως: πολιτική προκατάληψη, χρήση αλκοόλ και ναρκωτικών από ανήλικους, κατάχρηση εταιρικών σημάτων και πνευματικών δικαιωμάτων, θεωρίες συνωμοσίας και θρησκεία για να αναφέρουμε μερικές».
Σε ξεχωριστή επιστολή, ο Τζόουνς ζήτησε επίσης από το συμβούλιο της Microsoft να διερευνήσει τη λήψη αποφάσεων τεχνητής νοημοσύνης της Microsoft και να πραγματοποιήσει «ανεξάρτητη επανεξέταση των διαδικασιών αναφοράς περιστατικών τεχνητής νοημοσύνης της Microsoft». Αυτό είναι απαραίτητο αφού ο Jones κατέβαλε «εξαιρετικές προσπάθειες για να προσπαθήσει να θίξει αυτό το ζήτημα εσωτερικά», συμπεριλαμβανομένης της αναφοράς απευθείας τόσο στο Office of Responsible AI της Microsoft όσο και στο «ανώτερο στέλεχος υπεύθυνο για το Copilot Designer», ανέφερε το CNBC.
Ένας εκπρόσωπος της Microsoft δεν επιβεβαίωσε εάν η Microsoft λαμβάνει μέτρα για το φιλτράρισμα των εικόνων, αλλά η προσπάθεια του Ars να αναπαράγει μηνύματα που κοινοποιήθηκαν από τον Jones δημιούργησε μηνύματα σφάλματος. Αντίθετα, ένας εκπρόσωπος της Microsoft θα μοιράζεται μόνο την ίδια δήλωση που παρέχεται στο CNBC:
Δεσμευόμαστε να αντιμετωπίζουμε οποιεσδήποτε και όλες τις ανησυχίες των εργαζομένων σύμφωνα με τις πολιτικές της εταιρείας μας και εκτιμούμε την προσπάθεια του εργαζομένου να μελετήσει και να δοκιμάσει την τελευταία μας τεχνολογία για να ενισχύσει περαιτέρω την ασφάλειά του. Όταν πρόκειται για παρακάμψεις ασφαλείας ή ανησυχίες που θα μπορούσαν να έχουν δυνητικό αντίκτυπο στις υπηρεσίες μας ή στους συνεργάτες μας, έχουμε δημιουργήσει εργαλεία σχολίων χρηστών εντός προϊόντος και ισχυρά εσωτερικά κανάλια αναφοράς για τη σωστή διερεύνηση, ιεράρχηση και αποκατάσταση τυχόν ζητημάτων, τα οποία προτείνουμε να ο υπάλληλος χρησιμοποιήσει ώστε να μπορέσουμε να επικυρώσουμε και να ελέγξουμε κατάλληλα τις ανησυχίες του. Διευκολύναμε επίσης συναντήσεις με την ηγεσία του προϊόντος και το Γραφείο Υπεύθυνης Τεχνητής Νοημοσύνης για την εξέταση αυτών των αναφορών και ενσωματώνουμε συνεχώς αυτά τα σχόλια για να ενισχύσουμε τα υπάρχοντα συστήματα ασφαλείας μας για να παρέχουμε μια ασφαλή και θετική εμπειρία σε όλους.
Το OpenAI δεν απάντησε στο αίτημα του Ars να σχολιάσει.