Οι γερουσιαστές ζήτησαν επίσης από την εταιρεία πληροφορίες σχετικά με τις συμφωνίες εργαζομένων, οι οποίες θα μπορούσαν να έχουν φιμώσει τους εργαζόμενους που ήθελαν να ειδοποιήσουν τις ρυθμιστικές αρχές για κινδύνους. Σε επιστολή του Ιουλίου προς την Επιτροπή Κεφαλαιαγοράς, Οι πληροφοριοδότες του OpenAI είπαν ότι είχαν καταθέσει α καταγγελία με την υπηρεσία που ισχυρίζεται ότι η εταιρεία εξέδωσε παράνομα περιοριστικές συμφωνίες απόλυσης, μη αποκάλυψης και εργαζομένων, τιμωρώντας πιθανώς τους εργαζόμενους που ήθελαν να εκφράσουν ανησυχίες στις ομοσπονδιακές ρυθμιστικές αρχές.
Σε μια δήλωση στο The Post νωρίτερα αυτό το μήνα, η εκπρόσωπος του OpenAI, Hannah Wong, είπε ότι η εταιρεία έχει «κάνει σημαντικές αλλαγές στη διαδικασία αναχώρησής μας για να αφαιρέσει τους όρους μη απαξίωσης» από τις συμφωνίες προσωπικού.
Η επιστολή έρχεται εν μέσω ανησυχιών των εργαζομένων ότι η OpenAI βάζει το κέρδος πάνω από την ασφάλεια στη δημιουργία της τεχνολογίας της. Αναφέρει α Έκθεση Ιουλίου στο The Post περιγράφοντας λεπτομερώς πώς η OpenAI κυκλοφόρησε το τελευταίο της μοντέλο τεχνητής νοημοσύνης, το GPT-4 Omni, για να καλύψει την ημερομηνία κυκλοφορίας του Μαΐου. Οι ηγέτες της εταιρείας προχώρησαν στην κυκλοφορία, παρά τις ανησυχίες των εργαζομένων σχετικά με το χρονικό πλαίσιο, και επιτάχυναν τις εκτενείς δοκιμές ασφάλειας, υπονομεύοντας τη δέσμευση ασφάλειας του Ιουλίου 2023 στον Λευκό Οίκο.
ΠΛΗΡΩΘΕΙΤΕ
Ιστορίες για να σας κρατάμε ενήμερους
«Δεδομένης της θέσης της OpenAI ως κορυφαίας εταιρείας τεχνητής νοημοσύνης, είναι σημαντικό το κοινό να μπορεί να εμπιστεύεται την ασφάλεια και την ασφάλεια των συστημάτων της», έγραψαν οι γερουσιαστές. «Αυτό περιλαμβάνει την ακεραιότητα της δομής διακυβέρνησης και τις δοκιμές ασφάλειας της εταιρείας, τις πρακτικές απασχόλησης, την πιστότητά της στις δημόσιες υποσχέσεις και την αποστολή της και τις πολιτικές της στον κυβερνοχώρο».
«Η τεχνητή νοημοσύνη είναι μια μεταμορφωτική νέα τεχνολογία και εκτιμούμε τη σημασία που έχει για την ανταγωνιστικότητα και την εθνική ασφάλεια των ΗΠΑ», δήλωσε η εκπρόσωπος του OpenAI, Liz Bourgeois. «Παίρνουμε πολύ σοβαρά τον ρόλο μας στην ανάπτυξη ασφαλούς και ασφαλούς τεχνητής νοημοσύνης και συνεχίζουμε να εργαζόμαστε παράλληλα. οι υπεύθυνοι χάραξης πολιτικής να θεσπίσουν τις κατάλληλες διασφαλίσεις στο μέλλον».
Οι νομοθέτες, συμπεριλαμβανομένου του γερουσιαστή Chuck Grassley (R-Iowa), έχουν πει ότι οι εργαζόμενοι σε εταιρείες τεχνητής νοημοσύνης πρέπει να μπορούν να προσφέρουν στο Κογκρέσο μια σαφή κατανόηση της τεχνολογίας καθώς προσπαθεί να τη ρυθμίσει — συμπεριλαμβανομένων ανησυχιών και κινδύνων.
Οι γερουσιαστές στην επιστολή ζήτησαν από το OpenAI να δεσμευτεί να μην επιβάλλει συμφωνίες μη απαξίωσης και να «αφαιρεί οποιεσδήποτε άλλες διατάξεις» από τις συμφωνίες εργαζομένων που θα μπορούσαν να χρησιμοποιηθούν για να τιμωρήσουν όσους εγείρουν ανησυχίες για τις εταιρικές πρακτικές.
Ο ηγέτης της πλειοψηφίας της Γερουσίας Charles E. Schumer (DN.Y.) και μια δικομματική ομάδα εργασίας γερουσιαστών εξέδωσαν συστάσεις νωρίτερα αυτό το έτος για εμποτίσει 32 δισεκατομμύρια δολάρια στην έρευνα της τεχνητής νοημοσύνης και ανάπτυξη, αλλά οι επικριτές είπαν το σχέδιο είναι ασαφής και έχει εμποδίσει άλλες προσπάθειες στο Κογκρέσο για τη δημιουργία νομοθεσίας. Οι πιθανότητες ψήφισης συνολικής νομοθεσίας φέτος μειώνονται καθώς η προσοχή στην Ουάσιγκτον στρέφεται στις εκλογές του 2024.
Ελλείψει νέων νόμων από το Κογκρέσο, ο Λευκός Οίκος έχει βασιστεί σε μεγάλο βαθμό σε εθελοντικές δεσμεύσεις από τις εταιρείες για τη δημιουργία ασφαλών και αξιόπιστων συστημάτων τεχνητής νοημοσύνης. Η κυβέρνηση Μπάιντεν πέρασε επίσης α σαρωτικό εκτελεστικό διάταγμα AI απαιτώντας από τις εταιρείες να κοινοποιούν τα αποτελέσματα δοκιμών σχετικά με τα πιο ισχυρά μοντέλα.
Η επιστολή ρώτησε επίσης τον Altman εάν το OpenAI θα αφιερώσει το 20% των υπολογιστικών του πόρων στην έρευνα για την ασφάλεια της τεχνητής νοημοσύνης, μια δέσμευση που ανέλαβε η εταιρεία τον περασμένο Ιούλιο όταν ανακοίνωσε μια ομάδα αφιερωμένη στην πρόληψη υπαρξιακών κινδύνων. Αυτός ο όμιλος, η «ομάδα Superalignment», έκτοτε διαλύθηκε και το προσωπικό του αναδιανεμήθηκε σε άλλα μέρη της εταιρείας.
Οι Δημοκρατικοί της Γερουσίας ρώτησαν το OpenAI εάν θα επιτρέψει σε ανεξάρτητους εμπειρογνώμονες να αξιολογήσουν την ασφάλεια και την ασφάλεια των συστημάτων του πριν από την κυκλοφορία και να διαθέσουν το επόμενο θεμελιώδες μοντέλο τεχνητής νοημοσύνης του σε κυβερνητικές υπηρεσίες για δοκιμές προανάπτυξης. Οι νομοθέτες ζήτησαν επίσης από το OpenAI να περιγράψει τους κινδύνους κατάχρησης και ασφάλειας που έχει παρατηρήσει το προσωπικό του μετά την κυκλοφορία των πιο πρόσφατων μεγάλων γλωσσικών μοντέλων του.
Ο Stephen Kohn, δικηγόρος που εκπροσωπεί τους πληροφοριοδότες του OpenAI, είπε ότι τα αιτήματα των Δημοκρατικών της Γερουσίας “δεν επαρκούν” για να θεραπεύσουν το ανατριχιαστικό αποτέλεσμα της αποτροπής των εργαζομένων να μιλούν για εταιρικές πρακτικές. «Τι βήματα κάνουν για να θεραπεύσουν αυτό το πολιτιστικό μήνυμα», είπε, «για να κάνουν το OpenAI έναν οργανισμό που καλωσορίζει την επίβλεψη».
Οι Δημοκρατικοί της Γερουσίας ζήτησαν από το OpenAI να εκπληρώσει τα αιτήματα έως τις 13 Αυγούστου, συμπεριλαμβανομένης της τεκμηρίωσης για το πώς σχεδιάζει να ανταποκριθεί εθελοντική υπόσχεση προς την κυβέρνηση Μπάιντεν για να προστατεύσει το κοινό από καταχρήσεις της γενετικής τεχνητής νοημοσύνης.
Ο Κον πρόσθεσε ότι το Κογκρέσο πρέπει να πραγματοποιήσει ακροάσεις και έρευνα για τις πρακτικές του OpenAI.
«Η επίβλεψη του Κογκρέσου σε αυτό είναι πολύ απαραίτητη», είπε ο Κον. «Είναι σημαντικό όταν έχετε μια τεχνολογία που έχει τους πιθανούς κινδύνους της τεχνητής νοημοσύνης να την αντιμετωπίσει η κυβέρνηση».