OpenAI προσπαθεί να αμβλύνει τις ανησυχίες μετά την αποχώρηση δύο στελεχών ασφαλείας.
Την περασμένη εβδομάδα είδε το παραίτηση του Ilya Sutskever, συνιδρυτή και επικεφαλής επιστήμονα του OpenAI, και του Jan Leike, οι οποίοι και οι δύο ήταν επικεφαλής του της εταιρείας “ομάδα υπερευθυγράμμισης,” οι οποίες ήταν συγκεντρωμένος σχετικά με την ασφάλεια των μελλοντικών προηγμένων συστημάτων τεχνητής νοημοσύνης (AI). Με την αποχώρησή τους, η εταιρεία έχει ουσιαστικά διέλυσε αυτή την ομάδα.
Ενώ ο Sutskever είπε ότι η αποχώρησή του ήταν για να ακολουθήσει άλλα έργα, ο Leike έγραψε την Παρασκευή X (17 Μαΐου) ότι είχε φτάσει σε “οριακό σημείο” με OpenAI’s ηγεσία επί του της εταιρείας κεντρικές προτεραιότητες.
Έγραψε επίσης ότι η εταιρεία δεν το έκανε δώστε αρκετή έμφαση στην ασφάλεια, ειδικά όσον αφορά τεχνητή γενική νοημοσύνη (AGI), μια ακόμα μη πραγματοποιηθείσα έκδοση της τεχνητής νοημοσύνης που μπορεί να σκέφτεται και να συλλογίζεται όπως οι άνθρωποι.
«Wέχουν καθυστερήσει πολύ να πάρουν απίστευτα σοβαρές συνέπειες για τις επιπτώσεις του AGI.» έγραψε ο Leike. “Το OpenAI πρέπει να γίνει α ασφάλεια-πρώτη εταιρεία AGI.»
Αλλά ο Sam Altman και ο Greg Brockman, OpenAI’s Ο Διευθύνων Σύμβουλος και ο Πρόεδρος, έγραψαν σε κοινό μήνυμα το Χ Σάββατο (18 Μαΐου) ότι γνώριζαν τους κινδύνους και τις δυνατότητες της AGI, λέγοντας ότι η εταιρεία είχε ζητήσει διεθνή πρότυπα AGI και βοήθησε “πρωτοπόρος” την πρακτική της εξέτασης συστημάτων τεχνητής νοημοσύνης για καταστροφικές απειλές.
“ΜΙΚΡΟΔεύτερον, έχουμε θέσει τα θεμέλια που χρειάζονται ασφαλής ανάπτυξη ολοένα και πιο ικανών συστημάτων», έγραψαν τα στελέχη.
“ΦΑανακαλύπτοντας πώς να κάνετε μια νέα τεχνολογία ασφαλή για πρώτη φορά δεν είναι Ανετα. Για παράδειγμα, οι ομάδες μας έκαναν πολλή δουλειά για να φέρουν το GPT-4 στον κόσμο με ασφαλή τρόποκαι έκτοτε βελτιώνουν συνεχώς τη συμπεριφορά του μοντέλου και την παρακολούθηση κατάχρησης ως απάντηση στα διδάγματα που αντλήθηκαν από την ανάπτυξη.»
Μια αναφορά του Bloomberg News την περασμένη εβδομάδα ανέφερε ότι άλλα μέλη της ομάδας υπερευθυγράμμισης είχαν επίσης αποχωρήσει από το OpenAI τους τελευταίους μήνες, προσθέτοντας ακόμη περισσότερες προκλήσεις. Η εταιρεία έχει διορίσει τον John Schulman, έναν συνιδρυτή που ειδικεύεται στα μεγάλα γλωσσικά μοντέλα, ως επιστημονικό επικεφαλής για το του οργανισμού εργασίες ευθυγράμμισης.
Εκτός από την ομάδα υπερευθυγράμμισης, η OpenAI έχει άλλους υπαλλήλους που ειδικεύονται στην ασφάλεια της τεχνητής νοημοσύνης σε μια σειρά ομάδων εντός της εταιρείας, ανέφερε η έκθεση, καθώς μεμονωμένες ομάδες αφιερωμένες αποκλειστικά στην ασφάλεια. Μεταξύ αυτών είναι μια ομάδα ετοιμότητας που αναλύει και μετριάζει πιθανούς καταστροφικούς κινδύνους που συνδέονται με συστήματα τεχνητής νοημοσύνης.
Εν τω μεταξύ, ο Άλτμαν εμφανίστηκε στο “Ολα μέσα” podcast νωρίτερα αυτόν τον μήνα, εκφράζοντας την υποστήριξη για η δημιουργία του μια διεθνής υπηρεσία να ρυθμίζουν την τεχνητή νοημοσύνη, αναφέροντας ανησυχίες σχετικά με το ενδεχόμενο για “σημαντική παγκόσμια βλάβη.»
Για όλη την κάλυψη PYMNTS AI, εγγραφείτε στην καθημερινή Ενημερωτικό δελτίο AI.