ΛΟΝΔΙΝΟ, 30 Νοεμβρίου (Reuters) – Ο πρόεδρος του τεχνολογικού κολοσσού Microsoft (MSFT.O) είπε ότι δεν υπάρχει πιθανότητα να δημιουργηθεί υπερ-έξυπνη τεχνητή νοημοσύνη μέσα στους επόμενους 12 μήνες και προειδοποίησε ότι η τεχνολογία θα μπορούσε να είναι δεκαετίες μακριά.
Ο συνιδρυτής του OpenAI Sam Altman νωρίτερα αυτό το μήνα αφαιρέθηκε από το διοικητικό συμβούλιο της εταιρείας από τη θέση του Διευθύνοντος Συμβούλου, αλλά αποκαταστάθηκε γρήγορα μετά από ένα Σαββατοκύριακο κατακραυγής από υπαλλήλους και μετόχους.
Reuters την περασμένη εβδομάδα αναφέρεται αποκλειστικά ότι η απομάκρυνση έγινε λίγο αφότου οι ερευνητές ήρθαν σε επαφή με το διοικητικό συμβούλιο, προειδοποιώντας για μια επικίνδυνη ανακάλυψη που φοβούνταν ότι θα μπορούσε να έχει ανεπιθύμητες συνέπειες.
Το εσωτερικό έργο που ονομάζεται Q* (προφέρεται Q-Star) θα μπορούσε να είναι μια σημαντική ανακάλυψη στην αναζήτηση της startup για αυτό που είναι γνωστό ως τεχνητή γενική νοημοσύνη (AGI), μια πηγή είπε στο Reuters. Το OpenAI ορίζει το AGI ως αυτόνομα συστήματα που ξεπερνούν τους ανθρώπους στις περισσότερες οικονομικά πολύτιμες εργασίες.
Ωστόσο, ο πρόεδρος της Microsoft Μπραντ Σμιθ, μιλώντας σε δημοσιογράφους στη Βρετανία την Πέμπτη, απέρριψε τους ισχυρισμούς περί επικίνδυνης ανακάλυψης.
“Δεν υπάρχει καμία απολύτως πιθανότητα να δείτε αυτό το λεγόμενο AGI, όπου οι υπολογιστές είναι πιο ισχυροί από τους ανθρώπους, τους επόμενους 12 μήνες. Θα χρειαστούν χρόνια, αν όχι πολλές δεκαετίες, αλλά νομίζω ότι είναι καιρός να εστίαση στην ασφάλεια είναι τώρα», είπε.
Πηγές είπαν στο Reuters ότι η προειδοποίηση προς το διοικητικό συμβούλιο του OpenAI ήταν ένας παράγοντας ανάμεσα σε μια μακρύτερη λίστα παραπόνων που οδήγησαν στην απόλυση του Altman, καθώς και στις ανησυχίες για την εμπορευματοποίηση των προόδων πριν από την αξιολόγηση των κινδύνων τους.
Ερωτηθείς εάν μια τέτοια ανακάλυψη συνέβαλε στην απομάκρυνση του Άλτμαν, ο Σμιθ είπε: “Δεν νομίζω ότι αυτό ισχύει καθόλου. Νομίζω ότι προφανώς υπήρχε μια απόκλιση μεταξύ του συμβουλίου και άλλων, αλλά δεν αφορούσε ουσιαστικά μια τέτοια ανησυχία .
«Αυτό που χρειαζόμαστε πραγματικά είναι φρένα ασφαλείας. Ακριβώς όπως έχετε ένα διάλειμμα ασφαλείας σε έναν ανελκυστήρα, έναν διακόπτη κυκλώματος για την ηλεκτρική ενέργεια, ένα φρένο έκτακτης ανάγκης για ένα λεωφορείο – θα πρέπει να υπάρχουν διακοπές ασφαλείας στα συστήματα τεχνητής νοημοσύνης που ελέγχουν κρίσιμες υποδομές, ώστε να παραμένουν πάντα υπό τον ανθρώπινο έλεγχο», πρόσθεσε ο Smith. .
Αναφορά από τον Martin Coulter. Μοντάζ από τους Sharon Singleton και Mark Porter
Τα Πρότυπά μας: Οι αρχές εμπιστοσύνης της Thomson Reuters.