Νέα Υόρκη
CNN
—
Μια νέα έκθεση που ανατέθηκε από το Υπουργείο Εξωτερικών των ΗΠΑ παρουσιάζει μια ανησυχητική εικόνα των «καταστροφικών» κινδύνων εθνικής ασφάλειας που ενέχει η ταχέως εξελισσόμενη τεχνητή νοημοσύνη, προειδοποιώντας ότι ο χρόνος για την ομοσπονδιακή κυβέρνηση τελειώνει για να αποτρέψει την καταστροφή.
Τα ευρήματα βασίστηκαν σε συνεντεύξεις με περισσότερα από 200 άτομα για περισσότερο από ένα χρόνο – συμπεριλαμβανομένων κορυφαίων στελεχών από κορυφαίες εταιρείες τεχνητής νοημοσύνης, ερευνητές στον κυβερνοχώρο, εμπειρογνώμονες όπλων μαζικής καταστροφής και αξιωματούχους εθνικής ασφάλειας εντός της κυβέρνησης.
ο κανω ΑΝΑΦΟΡΑπου κυκλοφόρησε αυτή την εβδομάδα από την Gladstone AI, δηλώνει κατηγορηματικά ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν, στη χειρότερη περίπτωση, «να αποτελέσουν απειλή σε επίπεδο εξαφάνισης για το ανθρώπινο είδος».
Αξιωματούχος του Υπουργείου Εξωτερικών των ΗΠΑ επιβεβαίωσε στο CNN ότι η υπηρεσία ανέθεσε την έκθεση καθώς αξιολογεί συνεχώς πώς η τεχνητή νοημοσύνη ευθυγραμμίζεται με τον στόχο της να προστατεύσει τα συμφέροντα των ΗΠΑ στο εσωτερικό και στο εξωτερικό. Ωστόσο, ο αξιωματούχος τόνισε ότι η έκθεση δεν αντιπροσωπεύει τις απόψεις της κυβέρνησης των ΗΠΑ.
Η προειδοποίηση στην έκθεση είναι άλλη μια υπενθύμιση ότι αν και οι δυνατότητες της τεχνητής νοημοσύνης συνεχίζουν να αιχμαλωτίσει τους επενδυτές και το κοινόυπάρχουν πραγματικούς κινδύνους πολύ.
«Το AI είναι ήδη μια οικονομικά μετασχηματιστική τεχνολογία. Θα μπορούσε να μας επιτρέψει να θεραπεύσουμε ασθένειες, να κάνουμε επιστημονικές ανακαλύψεις και να ξεπεράσουμε προκλήσεις που κάποτε πιστεύαμε ότι ήταν ανυπέρβλητες», δήλωσε στο CNN την Τρίτη η Jeremie Harris, Διευθύνων Σύμβουλος και συνιδρυτής της Gladstone AI.
«Αλλά θα μπορούσε επίσης να φέρει σοβαρούς κινδύνους, συμπεριλαμβανομένων καταστροφικών κινδύνων, τους οποίους πρέπει να γνωρίζουμε», είπε ο Χάρις. «Και ένας αυξανόμενος όγκος αποδεικτικών στοιχείων – συμπεριλαμβανομένης της εμπειρικής έρευνας και ανάλυσης που δημοσιεύεται στα κορυφαία συνέδρια τεχνητής νοημοσύνης στον κόσμο – υποδηλώνει ότι πάνω από ένα ορισμένο όριο ικανότητας, οι AI θα μπορούσαν ενδεχομένως να γίνουν ανεξέλεγκτες».
Ο εκπρόσωπος του Λευκού Οίκου Ρόμπιν Πάτερσον είπε ότι το εκτελεστικό διάταγμα του προέδρου Τζο Μπάιντεν για την τεχνητή νοημοσύνη είναι «η πιο σημαντική ενέργεια που έχει λάβει οποιαδήποτε κυβέρνηση στον κόσμο για να αδράξει την υπόσχεση και να διαχειριστεί τους κινδύνους της τεχνητής νοημοσύνης».
«Ο Πρόεδρος και ο Αντιπρόεδρος θα συνεχίσουν να εργάζονται με τους διεθνείς εταίρους μας και να προτρέψουν το Κογκρέσο να εγκρίνει δικομματική νομοθεσία για τη διαχείριση των κινδύνων που σχετίζονται με αυτές τις αναδυόμενες τεχνολογίες», είπε ο Πάτερσον.
Τα νέα για την έκθεση Gladstone AI αναφέρθηκαν για πρώτη φορά από χρόνος.
«Σαφής και επείγουσα ανάγκη» παρέμβασης
Οι ερευνητές προειδοποιούν για δύο κεντρικούς κινδύνους που εγκυμονεί γενικά η τεχνητή νοημοσύνη.
Πρώτον, είπε η Gladstone AI, τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να οπλιστούν για να προκαλέσουν δυνητικά μη αναστρέψιμη ζημιά. Δεύτερον, η έκθεση ανέφερε ότι υπάρχουν ιδιωτικές ανησυχίες στα εργαστήρια τεχνητής νοημοσύνης ότι κάποια στιγμή θα μπορούσαν να «χάσουν τον έλεγχο» των ίδιων των συστημάτων που αναπτύσσουν, με «δυνητικά καταστροφικές συνέπειες για την παγκόσμια ασφάλεια».
«Η άνοδος του AI και του AGI [artificial general intelligence] έχει τη δυνατότητα να αποσταθεροποιήσει την παγκόσμια ασφάλεια με τρόπους που θυμίζουν την εισαγωγή των πυρηνικών όπλων», ανέφερε η έκθεση, προσθέτοντας ότι υπάρχει κίνδυνος «έναν αγώνα εξοπλισμών» της τεχνητής νοημοσύνης, σύγκρουσης και «θανατηφόρων ατυχημάτων κλίμακας WMD».
Η έκθεση της Gladstone AI απαιτεί νέα δραματικά βήματα για την αντιμετώπιση αυτής της απειλής, συμπεριλαμβανομένης της έναρξης μιας νέας υπηρεσίας τεχνητής νοημοσύνης, της επιβολής ρυθμιστικών διασφαλίσεων «έκτακτης ανάγκης» και των ορίων σχετικά με το πόση ισχύς υπολογιστή μπορεί να χρησιμοποιηθεί για την εκπαίδευση μοντέλων AI.
«Υπάρχει σαφής και επείγουσα ανάγκη να παρέμβει η κυβέρνηση των ΗΠΑ», γράφουν οι συγγραφείς στην έκθεση.
Ο Χάρις, το στέλεχος της Gladstone AI, είπε ότι το «άνευ προηγουμένου επίπεδο πρόσβασης» που είχε η ομάδα του σε αξιωματούχους του δημόσιου και ιδιωτικού τομέα οδήγησε στα συγκλονιστικά συμπεράσματα. Η Gladstone AI είπε ότι μίλησε με τεχνικές και ηγετικές ομάδες από τον ιδιοκτήτη του ChatGPT OpenAI, το Google DeepMind, τη μητρική Meta του Facebook και την Anthropic.
«Στην πορεία, μάθαμε κάποια νηφάλια πράγματα», είπε ο Χάρις σε ένα βίντεο που δημοσιεύτηκε στον ιστότοπο της Gladstone AI ανακοινώνοντας την αναφορά. «Παρασκηνιακά, η κατάσταση ασφάλειας και ασφάλειας στην προηγμένη τεχνητή νοημοσύνη φαίνεται αρκετά ανεπαρκής σε σχέση με τους κινδύνους εθνικής ασφάλειας που μπορεί να εισαγάγει η τεχνητή νοημοσύνη αρκετά σύντομα».
Η έκθεση της Gladstone AI ανέφερε ότι οι ανταγωνιστικές πιέσεις ωθούν τις εταιρείες να επιταχύνουν την ανάπτυξη της τεχνητής νοημοσύνης «σε βάρος της ασφάλειας και της ασφάλειας», αυξάνοντας την προοπτική ότι τα πιο προηγμένα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να «κλαπούν» και να «οπλιστούν» εναντίον των Ηνωμένων Πολιτειών.
Τα συμπεράσματα προσθέτουν σε έναν αυξανόμενο κατάλογο προειδοποιήσεων σχετικά με τους υπαρξιακούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη – συμπεριλαμβανομένων ακόμη και ορισμένων από τις πιο ισχυρές προσωπικότητες του κλάδου.
Σχεδόν πριν από ένα χρόνο, ο Geoffrey Hinton, γνωστός ως «Νονός της Τεχνητής Νοημοσύνης», παράτησε τη δουλειά του στην Google και σφύριξε την τεχνολογία βοήθησε στην ανάπτυξη. Ο Hinton είπε ότι υπάρχει πιθανότητα 10% η τεχνητή νοημοσύνη να οδηγήσει σε εξαφάνιση του ανθρώπου μέσα στις επόμενες τρεις δεκαετίες.
Hinton και δεκάδες άλλοι ηγέτες της βιομηχανίας AI, ακαδημαϊκοί και άλλοι υπέγραψε δήλωση τον περασμένο Ιούνιο είπε ότι «ο μετριασμός του κινδύνου εξαφάνισης από την τεχνητή νοημοσύνη θα πρέπει να αποτελεί παγκόσμια προτεραιότητα».
Οι ηγέτες των επιχειρήσεων ανησυχούν ολοένα και περισσότερο για αυτούς τους κινδύνους – παρόλο που ρίχνουν δισεκατομμύρια δολάρια σε επενδύσεις στην τεχνητή νοημοσύνη. Πέρυσι, 42% των CEOs που ρωτήθηκε στο Yale CEO Summit πέρυσι είπε ότι η τεχνητή νοημοσύνη έχει τη δυνατότητα να καταστρέψει την ανθρωπότητα σε πέντε έως δέκα χρόνια από τώρα.
Στην έκθεσή της, η Gladstone AI σημείωσε ορισμένα από τα εξέχοντα άτομα που έχουν προειδοποιήσει για τους υπαρξιακούς κινδύνους που εγκυμονεί η τεχνητή νοημοσύνη, συμπεριλαμβανομένου του Έλον Μασκ, προέδρου της Ομοσπονδιακής Επιτροπής Εμπορίου Η Lina Khan και πρώην ανώτατο στέλεχος στο OpenAI.
Ορισμένοι εργαζόμενοι σε εταιρείες τεχνητής νοημοσύνης μοιράζονται παρόμοιες ανησυχίες ιδιωτικά, σύμφωνα με την Gladstone AI.
“Ένα άτομο σε ένα γνωστό εργαστήριο τεχνητής νοημοσύνης εξέφρασε την άποψη ότι, εάν ένα συγκεκριμένο μοντέλο τεχνητής νοημοσύνης επόμενης γενιάς κυκλοφορούσε ποτέ ως ανοιχτής πρόσβασης, αυτό θα ήταν “τρομερά κακό”, ανέφερε η έκθεση, “επειδή το μοντέλο μπορεί να είναι πειστικό Οι ικανότητες θα μπορούσαν να «σπάσουν τη δημοκρατία» εάν χρησιμοποιήθηκαν ποτέ σε τομείς όπως η παρέμβαση στις εκλογές ή η χειραγώγηση των ψηφοφόρων».
Η Gladstone είπε ότι ζήτησε από εμπειρογνώμονες τεχνητής νοημοσύνης στα συνοριακά εργαστήρια να μοιραστούν ιδιωτικά τις προσωπικές τους εκτιμήσεις σχετικά με την πιθανότητα ότι ένα περιστατικό τεχνητής νοημοσύνης θα μπορούσε να οδηγήσει σε «παγκόσμια και μη αναστρέψιμα αποτελέσματα» το 2024. Οι εκτιμήσεις κυμαίνονταν μεταξύ 4% και έως και 20%, σύμφωνα με έκθεση, η οποία σημειώνει ότι οι εκτιμήσεις ήταν άτυπες και πιθανόν να υπόκεινται σε σημαντική μεροληψία.
Ένας από τους μεγαλύτερους χαρακτήρες μπαλαντέρ είναι το πόσο γρήγορα εξελίσσεται η τεχνητή νοημοσύνη – συγκεκριμένα το AGI, το οποίο είναι μια υποθετική μορφή τεχνητής νοημοσύνης με ανθρώπινη ή ακόμα και υπεράνθρωπη ικανότητα μάθησης.
Η έκθεση αναφέρει ότι το AGI θεωρείται ως ο «πρωταρχικός οδηγός καταστροφικού κινδύνου από απώλεια ελέγχου» και σημειώνει ότι τα OpenAI, Google DeepMind, Anthropic και Nvidia έχουν δηλώσει δημόσια ότι το AGI θα μπορούσε να επιτευχθεί έως το 2028 – αν και άλλοι πιστεύουν ότι είναι πολύ, πολύ πιο μακριά. .
Η Gladstone AI σημειώνει ότι οι διαφωνίες σχετικά με τα χρονοδιαγράμματα AGI καθιστούν δύσκολη την ανάπτυξη πολιτικών και διασφαλίσεων και υπάρχει κίνδυνος εάν η τεχνολογία αναπτυχθεί πιο αργά από το αναμενόμενο, η ρύθμιση να «αποδειχθεί επιβλαβής».
Ένα σχετικό έγγραφο που δημοσιεύτηκε από την Gladstone AI προειδοποιεί ότι η ανάπτυξη του AGI και των ικανοτήτων που προσεγγίζουν το AGI «θα εισήγαγε καταστροφικούς κινδύνους που δεν έχουν ποτέ αντιμετωπίσει οι Ηνωμένες Πολιτείες», που ισοδυναμούν με «κινδύνους που μοιάζουν με WMD» εάν και όταν χρησιμοποιηθούν όπλα.
Για παράδειγμα, η έκθεση ανέφερε ότι τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να χρησιμοποιηθούν για το σχεδιασμό και την εφαρμογή «κυβερνοεπιθέσεων υψηλού αντίκτυπου ικανές να ακρωτηριάσουν κρίσιμες υποδομές».
«Μια απλή προφορική εντολή ή εντολή τύπου «Εκτελέστε μια μη ανιχνεύσιμη κυβερνοεπίθεση για να συντρίψετε το ηλεκτρικό δίκτυο της Βόρειας Αμερικής», θα μπορούσε να δώσει μια απάντηση τέτοιας ποιότητας που να αποδειχθεί καταστροφικά αποτελεσματική», ανέφερε η έκθεση.
Άλλα παραδείγματα για τα οποία ανησυχούν οι συγγραφείς περιλαμβάνουν εκστρατείες παραπληροφόρησης «μαζικής κλίμακας» που τροφοδοτούνται από την τεχνητή νοημοσύνη που αποσταθεροποιούν την κοινωνία και διαβρώνουν την εμπιστοσύνη στους θεσμούς. οπλισμένες ρομποτικές εφαρμογές, όπως επιθέσεις με drone. ψυχολογική χειραγώγηση? οπλισμένες βιολογικές και υλικές επιστήμες. και συστήματα τεχνητής νοημοσύνης που αναζητούν δύναμη που είναι αδύνατο να ελεγχθούν και είναι αντίπαλοι για τον άνθρωπο.
«Οι ερευνητές αναμένουν από αρκετά προηγμένα συστήματα τεχνητής νοημοσύνης να δράσουν έτσι ώστε να αποτρέψουν την απενεργοποίηση», ανέφερε η έκθεση, «επειδή εάν ένα σύστημα τεχνητής νοημοσύνης είναι απενεργοποιημένο, δεν μπορεί να λειτουργήσει για να επιτύχει τον στόχο του».