Το OpenAI συνεργάζεται με το Εθνικό Εργαστήριο του Λος Άλαμος για να μελετήσει πώς μπορεί να χρησιμοποιηθεί η τεχνητή νοημοσύνη για την καταπολέμηση βιολογικών απειλών που θα μπορούσαν να δημιουργηθούν από μη ειδικούς χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης, σύμφωνα με ανακοινώσεις την Τετάρτη και από τους δύο οργανισμούς. Το εργαστήριο του Λος Άλαμος, που ιδρύθηκε για πρώτη φορά στο Νέο Μεξικό κατά τη διάρκεια του Β’ Παγκοσμίου Πολέμου για την ανάπτυξη της ατομικής βόμβας, χαρακτήρισε την προσπάθεια «πρώτη στο είδος της» μελέτη για τη βιοασφάλεια της τεχνητής νοημοσύνης και τους τρόπους με τους οποίους η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί σε εργαστηριακό περιβάλλον.
Η διαφορά μεταξύ των δύο δηλώσεων που κυκλοφόρησαν την Τετάρτη από το OpenAI και το εργαστήριο του Los Alamos είναι αρκετά εντυπωσιακή. OpenAI’s δήλωση προσπαθεί να περιγράψει τη συνεργασία ως απλώς μια μελέτη για το πώς η τεχνητή νοημοσύνη «μπορεί να χρησιμοποιηθεί με ασφάλεια από επιστήμονες σε εργαστηριακά περιβάλλοντα για την προώθηση της βιοεπιστημονικής έρευνας». Και όμως το εργαστήριο του Λος Άλαμος δίνει πολλά περισσότερη έμφαση σχετικά με το γεγονός ότι η προηγούμενη έρευνα «διαπίστωσε ότι το ChatGPT-4 παρείχε μια ήπια ανάταση στην παροχή πληροφοριών που θα μπορούσαν να οδηγήσουν στη δημιουργία βιολογικών απειλών».
Μεγάλο μέρος της δημόσιας συζήτησης γύρω από τις απειλές που θέτει η τεχνητή νοημοσύνη επικεντρώθηκε στη δημιουργία μιας οντότητας με αυτογνωσία που θα μπορούσε να αναπτύξει ένα δικό της μυαλό και να βλάψει την ανθρωπότητα με κάποιο τρόπο. Κάποιοι ανησυχούν ότι η επίτευξη AGI -προηγμένης γενικής νοημοσύνης, όπου η τεχνητή νοημοσύνη μπορεί να εκτελεί προηγμένη συλλογιστική και λογική αντί να λειτουργεί ως φανταχτερή δημιουργία αυτόματης συμπλήρωσης λέξεων- μπορεί να οδηγήσει σε μια κατάσταση τύπου Skynet. Και ενώ πολλοί ενισχυτές τεχνητής νοημοσύνης, όπως ο Έλον Μασκ και ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, έχουν κλίνει σε αυτόν τον χαρακτηρισμό, φαίνεται ότι η πιο επείγουσα απειλή που πρέπει να αντιμετωπιστεί είναι να διασφαλίσουμε ότι οι άνθρωποι δεν χρησιμοποιούν εργαλεία όπως το ChatGPT για δημιουργία βιοόπλων.
«Οι βιολογικές απειλές με δυνατότητα τεχνητής νοημοσύνης θα μπορούσαν να αποτελέσουν σημαντικό κίνδυνο, αλλά η υπάρχουσα εργασία δεν έχει αξιολογήσει πώς τα πολυτροπικά, συνοριακά μοντέλα θα μπορούσαν να μειώσουν το εμπόδιο εισόδου για μη ειδικούς για να δημιουργήσουν βιολογική απειλή», ανέφερε το εργαστήριο του Λος Άλαμος σε δήλωση που δημοσιεύθηκε στις την ιστοσελίδα του.
Η διαφορετική τοποθέτηση των μηνυμάτων από τους δύο οργανισμούς πιθανότατα οφείλεται στο γεγονός ότι το OpenAI θα μπορούσε να νιώθει άβολα με την αναγνώριση των επιπτώσεων στην εθνική ασφάλεια από την επισήμανση ότι το προϊόν του θα μπορούσε να χρησιμοποιηθεί από τρομοκράτες. Για να δώσουμε ένα ακόμη πιο λεπτό σημείο σε αυτό, η δήλωση Los Alamos χρησιμοποιεί τους όρους “απειλή” ή “απειλές” πέντε φορές, ενώ η δήλωση OpenAI τη χρησιμοποιεί μόνο μία φορά.
«Οι δυνατότητες ανάπτυξης των δυνατοτήτων τεχνητής νοημοσύνης είναι ατελείωτες», δήλωσε ο Erick LeBrun, ερευνητής στο Los Alamos, σε δήλωση την Τετάρτη. «Ωστόσο, η μέτρηση και η κατανόηση τυχόν πιθανών κινδύνων ή κακής χρήσης προηγμένης τεχνητής νοημοσύνης που σχετίζεται με βιολογικές απειλές παραμένει σε μεγάλο βαθμό ανεξερεύνητη. Αυτή η εργασία με το OpenAI είναι ένα σημαντικό βήμα προς τη δημιουργία ενός πλαισίου για την αξιολόγηση των τρεχόντων και μελλοντικών μοντέλων, διασφαλίζοντας την υπεύθυνη ανάπτυξη και ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης».
Το Los Alamos έστειλε στο Gizmodo μια δήλωση που ήταν γενικά αισιόδοξη για το μέλλον της τεχνολογίας, ακόμη και με τους πιθανούς κινδύνους:
Η τεχνολογία AI είναι συναρπαστική επειδή έχει γίνει μια ισχυρή μηχανή ανακάλυψης και προόδου στην επιστήμη και την τεχνολογία. Αν και αυτό θα οδηγήσει σε μεγάλο βαθμό σε θετικά οφέλη για την κοινωνία, είναι κατανοητό ότι τα ίδια μοντέλα στα χέρια ενός κακού ηθοποιού θα μπορούσαν να το χρησιμοποιήσουν για να συνθέσουν πληροφορίες που οδηγούν στην πιθανότητα ενός «πώς να οδηγήσετε» για βιολογικές απειλές. Είναι σημαντικό να λάβουμε υπόψη ότι η ίδια η τεχνητή νοημοσύνη δεν αποτελεί απειλή, αλλά η απειλή είναι πώς μπορεί να γίνει κατάχρηση.
Οι προηγούμενες αξιολογήσεις επικεντρώθηκαν κυρίως στην κατανόηση του κατά πόσον τέτοιες τεχνολογίες τεχνητής νοημοσύνης θα μπορούσαν να παρέχουν ακριβείς «οδηγούς πώς-να». Ωστόσο, ενώ ένας κακός ηθοποιός μπορεί να έχει πρόσβαση σε έναν ακριβή οδηγό για να κάνει κάτι κακό, αυτό δεν σημαίνει ότι θα μπορέσει. Για παράδειγμα, μπορεί να γνωρίζετε ότι πρέπει να διατηρήσετε τη στειρότητα κατά την καλλιέργεια κυττάρων ή να χρησιμοποιήσετε μια προδιαγραφή μάζας, αλλά εάν δεν έχετε εμπειρία στο να το κάνετε αυτό πριν, μπορεί να είναι πολύ δύσκολο να το επιτύχετε.
Κάνοντας σμίκρυνση, προσπαθούμε γενικότερα να κατανοήσουμε πού και πώς αυτές οι τεχνολογίες τεχνητής νοημοσύνης προσθέτουν αξία σε μια ροή εργασίας. Η πρόσβαση στις πληροφορίες (π.χ. η δημιουργία ενός ακριβούς πρωτοκόλλου) είναι ένας τομέας όπου μπορεί, αλλά είναι λιγότερο σαφές πόσο καλά αυτές οι τεχνολογίες AI μπορούν να σας βοηθήσουν να μάθετε πώς να κάνετε ένα πρωτόκολλο σε ένα εργαστήριο με επιτυχία (ή άλλες δραστηριότητες του πραγματικού κόσμου, όπως η κλωτσιά ενός ποδοσφαίρου μπάλα ή ζωγραφική εικόνα). Η πρώτη μας πιλοτική τεχνολογική αξιολόγηση θα προσπαθήσει να κατανοήσει πώς η τεχνητή νοημοσύνη δίνει τη δυνατότητα στα άτομα να μάθουν πώς να κάνουν πρωτόκολλα στον πραγματικό κόσμο, κάτι που θα μας δώσει μια καλύτερη κατανόηση όχι μόνο για το πώς μπορεί να βοηθήσει στην ενεργοποίηση της επιστήμης αλλά και αν θα επέτρεπε σε έναν κακό ηθοποιό να εκτελέσει μια κακή δραστηριότητα στο εργαστήριο.
Η προσπάθεια του εργαστηρίου του Los Alamos συντονίζεται από την Ομάδα Τεχνικής Αξιολόγησης Κινδύνων AI.
Διόρθωση: Μια παλαιότερη έκδοση αυτής της ανάρτησης ανέφερε αρχικά μια δήλωση από το Los Alamos ως από το OpenAI. Το Gizmodo λυπάται για το λάθος.