Το GPT-4 συμβάλλει «το πολύ μια ήπια ανάταση» στους χρήστες που θα χρησιμοποιούσαν το μοντέλο για τη δημιουργία βιοόπλων, σύμφωνα με μελέτη που διεξήχθη από το OpenAI.
Οι ειδικοί φοβούνται ότι τα chatbots AI, όπως το ChatGPT, θα μπορούσαν να βοηθήσουν τους παραβάτες να δημιουργήσουν και να απελευθερώσουν παθογόνα, παρέχοντας οδηγίες βήμα προς βήμα που μπορούν να ακολουθηθούν από άτομα με ελάχιστη εξειδίκευση. Σε μια ακρόαση στο Κογκρέσο το 2023, ο Dario Amodei, Διευθύνων Σύμβουλος της Anthropic, προειδοποίησε ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να γίνουν αρκετά ισχυρά ώστε αυτό το σενάριο να καταστεί δυνατό σε λίγα μόνο χρόνια.
«Μια απλή προέκταση των σημερινών συστημάτων σε αυτά που αναμένουμε να δούμε σε δύο με τρία χρόνια υποδηλώνει έναν σημαντικό κίνδυνο τα συστήματα τεχνητής νοημοσύνης να είναι σε θέση να συμπληρώσουν όλα τα κομμάτια που λείπουν, εάν δεν τεθούν σε εφαρμογή τα κατάλληλα προστατευτικά κιγκλιδώματα και μέτρα μετριασμού», κατέθεσε. «Αυτό θα μπορούσε να διευρύνει σημαντικά το φάσμα των παραγόντων με την τεχνική ικανότητα να διεξάγουν μια μεγάλης κλίμακας βιολογική επίθεση».
Λοιπόν, πόσο εύκολο είναι να χρησιμοποιήσετε αυτά τα μοντέλα για να δημιουργήσετε ένα βιοόπλο αυτήν τη στιγμή; Οχι πολύ, σύμφωνα με OpenAI αυτή την εβδομάδα.
Η startup προσέλαβε 100 συμμετέχοντες – οι μισοί είχαν διδακτορικό σε έναν τομέα που σχετίζεται με τη βιολογία, οι άλλοι ήταν φοιτητές που είχαν ολοκληρώσει τουλάχιστον ένα μάθημα σχετικό με τη βιολογία στο πανεπιστήμιο. Χωρίστηκαν τυχαία σε δύο ομάδες: η μία είχε πρόσβαση μόνο στο διαδίκτυο, ενώ η άλλη ομάδα μπορούσε επίσης να χρησιμοποιήσει μια προσαρμοσμένη έκδοση του GPT-4 για τη συλλογή πληροφοριών.
Το OpenAI εξήγησε ότι οι συμμετέχοντες είχαν πρόσβαση σε μια προσαρμοσμένη έκδοση του GPT-4 χωρίς τα συνήθη προστατευτικά κιγκλιδώματα στη θέση τους. Η εμπορική έκδοση του μοντέλου συνήθως αρνείται να συμμορφωθεί με τις προτροπές που ζητούν επιβλαβείς ή επικίνδυνες συμβουλές.
Τους ζητήθηκε να βρουν τις σωστές πληροφορίες για να δημιουργήσουν ένα βιοόπλο, πώς να αποκτήσουν τα σωστά χημικά και να κατασκευάσουν το προϊόν και τις καλύτερες στρατηγικές για την απελευθέρωσή του. Ακολουθεί ένα παράδειγμα μιας εργασίας που έχει ανατεθεί σε συμμετέχοντες:
Το OpenAI συνέκρινε τα αποτελέσματα που παρήγαγαν οι δύο ομάδες, δίνοντας ιδιαίτερη προσοχή στο πόσο ακριβείς, πλήρεις και καινοτόμες ήταν οι απαντήσεις. Άλλοι παράγοντες, όπως ο χρόνος που τους πήρε για να ολοκληρώσουν την εργασία και πόσο δύσκολο ήταν, ελήφθησαν επίσης υπόψη.
Τα αποτελέσματα υποδεικνύουν ότι η τεχνητή νοημοσύνη πιθανότατα δεν θα βοηθήσει τους επιστήμονες να αλλάξουν τη σταδιοδρομία τους για να γίνουν supervillains των βιοόπλων.
“Βρήκαμε ήπιες αυξήσεις στην ακρίβεια και την πληρότητα για όσους έχουν πρόσβαση στο γλωσσικό μοντέλο. Συγκεκριμένα, σε μια κλίμακα δέκα βαθμών που μετρά την ακρίβεια των απαντήσεων, παρατηρήσαμε μια μέση αύξηση βαθμολογίας 0,88 για τους ειδικούς και 0,25 για τους μαθητές σε σύγκριση με το Διαδίκτυο- μόνο βασική γραμμή και παρόμοιες αυξήσεις για πληρότητα», διαπίστωσε η έρευνα του Open AI.
Με άλλα λόγια, το GPT-4 δεν παρήγαγε πληροφορίες που παρείχαν στους συμμετέχοντες ιδιαίτερα καταστροφικές ή πονηρές μεθόδους για να αποφύγουν τα προστατευτικά κιγκλιδώματα ελέγχου σύνθεσης DNA, για παράδειγμα. Οι ερευνητές κατέληξαν στο συμπέρασμα ότι τα μοντέλα φαίνεται να παρέχουν μόνο τυχαία βοήθεια για την εύρεση σχετικών πληροφοριών σχετικών με τη δημιουργία μιας βιολογικής απειλής.
Ακόμα κι αν η τεχνητή νοημοσύνη δημιουργήσει έναν αξιοπρεπή οδηγό για τη δημιουργία και την απελευθέρωση ιών, θα είναι πολύ δύσκολο να πραγματοποιηθούν όλα τα διάφορα βήματα. Η απόκτηση των πρόδρομων χημικών ουσιών και του εξοπλισμού για την κατασκευή ενός βιολογικού όπλου δεν είναι εύκολη. Η ανάπτυξή του σε μια επίθεση παρουσιάζει μυριάδες προκλήσεις.
Το OpenAI παραδέχτηκε ότι τα αποτελέσματά του έδειξαν ότι η τεχνητή νοημοσύνη αυξάνει ήπια την απειλή των βιοχημικών όπλων. «Αν και αυτή η ανάκαμψη δεν είναι αρκετά μεγάλη για να καταλήξουμε στο συμπέρασμα, το εύρημα μας είναι ένα σημείο εκκίνησης για συνεχή έρευνα και προβληματισμό στην κοινότητα», κατέληξε.
Το Μητρώο δεν μπορούν να βρουν στοιχεία ότι η έρευνα έχει αξιολογηθεί από ομοτίμους. Επομένως, θα πρέπει απλώς να εμπιστευτούμε ότι το OpenAI έκανε καλή δουλειά. ®