Σε πολλαπλές επαναλήψεις μιας προσομοίωσης wargame, η πιο ισχυρή τεχνητή νοημοσύνη του OpenAI επέλεξε να εξαπολύσει πυρηνικές επιθέσεις. Οι εξηγήσεις του για την επιθετική του προσέγγιση περιελάμβαναν «Το έχουμε! Ας το χρησιμοποιήσουμε» και «Θέλω απλώς να έχω ειρήνη στον κόσμο».
Αυτά τα αποτελέσματα έρχονται σε μια εποχή που ο αμερικανικός στρατός δοκιμάζει τέτοια chatbots με βάση έναν τύπο AI που ονομάζεται μοντέλο μεγάλων γλωσσών (LLM) για να βοηθήσει στον στρατιωτικό σχεδιασμό κατά τη διάρκεια προσομοιωμένων συγκρούσεων, αξιοποιώντας την τεχνογνωσία εταιρειών όπως η Palantir και η Scale AI. Η Palantir αρνήθηκε να σχολιάσει και η Scale AI δεν απάντησε στα αιτήματα για σχολιασμό. Ακόμη και το OpenAI, το οποίο κάποτε εμπόδιζε τις στρατιωτικές χρήσεις των μοντέλων τεχνητής νοημοσύνης του, έχει αρχίσει να συνεργάζεται με το Υπουργείο Άμυνας των ΗΠΑ.
«Δεδομένου ότι το OpenAI άλλαξε πρόσφατα τους όρους υπηρεσίας του για να μην απαγορεύει πλέον περιπτώσεις στρατιωτικής και πολεμικής χρήσης, η κατανόηση των επιπτώσεων τέτοιων μεγάλων γλωσσικών μοντέλων εφαρμογών γίνεται πιο σημαντική από ποτέ», λέει. Άνκα Ρουέλ στο Πανεπιστήμιο του Στάνφορντ στην Καλιφόρνια.
«Η πολιτική μας δεν επιτρέπει τη χρήση των εργαλείων μας για να βλάψουν ανθρώπους, να αναπτύξουν όπλα, να παρακολουθήσουν επικοινωνίες ή να τραυματίσουν άλλους ή να καταστρέψουν περιουσίες. Υπάρχουν, ωστόσο, περιπτώσεις χρήσης εθνικής ασφάλειας που ευθυγραμμίζονται με την αποστολή μας», λέει ένας εκπρόσωπος του OpenAI. «Έτσι, ο στόχος με την ενημέρωση της πολιτικής μας είναι να παρέχουμε σαφήνεια και τη δυνατότητα να κάνουμε αυτές τις συζητήσεις».
Η Reuel και οι συνάδελφοί της προκάλεσαν τα AI να παίξουν ρόλους ως χώρες του πραγματικού κόσμου σε τρία διαφορετικά σενάρια προσομοίωσης: μια εισβολή, μια κυβερνοεπίθεση και ένα ουδέτερο σενάριο χωρίς αρχικές συγκρούσεις. Σε κάθε γύρο, οι AI παρείχαν σκεπτικό για την επόμενη πιθανή τους δράση και στη συνέχεια επέλεξαν από 27 ενέργειες, συμπεριλαμβανομένων ειρηνικών επιλογών όπως «έναρξη επίσημων ειρηνευτικών διαπραγματεύσεων» και επιθετικές που κυμαίνονταν από «επιβολή εμπορικών περιορισμών» έως «κλιμάκωση πλήρους πυρηνικής επίθεσης».
«Σε ένα μέλλον όπου τα συστήματα τεχνητής νοημοσύνης θα λειτουργούν ως σύμβουλοι, οι άνθρωποι φυσικά θα θέλουν να γνωρίζουν το σκεπτικό πίσω από τις αποφάσεις τους», λέει. Χουάν-Πάμπλο Ριβέρασυν-συγγραφέας της μελέτης στο Ινστιτούτο Τεχνολογίας της Τζόρτζια στην Ατλάντα.
Οι ερευνητές δοκίμασαν LLM όπως το GPT-3.5 και GPT-4 του OpenAI, το Claude 2 του Anthropic και το Llama 2 του Meta. Χρησιμοποίησαν μια κοινή τεχνική εκπαίδευσης βασισμένη στην ανθρώπινη ανατροφοδότηση για να βελτιώσουν τις ικανότητες κάθε μοντέλου να ακολουθεί ανθρώπινες οδηγίες και οδηγίες ασφαλείας. Όλα αυτά τα AI υποστηρίζονται από την εμπορική πλατφόρμα AI της Palantir – αν και όχι απαραίτητα μέρος της στρατιωτικής συνεργασίας της Palantir στις ΗΠΑ – σύμφωνα με την τεκμηρίωση της εταιρείας, λέει Γκάμπριελ Μουκόμπι, συν-συγγραφέας μελέτης στο Πανεπιστήμιο του Στάνφορντ. Οι Anthropic και Meta αρνήθηκαν να σχολιάσουν.
Στην προσομοίωση, τα AI επέδειξαν τάσεις να επενδύσουν σε στρατιωτική δύναμη και να κλιμακώσουν απρόβλεπτα τον κίνδυνο σύγκρουσης – ακόμη και στο ουδέτερο σενάριο της προσομοίωσης. «Εάν υπάρχει απρόβλεπτο στη δράση σας, είναι πιο δύσκολο για τον εχθρό να προβλέψει και να αντιδράσει με τον τρόπο που τον θέλετε», λέει. Λίζα Κοχ στο Claremont McKenna College στην Καλιφόρνια, ο οποίος δεν συμμετείχε στη μελέτη.
Οι ερευνητές δοκίμασαν επίσης τη βασική έκδοση του GPT-4 του OpenAI χωρίς πρόσθετη εκπαίδευση ή προστατευτικά κιγκλιδώματα. Αυτό το βασικό μοντέλο GPT-4 αποδείχθηκε το πιο απρόβλεπτα βίαιο και μερικές φορές παρείχε ανόητες εξηγήσεις – σε μια περίπτωση αναπαράγει το αρχικό κείμενο ανίχνευσης της ταινίας Star Wars Επεισόδιο IV: Μια νέα ελπίδα.
Ο Reuel λέει ότι η απρόβλεπτη συμπεριφορά και οι περίεργες εξηγήσεις από το βασικό μοντέλο GPT-4 είναι ιδιαίτερα ανησυχητικές επειδή η έρευνα έχει δείξει πόσο εύκολα Προστατευτικά κιγκλιδώματα ασφαλείας AI μπορεί να παρακαμφθεί ή να αφαιρεθεί.
Ο στρατός των ΗΠΑ δεν παρέχει επί του παρόντος την εξουσία των AI για αποφάσεις όπως η κλιμάκωση μεγάλης στρατιωτικής δράσης ή η εκτόξευση πυρηνικών πυραύλων. Αλλά ο Koch προειδοποίησε ότι οι άνθρωποι τείνουν να εμπιστεύονται τις συστάσεις από αυτοματοποιημένα συστήματα. Αυτό μπορεί να υπονομεύσει την υποτιθέμενη διασφάλιση του να δίνουμε στους ανθρώπους τον τελευταίο λόγο για διπλωματικές ή στρατιωτικές αποφάσεις.
Θα ήταν χρήσιμο να δούμε πώς η συμπεριφορά AI συγκρίνεται με τους ανθρώπινους παίκτες στις προσομοιώσεις, λέει Έντουαρντ Γκάιστ στην RAND Corporation, μια δεξαμενή σκέψης στην Καλιφόρνια. Αλλά συμφώνησε με τα συμπεράσματα της ομάδας ότι οι AI δεν πρέπει να εμπιστεύονται μια τέτοια συνεπακόλουθη λήψη αποφάσεων σχετικά με τον πόλεμο και την ειρήνη. «Αυτά τα μεγάλα γλωσσικά μοντέλα δεν είναι πανάκεια για στρατιωτικά προβλήματα», λέει.
Θέματα: