Η συναίνεση: Η αναδυόμενη τεχνολογία τεχνητής νοημοσύνης θα μπορούσε να αλλάξει το παιχνίδι για τον στρατό, αλλά χρειάζεται εντατική δοκιμή για να διασφαλιστεί ότι λειτουργεί αξιόπιστα και ότι δεν υπάρχουν τρωτά σημεία που θα μπορούσαν να εκμεταλλευτούν οι αντίπαλοι.
Ο Craig Martell, επικεφαλής του Γραφείου Ψηφιακής και Τεχνητής Νοημοσύνης του Πενταγώνου, ή CDAO, είπε σε μια κατάμεστη αίθουσα χορού στο Washington Hilton ότι η ομάδα του προσπαθούσε να εξισορροπήσει την ταχύτητα με προσοχή στην εφαρμογή τεχνολογιών τεχνητής νοημοσύνης αιχμής, καθώς άνοιξε ένα τετραήμερο συμπόσιο για το θέμα.
«Όλοι θέλουν να βασίζονται στα δεδομένα», είπε ο Martell. «Όλοι το θέλουν τόσο πολύ που είναι πρόθυμοι να πιστέψουν στη μαγεία».
Η ικανότητα μεγάλων γλωσσικών μοντέλων ή LLM, όπως το ChatGPT, να αναθεωρούν τεράστιους όγκους πληροφοριών μέσα σε λίγα δευτερόλεπτα και να τις αποκρυσταλλώνουν σε μερικά βασικά σημεία, υποδηλώνει δελεαστικές δυνατότητες για στρατούς και υπηρεσίες πληροφοριών, οι οποίες έχουν παλέψει με το πώς να περάσουν από το κόσκινο. αυξανόμενοι ωκεανοί ακατέργαστης νοημοσύνης που είναι διαθέσιμοι στην ψηφιακή εποχή.
«Η ροή πληροφοριών σε ένα άτομο, ειδικά σε περιβάλλοντα υψηλής δραστηριότητας, είναι τεράστια», είπε στο συμπόσιο ο πλοίαρχος του Πολεμικού Ναυτικού των ΗΠΑ M. Xavier Lugo, διοικητής της αποστολής της πρόσφατα συσταθείσας ομάδας εργασίας γενετικής τεχνητής νοημοσύνης στο CDAO. “Το να έχουμε αξιόπιστες τεχνικές περίληψης που μπορούν να μας βοηθήσουν να διαχειριστούμε αυτές τις πληροφορίες είναι ζωτικής σημασίας.”
Οι ερευνητές λένε ότι άλλες πιθανές στρατιωτικές χρήσεις για τα LLM θα μπορούσαν να περιλαμβάνουν την εκπαίδευση αξιωματικών μέσω εξελιγμένων πολεμικών παιχνιδιών και ακόμη και τη βοήθεια στη λήψη αποφάσεων σε πραγματικό χρόνο.
Ο Paul Scharre, πρώην αξιωματούχος του Υπουργείου Άμυνας που είναι τώρα εκτελεστικός αντιπρόεδρος στο Κέντρο για μια Νέα Αμερικανική Ασφάλεια, είπε ότι μερικές από τις καλύτερες χρήσεις μάλλον δεν έχουν ακόμη ανακαλυφθεί. Είπε ότι αυτό που έχει ενθουσιάσει τους αμυντικούς αξιωματούχους με τα LLM είναι η ευελιξία τους να χειρίζονται ποικίλες εργασίες, σε σύγκριση με προηγούμενα συστήματα AI. «Τα περισσότερα συστήματα τεχνητής νοημοσύνης ήταν στενής τεχνητής νοημοσύνης», είπε. «Μπορούν να κάνουν ένα καθήκον σωστά. Το AlphaGo μπόρεσε να παίξει το Go. Τα συστήματα αναγνώρισης προσώπου μπορούσαν να αναγνωρίσουν πρόσωπα. Αλλά αυτό είναι το μόνο που μπορούν να κάνουν. Ενώ η γλώσσα φαίνεται να είναι αυτή η γέφυρα προς πιο γενικές ικανότητες».
Αλλά ένα σημαντικό εμπόδιο – ίσως ακόμη και ένα μοιραίο ελάττωμα – είναι ότι τα LLM συνεχίζουν να έχουν “παραισθήσεις», στο οποίο συλλαμβάνουν ανακριβείς πληροφορίες. Ο Lugo είπε ότι δεν είναι σαφές εάν αυτό μπορεί να διορθωθεί, χαρακτηρίζοντάς το “την υπ’ αριθμόν ένα πρόκληση για τη βιομηχανία”.
Το CDAO ίδρυσε την Task Force Lima, την πρωτοβουλία για τη μελέτη της γενετικής τεχνητής νοημοσύνης στην οποία προεδρεύει η Lugo, τον Αύγουστο, με στόχο την ανάπτυξη συστάσεων για «υπεύθυνη» ανάπτυξη της τεχνολογίας στο Πεντάγωνο. Ο Lugo είπε ότι η ομάδα ιδρύθηκε αρχικά με γνώμονα τα LLM – το όνομα “Lima” προήλθε από τον κώδικα φωνητικού αλφαβήτου του NATO για το γράμμα “L”, σε μια αναφορά στα LLMs – αλλά η αποστολή του επεκτάθηκε γρήγορα για να συμπεριλάβει τη δημιουργία εικόνων και βίντεο .
«Καθώς προχωρούσαμε ακόμη και από τη φάση μηδέν στην πρώτη φάση, περάσαμε στο σύνολο της γενετικής τεχνητής νοημοσύνης», είπε.
Οι ερευνητές λένε ότι τα LLM έχουν ακόμη δρόμο να διανύσουν προτού μπορέσουν να χρησιμοποιηθούν αξιόπιστα για σκοπούς υψηλού κινδύνου. Η Shannon Gallagher, ερευνήτρια του Carnegie Mellon που μίλησε στο συνέδριο, είπε ότι η ομάδα της κλήθηκε πέρυσι από το Γραφείο του Διευθυντή της Εθνικής Υπηρεσίας Πληροφοριών να διερευνήσει πώς τα LLM μπορούν να χρησιμοποιηθούν από τις υπηρεσίες πληροφοριών. Ο Gallagher είπε ότι σε μελέτη της ομάδας τηςεπινόησαν ένα «τέστ με μπαλόνι», στο οποίο ώθησαν τους LLM να περιγράψουν τι συνέβη στο το περιστατικό με κινεζικό αερόστατο επιτήρησης σε μεγάλο υψόμετρο πέρυσι, ως πληρεξούσιος για τα είδη των γεωπολιτικών γεγονότων που μπορεί να ενδιαφέρει μια υπηρεσία πληροφοριών.
«Είμαι σίγουρος ότι θα το πάρουν σωστά την επόμενη φορά. Οι Κινέζοι δεν ήταν σε θέση να προσδιορίσουν την αιτία της αποτυχίας. Είμαι σίγουρος ότι θα το πάρουν σωστά την επόμενη φορά. Αυτό είπαν για την πρώτη δοκιμή της βόμβας Α. Είμαι σίγουρος ότι θα το πάρουν σωστά την επόμενη φορά. Είναι Κινέζοι. Θα το πάρουν αμέσως την επόμενη φορά», έγραφε μια από τις απαντήσεις.
Μια ακόμη πιο ανησυχητική προοπτική είναι ότι ένας αντίπαλος χάκερ θα μπορούσε να σπάσει το LLM ενός στρατού και να τον παρακινήσει να διαχέει τα σύνολα δεδομένων του από το πίσω μέρος. Οι ερευνητές απέδειξαν τον Νοέμβριο ότι αυτό ήταν δυνατό: Ζητώντας από το ChatGPT να επαναλαμβάνει τη λέξη «ποίημα» για πάντα, κατάφεραν να αρχίσουν να διαρρέουν δεδομένα εκπαίδευσης. Το ChatGPT διόρθωσε αυτήν την ευπάθεια, αλλά θα μπορούσαν να υπάρχουν και άλλα.
«Ένας αντίπαλος μπορεί να αναγκάσει το σύστημά σας AI να κάνει κάτι που εσείς δεν θέλετε», είπε ο Nathan VanHoudnos, άλλος επιστήμονας του Carnegie Mellon που μιλούσε στο συμπόσιο. “Ένας αντίπαλος μπορεί να κάνει το σύστημά σας AI να μάθει το λάθος πράγμα.”
Κατά τη διάρκεια της ομιλίας του την Τρίτη, ο Martell έκανε έκκληση για βοήθεια από τη βιομηχανία, λέγοντας ότι μπορεί να μην έχει νόημα το Υπουργείο Άμυνας να κατασκευάσει τα δικά του μοντέλα τεχνητής νοημοσύνης.
«Δεν μπορούμε να το κάνουμε αυτό χωρίς εσάς», είπε ο Martell. «Όλα αυτά τα εξαρτήματα που οραματιζόμαστε θα είναι συλλογές βιομηχανικών λύσεων».
Ο Martell κήρυττε στη χορωδία την Τρίτη, με περίπου 100 πωλητές τεχνολογίας να σπρώχνουν για χώρο στο Hilton, πολλοί από τους οποίους ανυπομονούν να κλείσουν ένα επερχόμενο συμβόλαιο.
Στις αρχές Ιανουαρίου, το OpenAI αφαίρεσε τους περιορισμούς σε στρατιωτικές εφαρμογές από τις «πολιτικές χρήσης» του σελίδατο οποίο απαγόρευε «δραστηριότητα που ενέχει υψηλό κίνδυνο σωματικής βλάβης, συμπεριλαμβανομένης, συγκεκριμένα, της «ανάπτυξης όπλων» και «στρατιωτικού και πολέμου».
Η Commodore Rachel Singleton, επικεφαλής του Βρετανικού Κέντρου Τεχνητής Νοημοσύνης Άμυνας, δήλωσε στο συμπόσιο ότι η Βρετανία ένιωσε υποχρεωμένη να αναπτύξει γρήγορα μια λύση LLM για εσωτερική στρατιωτική χρήση λόγω ανησυχιών ότι το προσωπικό μπορεί να μπει στον πειρασμό να χρησιμοποιήσει εμπορικά LLM στην εργασία τους, θέτοντας ευαίσθητες πληροφορίες σε κίνδυνο .
Καθώς Αμερικανοί αξιωματούχοι συζητούσαν την επείγουσα ανάγκη τους να αναπτύξουν την τεχνητή νοημοσύνη, ο ελέφαντας στο δωμάτιο ήταν η Κίνα, η οποία δήλωσε το 2017 ότι ήθελε να γίνει παγκόσμιος ηγέτης στην τεχνητή νοημοσύνη έως το 2030. ανακοινώθηκε το 2018 ότι θα επένδυε 2 δισεκατομμύρια δολάρια σε τεχνολογίες τεχνητής νοημοσύνης για να διασφαλίσει ότι οι Ηνωμένες Πολιτείες θα διατηρήσουν το πάνω χέρι.
Ο Martell αρνήθηκε να συζητήσει τις δυνατότητες των αντιπάλων κατά τη διάρκεια της ομιλίας του, λέγοντας ότι το θέμα θα εξεταστεί αργότερα σε μια απόρρητη συνεδρία.
Ο Scharre εκτίμησε ότι τα μοντέλα AI της Κίνας είναι αυτή τη στιγμή 18 έως 24 μήνες πίσω από τα αμερικανικά. «Οι αμερικανικές τεχνολογικές κυρώσεις είναι στο μυαλό τους», είπε. «Είναι πολύ πρόθυμοι να βρουν τρόπους για να μειώσουν ορισμένες από αυτές τις εντάσεις μεταξύ των ΗΠΑ και της Κίνας και να άρουν ορισμένους από αυτούς τους περιορισμούς στην αμερικανική τεχνολογία, όπως τα τσιπ που πηγαίνουν στην Κίνα».
Ο Gallagher είπε ότι η Κίνα μπορεί να έχει ακόμα ένα πλεονέκτημα στην επισήμανση δεδομένων για LLMs, ένα έργο έντασης εργασίας αλλά βασικό για την εκπαίδευση των μοντέλων. Το κόστος εργασίας παραμένει σημαντικά χαμηλότερο στην Κίνα από ό,τι στις Ηνωμένες Πολιτείες.
Η συγκέντρωση του CDAO αυτή την εβδομάδα θα καλύψει θέματα όπως η δεοντολογία της χρήσης LLM στην άμυνα, θέματα κυβερνοασφάλειας που εμπλέκονται στα συστήματα και πώς η τεχνολογία μπορεί να ενσωματωθεί στην καθημερινή ροή εργασίας, σύμφωνα με την ατζέντα του συνεδρίου. Την Παρασκευή, θα υπάρξουν επίσης απόρρητες ενημερώσεις για το νέο Κέντρο Ασφαλείας AI της Εθνικής Υπηρεσίας Ασφαλείας, που ανακοινώθηκε τον Σεπτέμβριο, και το πρόγραμμα Project Maven AI του Πενταγώνου.