Δεν υπάρχει εβδομάδα χωρίς μια νέα ανακοίνωση ενός νέου γραφείου τεχνητής νοημοσύνης, ενός ινστιτούτου ασφάλειας τεχνητής νοημοσύνης ή ενός συμβουλευτικού οργάνου τεχνητής νοημοσύνης που έχει ξεκινήσει μια κυβέρνηση, συνήθως οι δημοκρατικές κυβερνήσεις αυτού του κόσμου. Όλοι παλεύουν με το «Πώς να ρυθμίσετε την τεχνητή νοημοσύνη» και φαίνεται να επιλέγουν, χωρίς πολλές διαφοροποιήσεις, να επικεντρωθούν στην ασφάλεια.
Την περασμένη εβδομάδα είδαμε το Υπουργείο Εσωτερικής Ασφάλειας των ΗΠΑ να ενώνει αυτή τη γραμμή προσπαθειών με το δικό του συμβουλευτικό σώμα. Πολλοί εκπρόσωποι του κλάδου, ορισμένοι από τον ακαδημαϊκό χώρο και την κοινωνία των πολιτών, για να εξετάσουν την ασφάλεια της τεχνητής νοημοσύνης στο δικό της πλαίσιο. Και αυτό που είναι αξιοσημείωτο μέσα σε όλη αυτή την εστίαση στην ασφάλεια είναι το πόσο μικρή έμφαση και ακόμη και προσοχή δίνεται στον περιορισμό ή την τοποθέτηση προστατευτικών κιγκλιδωμάτων γύρω από τη χρήση της τεχνητής νοημοσύνης στο πλαίσιο των στρατιωτικών.
Και αυτό είναι αξιοσημείωτο γιατί μπορούμε ήδη να δούμε τις βλάβες της υπερβολικής εξάρτησης από την τεχνητή νοημοσύνη, ακόμα κι αν η βιομηχανία το ωθεί πραγματικά ως την τελευταία της ευκαιρία. Απλώς κοιτάξτε τα επιχειρηματικά κεφάλαια που χύνονται στην αμυντική τεχνολογία ή το “DefTech” όπως ονομάζεται ευρέως. Και έτσι, νομίζω ότι πρέπει να πιέσουμε για διεύρυνση του φακού όταν μιλάμε για ασφάλεια τεχνητής νοημοσύνης, ώστε να συμπεριλάβουμε δεσμευτικούς κανόνες για στρατιωτικές χρήσεις της τεχνητής νοημοσύνης. Οι ζημιές είναι πραγματικές. Αφορά καταστάσεις ζωής και θανάτου. Απλώς φανταστείτε ότι κάποιος αναγνωρίζεται εσφαλμένα ως νόμιμος στόχος για επίθεση με drone, ή τα είδη χρήσεων που βλέπουμε στην Ουκρανία, όπου εργαλεία αναγνώρισης προσώπου, άλλα είδη δεδομένων, εφαρμογές τεχνητής νοημοσύνης χρησιμοποιούνται στο πεδίο της μάχης χωρίς πολλούς κανόνες γύρω από αυτό, γιατί Η ομίχλη του πολέμου επιτρέπει επίσης στις εταιρείες να πηδήξουν κάπως στο κενό.
Επομένως, είναι σημαντικό η ασφάλεια της τεχνητής νοημοσύνης να περιλαμβάνει τουλάχιστον την εστίαση και τη συζήτηση σχετικά με τη σωστή χρήση της τεχνητής νοημοσύνης στο πλαίσιο του πολέμου, της μάχης και των συγκρούσεων, για τα οποία βλέπουμε πάρα πολλά στον σημερινό κόσμο, και ότι υπάρχουν κανόνες που ξεκίνησε από δημοκρατικές χώρες για να διασφαλιστεί ότι η τάξη που βασίζεται σε κανόνες, το διεθνές δίκαιο και το ανθρωπιστικό δίκαιο για τα ανθρώπινα δικαιώματα τηρούνται ακόμη και στο πλαίσιο των πιο πρόσφατων τεχνολογιών όπως η τεχνητή νοημοσύνη.