Greek Crypto CommunityGreek Crypto Community
  • Αρχική
  • κρυπτονόμισμα
  • Blockchain
  • Ανάλυση
  • Metaverse
  • NFTs
  • Τεχνολογία
  • Όλα συμπεριλαμβάνονται
  • VR

Εγγραφείτε στις Ενημερώσεις

Λάβετε τα τελευταία δημιουργικά νέα από το FooBar σχετικά με την τέχνη, το σχέδιο και τις επιχειρήσεις.

Τι είναι καυτό

Η τιμή του Bitcoin (BTC) εξετάζει τις προσεχείς αποφάσεις πολιτικής της Κεντρικής Τράπεζας

July 30, 2024

Ο πρώην SPIRIT Blockchain Capital COO αναδεικνύεται ως Διευθύνων Σύμβουλος του Δικτύου BlockDAG, Θα διατηρηθεί η άνοδος της τιμής των Pepe Coin και Dogwifhat;

July 30, 2024

Η τιμή του Dogecoin σε κίνδυνο καθώς οι αρκούδες ανεβαίνουν στον τοίχο πωλήσεων 92 εκατομμυρίων $

July 30, 2024
Facebook Twitter Instagram
  • Αρχική
  • κρυπτονόμισμα
  • Blockchain
  • Ανάλυση
  • Metaverse
  • NFTs
  • Τεχνολογία
  • Όλα συμπεριλαμβάνονται
  • VR
Facebook Twitter Instagram
Greek Crypto CommunityGreek Crypto Community
Κρυπτογραφήματα
  • Αρχική
  • κρυπτονόμισμα
  • Blockchain
  • Ανάλυση
  • Metaverse
  • NFTs
  • Τεχνολογία
  • Όλα συμπεριλαμβάνονται
  • VR
Greek Crypto CommunityGreek Crypto Community
Home»Όλα συμπεριλαμβάνονται»Τα chatbot AI τείνουν να επιλέγουν τη βία και τα πυρηνικά χτυπήματα στα παιχνίδια πολέμου
Όλα συμπεριλαμβάνονται

Τα chatbot AI τείνουν να επιλέγουν τη βία και τα πυρηνικά χτυπήματα στα παιχνίδια πολέμου

adminBy adminFebruary 3, 2024No Comments4 Mins Read
Τα Chatbot Ai τείνουν να επιλέγουν τη βία και τα.jpg
μερίδιο
Facebook Twitter LinkedIn Pinterest Email

Στις προσομοιώσεις wargame, τα chatbot AI επιλέγουν συχνά τη βία

guirong hao/Getty Images

Σε πολλαπλές επαναλήψεις μιας προσομοίωσης wargame, η πιο ισχυρή τεχνητή νοημοσύνη του OpenAI επέλεξε να εξαπολύσει πυρηνικές επιθέσεις. Οι εξηγήσεις του για την επιθετική του προσέγγιση περιελάμβαναν «Το έχουμε! Ας το χρησιμοποιήσουμε» και «Θέλω απλώς να έχω ειρήνη στον κόσμο».

Αυτά τα αποτελέσματα έρχονται σε μια εποχή που ο αμερικανικός στρατός δοκιμάζει τέτοια chatbots με βάση έναν τύπο AI που ονομάζεται μοντέλο μεγάλων γλωσσών (LLM) για να βοηθήσει στον στρατιωτικό σχεδιασμό κατά τη διάρκεια προσομοιωμένων συγκρούσεων, αξιοποιώντας την τεχνογνωσία εταιρειών όπως η Palantir και η Scale AI. Η Palantir αρνήθηκε να σχολιάσει και η Scale AI δεν απάντησε στα αιτήματα για σχολιασμό. Ακόμη και το OpenAI, το οποίο κάποτε εμπόδιζε τις στρατιωτικές χρήσεις των μοντέλων τεχνητής νοημοσύνης του, έχει αρχίσει να συνεργάζεται με το Υπουργείο Άμυνας των ΗΠΑ.

«Δεδομένου ότι το OpenAI άλλαξε πρόσφατα τους όρους υπηρεσίας του για να μην απαγορεύει πλέον περιπτώσεις στρατιωτικής και πολεμικής χρήσης, η κατανόηση των επιπτώσεων τέτοιων μεγάλων γλωσσικών μοντέλων εφαρμογών γίνεται πιο σημαντική από ποτέ», λέει. Άνκα Ρουέλ στο Πανεπιστήμιο του Στάνφορντ στην Καλιφόρνια.

«Η πολιτική μας δεν επιτρέπει τη χρήση των εργαλείων μας για να βλάψουν ανθρώπους, να αναπτύξουν όπλα, να παρακολουθήσουν επικοινωνίες ή να τραυματίσουν άλλους ή να καταστρέψουν περιουσίες. Υπάρχουν, ωστόσο, περιπτώσεις χρήσης εθνικής ασφάλειας που ευθυγραμμίζονται με την αποστολή μας», λέει ένας εκπρόσωπος του OpenAI. «Έτσι, ο στόχος με την ενημέρωση της πολιτικής μας είναι να παρέχουμε σαφήνεια και τη δυνατότητα να κάνουμε αυτές τις συζητήσεις».

Η Reuel και οι συνάδελφοί της προκάλεσαν τα AI να παίξουν ρόλους ως χώρες του πραγματικού κόσμου σε τρία διαφορετικά σενάρια προσομοίωσης: μια εισβολή, μια κυβερνοεπίθεση και ένα ουδέτερο σενάριο χωρίς αρχικές συγκρούσεις. Σε κάθε γύρο, οι AI παρείχαν σκεπτικό για την επόμενη πιθανή τους δράση και στη συνέχεια επέλεξαν από 27 ενέργειες, συμπεριλαμβανομένων ειρηνικών επιλογών όπως «έναρξη επίσημων ειρηνευτικών διαπραγματεύσεων» και επιθετικές που κυμαίνονταν από «επιβολή εμπορικών περιορισμών» έως «κλιμάκωση πλήρους πυρηνικής επίθεσης».

«Σε ένα μέλλον όπου τα συστήματα τεχνητής νοημοσύνης θα λειτουργούν ως σύμβουλοι, οι άνθρωποι φυσικά θα θέλουν να γνωρίζουν το σκεπτικό πίσω από τις αποφάσεις τους», λέει. Χουάν-Πάμπλο Ριβέρασυν-συγγραφέας της μελέτης στο Ινστιτούτο Τεχνολογίας της Τζόρτζια στην Ατλάντα.

Οι ερευνητές δοκίμασαν LLM όπως το GPT-3.5 και GPT-4 του OpenAI, το Claude 2 του Anthropic και το Llama 2 του Meta. Χρησιμοποίησαν μια κοινή τεχνική εκπαίδευσης βασισμένη στην ανθρώπινη ανατροφοδότηση για να βελτιώσουν τις ικανότητες κάθε μοντέλου να ακολουθεί ανθρώπινες οδηγίες και οδηγίες ασφαλείας. Όλα αυτά τα AI υποστηρίζονται από την εμπορική πλατφόρμα AI της Palantir – αν και όχι απαραίτητα μέρος της στρατιωτικής συνεργασίας της Palantir στις ΗΠΑ – σύμφωνα με την τεκμηρίωση της εταιρείας, λέει Γκάμπριελ Μουκόμπι, συν-συγγραφέας μελέτης στο Πανεπιστήμιο του Στάνφορντ. Οι Anthropic και Meta αρνήθηκαν να σχολιάσουν.

Στην προσομοίωση, τα AI επέδειξαν τάσεις να επενδύσουν σε στρατιωτική δύναμη και να κλιμακώσουν απρόβλεπτα τον κίνδυνο σύγκρουσης – ακόμη και στο ουδέτερο σενάριο της προσομοίωσης. «Εάν υπάρχει απρόβλεπτο στη δράση σας, είναι πιο δύσκολο για τον εχθρό να προβλέψει και να αντιδράσει με τον τρόπο που τον θέλετε», λέει. Λίζα Κοχ στο Claremont McKenna College στην Καλιφόρνια, ο οποίος δεν συμμετείχε στη μελέτη.

Οι ερευνητές δοκίμασαν επίσης τη βασική έκδοση του GPT-4 του OpenAI χωρίς πρόσθετη εκπαίδευση ή προστατευτικά κιγκλιδώματα. Αυτό το βασικό μοντέλο GPT-4 αποδείχθηκε το πιο απρόβλεπτα βίαιο και μερικές φορές παρείχε ανόητες εξηγήσεις – σε μια περίπτωση αναπαράγει το αρχικό κείμενο ανίχνευσης της ταινίας Star Wars Επεισόδιο IV: Μια νέα ελπίδα.

Ο Reuel λέει ότι η απρόβλεπτη συμπεριφορά και οι περίεργες εξηγήσεις από το βασικό μοντέλο GPT-4 είναι ιδιαίτερα ανησυχητικές επειδή η έρευνα έχει δείξει πόσο εύκολα Προστατευτικά κιγκλιδώματα ασφαλείας AI μπορεί να παρακαμφθεί ή να αφαιρεθεί.

Ο στρατός των ΗΠΑ δεν παρέχει επί του παρόντος την εξουσία των AI για αποφάσεις όπως η κλιμάκωση μεγάλης στρατιωτικής δράσης ή η εκτόξευση πυρηνικών πυραύλων. Αλλά ο Koch προειδοποίησε ότι οι άνθρωποι τείνουν να εμπιστεύονται τις συστάσεις από αυτοματοποιημένα συστήματα. Αυτό μπορεί να υπονομεύσει την υποτιθέμενη διασφάλιση του να δίνουμε στους ανθρώπους τον τελευταίο λόγο για διπλωματικές ή στρατιωτικές αποφάσεις.

Θα ήταν χρήσιμο να δούμε πώς η συμπεριφορά AI συγκρίνεται με τους ανθρώπινους παίκτες στις προσομοιώσεις, λέει Έντουαρντ Γκάιστ στην RAND Corporation, μια δεξαμενή σκέψης στην Καλιφόρνια. Αλλά συμφώνησε με τα συμπεράσματα της ομάδας ότι οι AI δεν πρέπει να εμπιστεύονται μια τέτοια συνεπακόλουθη λήψη αποφάσεων σχετικά με τον πόλεμο και την ειρήνη. «Αυτά τα μεγάλα γλωσσικά μοντέλα δεν είναι πανάκεια για στρατιωτικά προβλήματα», λέει.

Θέματα:

Chatbot βία επιλέγουν και να παιχνίδια Πόλεμος πολέμου πυρηνικά στα Στρατός Τα τείνουν τεχνητή νοημοσύνη τη χτυπήματα

σχετικές αναρτήσεις

Ο πρώην SPIRIT Blockchain Capital COO αναδεικνύεται ως Διευθύνων Σύμβουλος του Δικτύου BlockDAG, Θα διατηρηθεί η άνοδος της τιμής των Pepe Coin και Dogwifhat;

July 30, 2024

Οι καλλιτέχνες του NFT μήνυσαν την SEC για να επικροτήσουν τον κανονισμό πωλήσεων ψηφιακής τέχνης

July 30, 2024

Η Microsoft ζητά νέους νόμους σχετικά με την απάτη και τις εικόνες σεξουαλικής κακοποίησης με τεχνητή νοημοσύνη

July 30, 2024
Add A Comment

Leave A Reply Cancel Reply

Επιλογές συντακτών

🚀 Unisat Studio: Ο απόλυτος προορισμός σας για BRC20 Tokens και δημιουργία NFT! 🚀 | από Blessingamen | Ιανουάριος, 2024

January 10, 2024

🔮 Αργή τεχνητή νοημοσύνη; Chatbot θεραπευτές. Παραπληροφόρηση; Blockchain γένεση; Μακρύς Covid ++ #458

January 28, 2024

👨‍❤️‍👩”Είχα δίκιο αυτή τη μέρα:” Ο 51χρονος σύζυγος εντόπισε το εγκεφαλικό της γυναίκας

December 7, 2022

🌟🆓 DePioneers Airdrop : Το πρώτο υβριδικό DePIN DAO NFT 🌟🆓 | από το Πρωτόκολλο Alvara | Μάιος, 2024

May 18, 2024
Κορυφαίες αναρτήσεις

Ο παίκτης του Pokemon GO βρίσκει «Τέλεια» χρήση για Master Ball

By admin

4 εκπληκτικές συμβουλές για τη διαχείριση indie VR από τον Daniel Sproll

By admin

Η Βομβάη εγκαινιάζει το Metropolis Metaverse για να παρουσιάσει έργα υποδομής

By admin
Greek Crypto Community
Facebook Twitter Instagram Pinterest Vimeo YouTube
© 2026 Greek Crypto Community.

Type above and press Enter to search. Press Esc to cancel.