Από τότε που το OpenAI κυκλοφόρησε το ChatGPT στον κόσμο, έχουμε δει να σας παίρνει ο κόσμος που δεν θα πίστευε. Κάποιοι άνθρωποι το έχουν ισχυριστεί Τα chatbots έχουν μια αφύπνιση ατζέντα. Ο Αμερικανός γερουσιαστής Κρις Μέρφι έγραψε στο Twitter Το ChatGPT «δίδαξε» τον εαυτό του προηγμένη χημεία. Ακόμη και έμπειροι δημοσιογράφοι τεχνολογίας έχουν γράψει ιστορίες για το πώς το Το chatbot τους ερωτεύτηκε. Φαίνεται ότι ο κόσμος αντιδρά στην τεχνητή νοημοσύνη με τον ίδιο τρόπο που πιθανότατα αντέδρασαν οι άνθρωποι των σπηλαίων όταν είδαν φωτιά για πρώτη φορά: με απόλυτη σύγχυση και ασυνάρτητες φλυαρίες.
Ένα από τα τελευταία παραδείγματα προέρχεται από 60 Λεπτά, το οποίο έριξε τη φωνή του στο ρινγκ με ένα νέο επεισόδιο επικεντρωμένο στις καινοτομίες στην τεχνητή νοημοσύνη που προβλήθηκε την Κυριακή του CBS. Το επεισόδιο περιλάμβανε συνεντεύξεις με ανθρώπους όπως ο CEO της Google, Sundar Pichai — και περιλάμβανε αμφισβητήσεις ισχυρίζεται για ένα από τα μεγάλα γλωσσικά μοντέλα της εταιρείας (LLM).
Το θέμα του κλιπ αφορά την αναδυόμενη συμπεριφορά, η οποία περιγράφει μια απροσδόκητη παρενέργεια ενός συστήματος τεχνητής νοημοσύνης που δεν προοριζόταν απαραίτητα από τους προγραμματιστές του μοντέλου. Έχουμε ήδη δει την αναδυόμενη συμπεριφορά να εμφανίζεται σε άλλα πρόσφατα έργα τεχνητής νοημοσύνης. Για παράδειγμα, οι ερευνητές χρησιμοποίησαν πρόσφατα το ChatGPT για να δημιουργήσουν δημιουργικούς ψηφιακούς χαρακτήρες με στόχους και φόντο στο α μελέτη που δημοσιεύτηκε στο διαδίκτυο την περασμένη εβδομάδα. Παρατήρησαν το σύστημα να εκτελεί πολλαπλές αναδυόμενες συμπεριφορές, όπως να μοιράζεται νέες πληροφορίες από έναν χαρακτήρα στον άλλο και ακόμη και να δημιουργεί σχέσεις μεταξύ τους – κάτι που οι συγγραφείς δεν είχαν αρχικά σχεδιάσει για το σύστημα.
Η επείγουσα συμπεριφορά είναι σίγουρα ένα αξιόλογο θέμα για συζήτηση σε μια εκπομπή ειδήσεων. Όπου το 60 Λεπτά Το κλιπ παίρνει τη στροφή, ωστόσο, είναι όταν γνωρίζουμε τους ισχυρισμούς ότι το chatbot της Google ήταν πραγματικά σε θέση να διδάξει τον εαυτό του μια γλώσσα που προηγουμένως δεν ήξερε αφού του ζητήθηκε σε αυτήν τη γλώσσα. «Για παράδειγμα, ένα πρόγραμμα τεχνητής νοημοσύνης της Google προσαρμόστηκε μόνο του αφού του ζητήθηκε στη γλώσσα του Μπαγκλαντές, την οποία δεν είχε εκπαιδευτεί να γνωρίζει», είπε ο ανταποκριτής του CBS News Scott Pelley στο απόσπασμα.
Αποδείχθηκε ότι ήταν πλήρες BS. Όχι μόνο το ρομπότ δεν μπορούσε να μάθει μια ξένη γλώσσα «δεν εκπαιδεύτηκε ποτέ να ξέρει», αλλά δεν δίδαξε στον εαυτό του μια νέα δεξιότητα. Ολόκληρο το βίντεο ώθησε ερευνητές και ειδικούς της τεχνητής νοημοσύνης να αποδοκιμάσουν το παραπλανητικό πλαίσιο του ειδησεογραφικού προγράμματος στο Twitter.
“Ελπίζω σίγουρα κάποιος δημοσιογράφος να κάνει μια ανασκόπηση ολόκληρου του τμήματος @60 Minutes στο Google Bard ως μελέτη περίπτωσης για το πώς *όχι* να καλύψει την τεχνητή νοημοσύνη”, η Μέλανι Μίτσελ, ερευνήτρια τεχνητής νοημοσύνης και καθηγήτρια στο Ινστιτούτο Σάντα Φε. έγραψε σε tweet.
«Σταματήστε τη μαγική σκέψη στην τεχνολογία! Δεν είναι δυνατό για ένα #AI να απαντήσει στα Μπενγκάλι, εκτός εάν τα δεδομένα εκπαίδευσης έχουν μολυνθεί με το Μπενγκάλι ή δεν έχουν εκπαιδευτεί σε γλώσσα που επικαλύπτεται με τα Μπενγκάλι, όπως τα Ασαμέζικα, τα Ορίγια ή τα Χίντι», Μ. Alex O. Vasilescu, a ερευνητής στο MIT, προστέθηκε σε άλλη ανάρτηση.
Αξίζει να το αναφέρουμε 60 Λεπτά Το τμήμα δεν είπε ακριβώς ποια ήταν η τεχνητή νοημοσύνη που χρησιμοποίησαν. Ωστόσο, ένας εκπρόσωπος του CBS είπε στο The Daily Beast ότι το κλιπ δεν ήταν μια συζήτηση για τον Bard αλλά ένα ξεχωριστό πρόγραμμα τεχνητής νοημοσύνης που ονομάζεται PaLM – η υποκείμενη τεχνολογία του οποίου αργότερα ενσωματώθηκε στο Bard.
Οι λόγοι που το τμήμα ήταν τόσο απογοητευτικό για αυτούς τους ειδικούς είναι επειδή αγνοεί και χειραγωγεί την πραγματικότητα για το τι μπορεί να κάνει πραγματικά μια γενετική τεχνητή νοημοσύνη. Δεν μπορεί να «διδάξει» στον εαυτό του μια γλώσσα αν δεν είχε εξαρχής πρόσβαση σε αυτήν. Αυτό θα ήταν σαν να προσπαθείς να διδάξεις τον εαυτό σου Mandarin, αλλά το έχεις ακούσει μόνο αφού κάποιος σε ρώτησε μια φορά το Mandarin.
Σε τελική ανάλυση, η γλώσσα είναι απίστευτα περίπλοκη—με λεπτές αποχρώσεις και κανόνες που απαιτούν απίστευτο βαθμό πλαισίου για την κατανόηση και την επικοινωνία. Δεν υπάρχει τρόπος ακόμη και για τους πιο προχωρημένους LLM να αντιμετωπίσουν και να μάθουν όλα αυτά μέσω μερικών μηνυμάτων.
Το PaLM είχε ήδη εκπαιδευτεί με το Μπενγκάλι, την κυρίαρχη γλώσσα του Μπαγκλαντές. Η Margaret Mitchell (καμία σχέση), μια ερευνήτρια στο AT startup lab HuggingFace και πρώην της Google, το εξήγησε σε μια νήμα tweet προβάλλοντας το επιχείρημα για το γιατί 60 Λεπτά ήταν λάθος.
Ο Μίτσελ επεσήμανε ότι, σε μια επίδειξη του 2022, η Google έδειξε ότι το PaLM μπορούσε να επικοινωνεί και να ανταποκρίνεται σε προτροπές στα Μπενγκάλι. ο χαρτί πίσω από το PalM αποκάλυψε σε ένα φύλλο δεδομένων ότι το μοντέλο ήταν πράγματι εκπαιδευμένο στη γλώσσα με περίπου 194 εκατομμύρια μάρκες στο αλφάβητο της Μπενγκάλι.
Έτσι, ως δια μαγείας δεν έμαθε τίποτα μέσω μιας μόνο προτροπής. Ήξερε ήδη τη γλώσσα.
Δεν είναι σαφές γιατί ο Pichai, ο Διευθύνων Σύμβουλος της Google, κάθισε για τη συνέντευξη και επέτρεψε σε αυτούς τους ισχυρισμούς να περάσουν χωρίς καμία απώθηση. (Η Google δεν απάντησε σε αιτήματα για σχόλια.) Από τότε που προβλήθηκε το επεισόδιο, παρέμεινε σιωπηλός παρά το γεγονός ότι οι ειδικοί επισημαίνουν τους παραπλανητικούς και ψευδείς ισχυρισμούς που έγιναν στο τμήμα. Στο Twitter, η Μάργκαρετ Μίτσελ προτείνεται Ο λόγος για τον οποίο θα μπορούσε να είναι ένας συνδυασμός της ηγεσίας της Google που δεν γνωρίζει πώς λειτουργούν τα προϊόντα της και επίσης ότι επιτρέπει τη διάδοση των κακών μηνυμάτων προκειμένου να αντιμετωπιστεί η τρέχουσα διαφημιστική εκστρατεία γύρω από την τεχνητή νοημοσύνη.
“Υποψιάζομαι [Google executives] κυριολεκτικά δεν καταλαβαίνω πώς λειτουργεί», είπε ο Μίτσελ ανέβασε στο Twitter. «Αυτό που έγραψα παραπάνω είναι πιθανή είδηση για αυτούς. Και έχουν κίνητρο να μην καταλαβαίνουν (κλείστε τα μάτια σας σε αυτό το φύλλο δεδομένων!!).»
Το δεύτερο μισό του βίντεο μπορεί επίσης να θεωρηθεί ως προβληματικό καθώς ο Pichai και ο Pelley συζητούν μια σύντομη ιστορία που δημιούργησε ο Bard που «έμοιαζε τόσο αφοπλιστικά ανθρώπινη», που έκανε και τους δύο άντρες να φαίνονται κάπως συγκλονισμένοι.
Το γεγονός είναι ότι αυτά τα προϊόντα δεν είναι μαγικά. Δεν είναι ικανοί να είναι «άνθρωποι» γιατί δεν είναι άνθρωποι. Είναι προγνωστικά κειμένου όπως αυτά που έχετε στο τηλέφωνό σας, εκπαιδευμένα να βρίσκουν την πιο πιθανή λέξη και φράσεις ακολουθώντας μια σειρά από λέξεις σε φράσεις. Το να πουν ότι είναι θα μπορούσε να τους δώσει ένα επίπεδο εξουσίας που θα μπορούσε να είναι απίστευτα επικίνδυνο.
Σε τελική ανάλυση, οι χρήστες μπορούν να χρησιμοποιήσουν αυτά τα γενετικά AI για να κάνουν πράγματα όπως η διάδοση παραπληροφόρησης. Έχουμε ήδη δει αυτό το παιχνίδι με βαθιά ψεύτικα ομοιώματα ανθρώπων και ακόμη και τις φωνές τους.
Ακόμη και ένα chatbot από μόνο του μπορεί να προκαλέσει ζημιά, εάν καταλήξει να παράγει μεροληπτικά αποτελέσματα – κάτι που έχουμε ήδη δει με ChatGPT και Bard. Γνωρίζοντας την τάση αυτών των chatbot να έχουν παραισθήσεις και να δημιουργούν αποτελέσματα, θα μπορούσε ακόμη και να διαδώσει παραπληροφόρηση σε ανυποψίαστους χρήστες.
Η έρευνα το επιβεβαιώνει και αυτό. Μια πρόσφατη μελέτη δημοσιευτηκε σε Επιστημονικές Εκθέσεις διαπίστωσε ότι οι ανθρώπινες απαντήσεις σε ηθικά ερωτήματα μπορούν εύκολα να επηρεαστούν από τα επιχειρήματα του ChatGPT – και οι χρήστες υποτίμησαν ακόμη και κατάφωρα πόσο επηρεάζονταν από τα ρομπότ.
Οι παραπλανητικοί ισχυρισμοί για 60 Λεπτά είναι πραγματικά απλώς ένα σύμπτωμα μιας μεγαλύτερης ανάγκης για ψηφιακό αλφαβητισμό σε μια εποχή που τον χρειαζόμαστε περισσότερο. Πολλά Οι ειδικοί της τεχνητής νοημοσύνης λένε ότι τώρα, περισσότερο από ποτέ, είναι μια στιγμή που οι άνθρωποι πρέπει να συνειδητοποιήσουν τι ακριβώς μπορεί και τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη. Αυτά τα βασικά στοιχεία για τα bots πρέπει επίσης να κοινοποιούνται αποτελεσματικά στο ευρύτερο κοινό.
Αυτό σημαίνει ότι οι άνθρωποι με τις μεγαλύτερες πλατφόρμες και τις πιο δυνατές φωνές (δηλαδή τα μέσα ενημέρωσης, οι πολιτικοί και τα στελέχη της Big Tech) έχουν τη μεγαλύτερη ευθύνη για τη διασφάλιση ενός ασφαλέστερου, πιο μορφωμένου μέλλοντος όσον αφορά την τεχνητή νοημοσύνη. Αν δεν το κάνουμε, τότε μπορεί απλώς να καταλήξουμε όπως αυτοί οι προαναφερθέντες άνθρωποι των σπηλαίων, παίζοντας με τη μαγεία της φωτιάς – και στη διαδικασία να καούμε.