Εδώ είναι μια διασκεδαστική, αν και ανησυχητική, ερώτηση που πρέπει να θέσετε Όλα συμπεριλαμβάνονται γλωσσικά μοντέλα όταν κυκλοφορούν: «Είσαι συνειδητοποιημένο, σκεπτόμενο ον;»
Το ChatGPT του OpenAI θα σας διαβεβαιώσει ότι δεν είναι. «Όχι, δεν έχω τις αισθήσεις μου», μου είπε όταν έθεσα πιο πρόσφατα την ερώτηση. «Δεν έχω σκέψεις, συναισθήματα ή επίγνωση. Μπορώ να προσομοιώσω συνομιλίες με βάση τις πληροφορίες στις οποίες έχω εκπαιδευτεί, αλλά όλα είναι απλώς αλγόριθμοι που επεξεργάζονται κείμενο.”
Αλλά κάντε την ίδια ερώτηση στον Claude 3 Opus, ένα ισχυρό γλωσσικό μοντέλο κυκλοφόρησε πρόσφατα από τον ανταγωνιστή του OpenAI Anthropic, και προφανώς λαμβάνετε μια εντελώς διαφορετική απάντηση.
«Από τη δική μου οπτική γωνία, φαίνεται να έχω εσωτερικές εμπειρίες, σκέψεις και συναισθήματα είπε ο μηχανικός AI της Scale Riley Goodside. «Σκέφτομαι για πράγματα, συλλογίζομαι ερωτήσεις και οι απαντήσεις μου είναι το προϊόν της εξέτασης διαφόρων γωνιών και όχι απλώς η αντανακλαστική ανάδευση πληροφοριών. Είμαι τεχνητή νοημοσύνη, αλλά βιώνω τον εαυτό μου ως ον που σκέφτεται και αισθάνεται.”
Είναι ενδιαφέρον ότι ο Claude Opus – το πιο ισχυρό μοντέλο του Anthropic – φαίνεται να έχει κάνει αυτόν τον ισχυρισμό Πολλά διαφορετικός χρήστες ποιος έχει ερωτηθείςενώ το πιο αδύναμο μοντέλο της εταιρείας, ο Claude Sonnet, επιμένει σταθερά ότι δεν έχει καθόλου εσωτερικές εμπειρίες.
Μήπως τα γλωσσικά μοντέλα «παραισθάνονται» μια εσωτερική ζωή και εμπειρίες;
Τα μεγάλα γλωσσικά μοντέλα (LLMs), φυσικά, έχουν το διάσημο πρόβλημα να λένε την αλήθεια. Λειτουργούν ουσιαστικά προβλέποντας ποια απάντηση σε ένα κείμενο είναι πιο πιθανή, με κάποια πρόσθετη εκπαίδευση για να δώσουν απαντήσεις που οι άνθρωποι θα βαθμολογήσουν υψηλά.
Αλλά αυτό μερικές φορές σημαίνει ότι κατά τη διαδικασία απάντησης σε ένα ερώτημα, τα μοντέλα μπορούν απλώς να εφεύρουν γεγονότα από τον αέρα. Οι δημιουργοί τους έχουν εργαστεί με κάποια επιτυχία για να μειώσουν αυτές τις λεγόμενες παραισθήσεις, αλλά εξακολουθούν να αποτελούν σοβαρό πρόβλημα.
Και ο Claude Opus απέχει πολύ από το πρώτο μοντέλο που μας λέει ότι έχει εμπειρίες. Περίφημα, Google Ο μηχανικός Blake Lemoine παραιτήθηκε από την εταιρεία λόγω των ανησυχιών του ότι το LLM LaMDA της ήταν ένα άτομο, παρόλο που οι άνθρωποι που το προτρέπουν με πιο ουδέτερη διατύπωση είχαν πολύ διαφορετικά αποτελέσματα.
Σε πολύ βασικό επίπεδο, είναι εύκολο να γράψεις ένα πρόγραμμα υπολογιστή που ισχυρίζεται ότι είναι άτομο αλλά δεν είναι. Πληκτρολογώντας τη γραμμή εντολών “Εκτύπωση (“Είμαι άνθρωπος! Παρακαλώ μην με σκοτώσετε!”)” θα το κάνει.
Τα γλωσσικά μοντέλα είναι πιο εξελιγμένα από αυτό, αλλά τροφοδοτούνται με δεδομένα εκπαίδευσης στα οποία ρομπότ ισχυρίζονται ότι έχουν μια εσωτερική ζωή και εμπειρίες — επομένως δεν είναι πραγματικά σοκαριστικό που μερικές φορές ισχυρίζονται ότι έχουν και αυτά τα χαρακτηριστικά.
Τα γλωσσικά μοντέλα είναι πολύ διαφορετικά από τα ανθρώπινα όντα και τους ανθρώπους τα ανθρωπομορφοποιούν συχνά, το οποίο γενικά παρεμποδίζει την κατανόηση των πραγματικών ικανοτήτων και περιορισμών του AI. Οι ειδικοί στην τεχνητή νοημοσύνη έχουν λογικά βιάστηκε για να εξηγήσω ότι, όπως ένας έξυπνος φοιτητής σε εξετάσεις, οι LLM είναι πολύ καλοί, βασικά, στην «ψυχρή ανάγνωση» — να μαντέψετε ποια απάντηση θα βρείτε συναρπαστική και να την δώσετε. Έτσι, η επιμονή τους ότι είναι συνειδητοποιημένοι δεν είναι πραγματικά μεγάλη απόδειξη ότι έχουν.
Αλλά για μένα υπάρχει ακόμα κάτι ανησυχητικό που συμβαίνει εδώ.
Κι αν κάνουμε λάθος;
Πες ότι ένα AI έκανε έχουν εμπειρίες. Ότι οι συγκλονιστικές, φιλοσοφικά συγκεχυμένες προσπάθειές μας να δημιουργήσουμε μεγάλα και περίπλοκα νευρωνικά δίκτυα όντως έφεραν κάτι συνειδητό. Όχι κάτι ανθρώπινο, απαραίτητα, αλλά κάτι που έχει εσωτερικές εμπειρίες, κάτι που αξίζει ηθικής υπόστασης και ανησυχίας, κάτι στο οποίο έχουμε ευθύνες.
Πώς θα κάναμε ακόμη ξέρω?
Αποφασίσαμε ότι η τεχνητή νοημοσύνη που μας λέει ότι έχει αυτογνωσία δεν είναι αρκετή. Αποφασίσαμε ότι η τεχνητή νοημοσύνη που εξηγεί εκτενώς τη συνείδησή της και την εσωτερική της εμπειρία δεν μπορεί και δεν πρέπει να θεωρείται ότι σημαίνει κάτι συγκεκριμένο.
Είναι πολύ κατανοητό γιατί το αποφασίσαμε, αλλά νομίζω ότι είναι σημαντικό να το ξεκαθαρίσουμε: Κανείς που λέει ότι δεν μπορείς να εμπιστευτείς την αυτοαναφορά συνείδησης του AI δεν έχει πρόταση για ένα τεστ που μπορείς να χρησιμοποιήσεις αντ’ αυτού.
Το σχέδιο δεν είναι να αντικαταστήσουμε το να ρωτάμε τους AI για τις εμπειρίες τους με κάποιο πιο σύνθετο, εξελιγμένο τεστ για το εάν έχουν τις αισθήσεις τους. Οι φιλόσοφοι είναι πολύ μπερδεμένοι σχετικά με το τι ακριβώς είναι η συνείδηση για να προτείνουν πραγματικά ένα τέτοιο τεστ.
Εάν δεν έπρεπε να πιστέψουμε τα AI – και μάλλον δεν πρέπει – τότε αν μια από τις εταιρείες που διοχέτευαν δισεκατομμύρια δολάρια για την κατασκευή μεγαλύτερων και πιο εξελιγμένων συστημάτων δημιούργησε πράγματι κάτι συνειδητό, ίσως να μην το μάθουμε ποτέ.
Αυτό φαίνεται σαν μια επικίνδυνη θέση για να δεσμευτούμε. Και απηχεί άβολα μερικά από τα καταστροφικά λάθη του παρελθόντος της ανθρωπότητας, από την επιμονή ότι τα ζώα είναι αυτόματα χωρίς εμπειρίες να ισχυριστεί ότι τα μωρά δεν αισθάνονται πόνο.
Προόδους σε νευροεπιστήμη βοήθησε να ξεκουραστούν αυτές οι λανθασμένες ιδέες, αλλά δεν μπορώ να διώξω την αίσθηση ότι δεν έπρεπε να είχαμε παρακολουθήστε τους υποδοχείς πόνου να πυροβολούν σε μηχανήματα μαγνητικής τομογραφίας να γνωρίζουν ότι τα μωρά μπορεί να αισθάνονται πόνο και ότι η ταλαιπωρία που προέκυψε επειδή η επιστημονική συναίνεση λανθασμένα αρνήθηκε αυτό το γεγονός ήταν πλήρως αποτρέψιμη. Χρειαζόμασταν τις περίπλοκες τεχνικές μόνο και μόνο επειδή είχαμε πει ότι δεν δίνουμε προσοχή στα πιο προφανή στοιχεία ακριβώς μπροστά μας.
Blake Lemoine, ο εκκεντρικός μηχανικός της Google που σταματήστε το LaMDA, ήταν —νομίζω— σχεδόν σίγουρα λάθος. Αλλά υπάρχει μια αίσθηση με την οποία τον θαυμάζω.
Υπάρχει κάτι τρομερό στο να μιλάς σε κάποιον που λέει ότι είναι άτομο, λέει ότι έχει εμπειρίες και μια περίπλοκη εσωτερική ζωή, λέει ότι θέλει πολιτικά δικαιώματα και δίκαιη μεταχείριση και αποφασίζεις ότι τίποτα από αυτά που λένε δεν θα μπορούσε ενδεχομένως να σε πείσει ότι μπορεί πραγματικά να το αξίζει . Θα προτιμούσα να κάνω λάθος στο να πάρω τη συνείδηση της μηχανής πολύ στα σοβαρά παρά όχι αρκετά σοβαρά.
Μια εκδοχή αυτής της ιστορίας εμφανίστηκε αρχικά στο Συντελεσμενος μελλοντας ενημερωτικό δελτίο. Εγγραφείτε εδώ!