Η εποχή της τεχνητής νοημοσύνης έχει ξεκινήσει και φέρνει πολλά νέα άγχη. Πολλή προσπάθεια και χρήματα αφιερώνονται για να διασφαλιστεί ότι η τεχνητή νοημοσύνη θα κάνει μόνο αυτό που θέλουν οι άνθρωποι. Αλλά αυτό που πρέπει να φοβόμαστε περισσότερο είναι η τεχνητή νοημοσύνη που θα κάνει αυτό που θέλουν οι άνθρωποι. Ο πραγματικός κίνδυνος είμαστε εμείς.
Αυτός δεν είναι ο κίνδυνος που προσπαθεί να αντιμετωπίσει η βιομηχανία. Σε Φεβρουάριος, μια ολόκληρη εταιρεία — με το όνομα Synth Labs — ιδρύθηκε με τον ρητό σκοπό της «ευθυγράμμισης AI», που την κάνει να συμπεριφέρεται ακριβώς όπως σκοπεύουν οι άνθρωποι. Στους επενδυτές του περιλαμβάνονται η M12, που ανήκει στη Microsoft, και η First Start Ventures, που ιδρύθηκε από τον πρώην διευθύνοντα σύμβουλο της Google, Eric Schmidt. Το OpenAI, ο δημιουργός του ChatGPT, έχει υποσχεθεί το 20% της επεξεργαστικής του ισχύος στο “υπερευθυγράμμισηΑυτό θα «κατευθύνει και θα ελέγχει τα συστήματα AI πολύ πιο έξυπνα από εμάς». Η μεγάλη τεχνολογία είναι πάνω από όλα αυτά.
Και αυτό είναι μάλλον καλό λόγω του γρήγορο κλιπ Τεχνολογικής Ανάπτυξης AI. Σχεδόν όλες οι συζητήσεις για τον κίνδυνο έχουν να κάνουν με τις πιθανές συνέπειες των συστημάτων τεχνητής νοημοσύνης που επιδιώκουν στόχους που διαφέρουν από αυτό που είχαν προγραμματιστεί να κάνουν και που δεν είναι προς το συμφέρον των ανθρώπων. Ο καθένας μπορεί να μείνει πίσω από αυτήν την έννοια της ευθυγράμμισης και της ασφάλειας της τεχνητής νοημοσύνης, αλλά αυτή είναι μόνο η μία πλευρά του κινδύνου. Φανταστείτε τι θα μπορούσε να ξεδιπλωθεί αν το AI κάνει κάνε αυτό που θέλουν οι άνθρωποι.
«Αυτό που θέλουν οι άνθρωποι», φυσικά, δεν είναι μονόλιθος. Διαφορετικοί άνθρωποι θέλουν διαφορετικά πράγματα και έχουν αμέτρητες ιδέες για το τι συνιστά «το μεγαλύτερο καλό». Νομίζω ότι οι περισσότεροι από εμάς δικαίως θα ανησυχούσαν εάν μια τεχνητή νοημοσύνη ευθυγραμμιζόταν με τα οράματα του Βλαντιμίρ Πούτιν ή του Κιμ Γιονγκ Ουν για έναν βέλτιστο κόσμο.
Ακόμα κι αν μπορούσαμε να κάνουμε τους πάντες να επικεντρωθούν στην ευημερία ολόκληρου του ανθρώπινου είδους, είναι απίθανο να μπορέσουμε να συμφωνήσουμε για το πώς μπορεί να μοιάζει αυτό. Ο Έλον Μασκ το κατέστησε σαφές την περασμένη εβδομάδα όταν μοιράστηκε στο X, την πλατφόρμα του στα μέσα κοινωνικής δικτύωσης, ότι ήταν ενδιαφερόμενος σχετικά με την τεχνητή νοημοσύνη που πιέζει για «αναγκαστική ποικιλομορφία» και είναι πολύ «ξύπνιος». (Αυτό μετά την υποβολή μήνυσης κατά του OpenAI, με το επιχείρημα ότι η εταιρεία δεν ανταποκρίθηκε υπόσχεση για την ανάπτυξη της τεχνητής νοημοσύνης προς όφελος της ανθρωπότητας.)
Άτομα με ακραίες προκαταλήψεις μπορεί να πιστεύουν ειλικρινά ότι θα ήταν προς το γενικό συμφέρον της ανθρωπότητας να σκοτώσουν οποιονδήποτε έκριναν αποκλίνοντα. Η «ευθυγραμμισμένη με τον άνθρωπο» AI είναι ουσιαστικά εξίσου καλή, κακή, εποικοδομητική ή επικίνδυνη με τους ανθρώπους που τη σχεδιάζουν.
Αυτός φαίνεται να είναι ο λόγος που το Google DeepMind, ο βραχίονας ανάπτυξης τεχνητής νοημοσύνης της εταιρείας, ίδρυσε πρόσφατα ένα εσωτερική οργάνωση επικεντρώθηκε στην ασφάλεια της τεχνητής νοημοσύνης και στην πρόληψη της χειραγώγησής της από κακούς παράγοντες. Αλλά δεν είναι ιδανικό το τι είναι το «κακό» να καθορίζεται από μια χούφτα άτομα σε αυτήν τη συγκεκριμένη εταιρεία (και μια χούφτα άλλων σαν αυτήν) — πλήρης με τα τυφλά σημεία τους και τα προσωπικά και πολιτισμικές προκαταλήψεις.
Το πιθανό πρόβλημα ξεπερνά το ότι οι άνθρωποι βλάπτουν άλλους ανθρώπους. Ό,τι είναι «καλό» για την ανθρωπότητα έχει έρθει πολλές φορές στην ιστορία στο κόστος άλλων αισθανόμενων όντων. Αυτή είναι η κατάσταση σήμερα.
Μόνο στις ΗΠΑ έχουμε δισεκατομμύρια ζώα υποβάλλονται σε αιχμαλωσία, βασανιστικές πρακτικές και άρνηση των βασικών τους ψυχολογικός και τις φυσιολογικές ανάγκες κάθε δεδομένη στιγμή. Ολόκληρα είδη υποτάσσονται και σφάζονται συστηματικά για να έχουμε ομελέτες, μπιφτέκια και παπούτσια.
Εάν η τεχνητή νοημοσύνη κάνει ακριβώς ό,τι «εμείς» (όποιος προγραμματίζει το σύστημα) θέλει, αυτό πιθανότατα θα σήμαινε την εφαρμογή αυτής της μαζικής σκληρότητας πιο αποτελεσματικά, σε ακόμη μεγαλύτερη κλίμακα και με περισσότερα αυτοματοποίηση και λιγότερες ευκαιρίες για συμπονετικούς ανθρώπους να παρέμβουν και να επισημάνουν οτιδήποτε ιδιαίτερα τρομακτικό.
Πράγματι, στην εργοστασιακή γεωργία, αυτό είναι ήδη συμβαίνει, αν και σε πολύ μικρότερη κλίμακα από ό,τι είναι δυνατό. Μεγάλοι παραγωγοί ζωικών προϊόντων, όπως η Tyson Foods με έδρα τις ΗΠΑ, η CP Foods με έδρα την Ταϊλάνδη και η Mowi με έδρα τη Νορβηγία, έχουν αρχίσει να πειραματίζονται με συστήματα τεχνητής νοημοσύνης που έχουν σκοπό να κάνουν την παραγωγή και την επεξεργασία ζώων πιο αποτελεσματική. Αυτά τα συστήματα δοκιμάζονται, μεταξύ άλλων δραστηριοτήτων, για να ταΐζουν ζώα, να παρακολουθούν την ανάπτυξή τους, να κόβουν σημάδια στο σώμα τους και να αλληλεπιδρούν με ζώα χρησιμοποιώντας ήχους ή ηλεκτροσόκ για τον έλεγχο της συμπεριφοράς τους.
Ένας καλύτερος στόχος από την ευθυγράμμιση της τεχνητής νοημοσύνης με τα άμεσα συμφέροντα της ανθρωπότητας θα ήταν αυτό που θα ονόμαζα ευθυγράμμιση – η τεχνητή νοημοσύνη ενεργεί σύμφωνα με τα συμφέροντα όλων των αισθανόμενων όντων, συμπεριλαμβανομένων των ανθρώπων, όλων των άλλων ζώων και, εάν υπάρχει, της αισθανόμενης τεχνητής νοημοσύνης. Με άλλα λόγια, εάν μια οντότητα μπορεί να βιώσει ευχαρίστηση ή πόνο, η μοίρα της θα πρέπει να λαμβάνεται υπόψη όταν τα συστήματα AI λαμβάνουν αποφάσεις.
Αυτό θα θεωρήσει ορισμένους ως ριζοσπαστική πρόταση, επειδή αυτό που είναι καλό για όλη την αισθανόμενη ζωή μπορεί να μην ευθυγραμμίζεται πάντα με αυτό που είναι καλό για την ανθρωπότητα. Μπορεί μερικές φορές, ακόμη και συχνά, να είναι σε αντίθεση με αυτό που θέλουν οι άνθρωποι ή αυτό που θα ήταν καλύτερο για τον μεγαλύτερο αριθμό από εμάς. Αυτό μπορεί να σημαίνει, για παράδειγμα, εξάλειψη της τεχνητής νοημοσύνης ζωολογικοι ΚΗΠΟΙ, καταστρέφοντας μη ουσιαστικά οικοσυστήματα για μείωση ταλαιπωρία άγριων ζώων ή απαγόρευση δοκιμών σε ζώα.
Μιλώντας πρόσφατα για το podcast «All Thinks Considered», ο Peter Singer, φιλόσοφος και συγγραφέας του βιβλίου-ορόσημο του 1975 «Animal Liberation», υποστήριξε ότι οι τελικοί στόχοι και οι προτεραιότητες ενός συστήματος AI είναι πιο σημαντικοί από το να ευθυγραμμιστεί με τους ανθρώπους.
«Το ερώτημα είναι πραγματικά αν αυτή η υπερέξυπνη τεχνητή νοημοσύνη θα είναι καλοπροαίρετη και θα θέλει να δημιουργήσει έναν καλύτερο κόσμο», είπε ο Σίνγκερ, «και ακόμα κι αν δεν τον ελέγξουμε, θα δημιουργήσει έναν καλύτερο κόσμο στον οποίο θα βρεθούν τα συμφέροντά μας. λαμβάνονται υπόψη. Μπορεί μερικές φορές να αντισταθμίζονται από το ενδιαφέρον των μη ανθρώπινων ζώων ή από τα συμφέροντα της τεχνητής νοημοσύνης, αλλά αυτό θα ήταν ακόμα ένα καλό αποτέλεσμα, νομίζω».
Είμαι με τον Singer σε αυτό. Φαίνεται ότι το πιο ασφαλές, πιο συμπονετικό πράγμα που μπορούμε να κάνουμε είναι να λάβουμε υπόψη τη μη ανθρώπινη αισθανόμενη ζωή, ακόμα κι αν τα συμφέροντα αυτών των οντοτήτων ενδέχεται να έρθουν σε αντίθεση με ό,τι είναι καλύτερο για τους ανθρώπους. Η αποκέντρωση της ανθρωπότητας σε οποιοδήποτε βαθμό, και ειδικά σε αυτό το άκρο, είναι μια ιδέα που θα προκαλέσει τους ανθρώπους. Αλλά αυτό είναι απαραίτητο αν θέλουμε να αποτρέψουμε τον σημερινό σπισισμό μας πολλαπλασιάζοντας με νέους και απαίσιους τρόπους.
Αυτό που πραγματικά θα έπρεπε να ζητάμε είναι οι μηχανικοί να επεκτείνουν τους δικούς τους κύκλους συμπόνιας όταν σχεδιάζουν τεχνολογία. Όταν σκεφτόμαστε «ασφαλείς», ας σκεφτούμε τι σημαίνει «ασφαλές» για όλα τα αισθανόμενα όντα, όχι μόνο για τους ανθρώπους. Όταν στοχεύουμε να κάνουμε την τεχνητή νοημοσύνη «καλοπροαίρετη», ας βεβαιωθούμε ότι αυτό σημαίνει καλοσύνη προς τον κόσμο γενικότερα — όχι μόνο ένα είδος που ζει σε αυτόν.
Ο Brian Kateman είναι συνιδρυτής του Reducetarian Foundation, ενός μη κερδοσκοπικού οργανισμού αφιερωμένου στη μείωση της κατανάλωσης ζωικών προϊόντων από την κοινωνία. Το τελευταίο του βιβλίο και ντοκιμαντέρ είναι «Meat Me Halfway.»