Ο Ρίτσαρντ Μπράνσον πιστεύει ότι το περιβαλλοντικό κόστος των διαστημικών ταξιδιών «θα μειωθεί ακόμη περισσότερο».
Patrick T. Fallon | AFP | Getty Images
Δεκάδες προσωπικότητες υψηλού προφίλ στις επιχειρήσεις και την πολιτική καλούν τους παγκόσμιους ηγέτες να αντιμετωπίσουν τους υπαρξιακούς κινδύνους της τεχνητής νοημοσύνης και την κλιματική κρίση.
Ιδρυτής του Ομίλου Virgin Ρίτσαρντ Μπράνσονμαζί με τον πρώην Γενικό Γραμματέα των Ηνωμένων Εθνών Μπαν Κι Μουν και τον Τσαρλς Οπενχάιμερ — εγγονό του Αμερικανού φυσικού Τζ. Ρόμπερτ Οπενχάιμερ — υπέγραψαν μια ανοιχτή επιστολή παροτρύνοντας την ανάληψη δράσης ενάντια στους κλιμακούμενους κινδύνους της κλιματικής κρίσης, των πανδημιών, των πυρηνικών όπλων και της ακυβέρνητης τεχνητής νοημοσύνης .
Το μήνυμα ζητά από τους παγκόσμιους ηγέτες να υιοθετήσουν στρατηγική μακροπρόθεσμης άποψης και «αποφασιστικότητα να επιλύσουν δυσεπίλυτα προβλήματα, όχι απλώς να τα διαχειριστούν, τη σοφία να παίρνουν αποφάσεις με βάση επιστημονικά στοιχεία και λόγους και την ταπεινοφροσύνη να ακούσουν όλους όσους επηρεάζονται».
Οι υπογράφοντες ζήτησαν επείγουσα πολυμερή δράση, μεταξύ άλλων μέσω της χρηματοδότησης της μετάβασης από τα ορυκτά καύσιμα, της υπογραφής μιας δίκαιης συνθήκης πανδημίας, της επανέναρξης των συνομιλιών για τα πυρηνικά όπλα και της οικοδόμησης παγκόσμιας διακυβέρνησης που απαιτείται για να γίνει η τεχνητή νοημοσύνη δύναμη για το καλό.
Η επιστολή κυκλοφόρησε την Πέμπτη από τους The Elders, μια μη κυβερνητική οργάνωση που ιδρύθηκε από τον πρώην πρόεδρο της Νότιας Αφρικής Νέλσον Μαντέλα και τον Μπράνσον για να αντιμετωπίσει παγκόσμια ζητήματα ανθρωπίνων δικαιωμάτων και να υποστηρίξει την παγκόσμια ειρήνη.
Το μήνυμα υποστηρίζεται επίσης από το Future of Life Institute, έναν μη κερδοσκοπικό οργανισμό που ιδρύθηκε από τον κοσμολόγο του MIT Max Tegmark και τον συνιδρυτή του Skype Jaan Tallinn, ο οποίος στοχεύει να κατευθύνει τη μετασχηματιστική τεχνολογία όπως η AI προς όφελος της ζωής και μακριά από κινδύνους μεγάλης κλίμακας.
Ο Tegmark είπε ότι οι Πρεσβύτεροι και η οργάνωσή του ήθελαν να μεταφέρουν ότι, αν και από μόνη της δεν είναι «κακή», η τεχνολογία παραμένει ένα «εργαλείο» που θα μπορούσε να οδηγήσει σε ορισμένες τρομερές συνέπειες, εάν αφεθεί να προχωρήσει γρήγορα στα χέρια του λάθος άτομα.
«Η παλιά στρατηγική για την κατεύθυνση προς καλές χρήσεις [when it comes to new technology] Πάντα μαθαίνει από τα λάθη», είπε ο Tegmark σε συνέντευξή του στο CNBC. «Εμείς εφεύραμε τη φωτιά και αργότερα εφεύραμε τον πυροσβεστήρα. Επινοήσαμε το αυτοκίνητο, μετά μάθαμε από τα λάθη μας και εφεύραμε τη ζώνη και τα φανάρια και τα όρια ταχύτητας».
«Αλλά όταν το πράγμα ξεπεράσει ήδη το κατώφλι και τη δύναμη, αυτή η στρατηγική μάθησης από τα λάθη γίνεται… καλά, τα λάθη θα ήταν απαίσια», πρόσθεσε ο Τέγκμαρκ.
“Ως σπασίκλα ο ίδιος, το θεωρώ μηχανική ασφάλειας. Στέλνουμε ανθρώπους στο φεγγάρι, σκεφτήκαμε πολύ προσεκτικά όλα τα πράγματα που θα μπορούσαν να πάνε στραβά όταν βάζεις ανθρώπους σε δεξαμενές εκρηκτικών καυσίμων και τους στέλνεις κάπου όπου κανείς δεν μπορεί να βοηθήσει Και γι’ αυτό τελικά πήγε καλά».
Συνέχισε λέγοντας: «Αυτό δεν ήταν «doomerism». Αυτή ήταν η μηχανική ασφάλειας. Και χρειαζόμαστε αυτό το είδος μηχανικής ασφάλειας και για το μέλλον μας, με πυρηνικά όπλα, με συνθετική βιολογία, με ολοένα και πιο ισχυρή τεχνητή νοημοσύνη».
Η επιστολή εκδόθηκε πριν από τη Διάσκεψη για την Ασφάλεια του Μονάχου, όπου κυβερνητικοί αξιωματούχοι, στρατιωτικοί ηγέτες και διπλωμάτες θα συζητήσουν τη διεθνή ασφάλεια εν μέσω κλιμάκωσης παγκόσμιων ένοπλων συγκρούσεων, συμπεριλαμβανομένων των Ρωσία-Ουκρανία και τους πολέμους Ισραήλ-Χαμάς. Ο Tegmark θα παραστεί στην εκδήλωση για να υποστηρίξει το μήνυμα της επιστολής.
The Future of Life Institute πέρυσι επίσης εξέδωσε ανοιχτή επιστολή υποστηρίζεται από κορυφαίες προσωπικότητες, όπως το αφεντικό της Tesla, Elon Musk και ο συνιδρυτής της Apple, Steve Wozniak, που κάλεσε τα εργαστήρια τεχνητής νοημοσύνης όπως το OpenAI να σταματήσουν την εργασία για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης που είναι πιο ισχυρά από το GPT-4 – αυτή τη στιγμή το πιο προηγμένο μοντέλο AI από το OpenAI του Sam Altman .
Οι τεχνολόγοι ζήτησαν μια τέτοια παύση στην ανάπτυξη της τεχνητής νοημοσύνης για να αποφευχθεί η «απώλεια ελέγχου» του πολιτισμού, η οποία θα μπορούσε να οδηγήσει σε μαζική εξάλειψη των θέσεων εργασίας και σε υπεροχή των ανθρώπων από τους υπολογιστές.