Σημείωση του συντάκτη γνώμης: Το Star Tribune Opinion δημοσιεύει έναν συνδυασμό εθνικών και τοπικών σχόλια ηλεκτρονικά και έντυπα κάθε μέρα. Για να συνεισφέρετε, κάντε κλικ εδώ.
•••
Στις 11 Μαρτίου 2011, ένας σεισμός μεγέθους 7,4 βαθμών της κλίμακας Ρίχτερ εξαπέλυσε ένα τσουνάμι 130 ποδιών που έπληξε την ανατολική ακτή της Ιαπωνίας με τεράστια δύναμη και ακρωτηρίασε τον πυρηνικό σταθμό της Φουκουσίμα. Εξέθεσε την Ιαπωνία και τον υπόλοιπο κόσμο στην πιο σοβαρή πυρηνική κρίση μετά το Τσερνόμπιλ. Στην πραγματικότητα, ο κόσμος εξακολουθεί να αντιμετωπίζει την κρίση. Νωρίτερα φέτος, η Ιαπωνία άρχισε να απελευθερώνει ραδιενεργό νερό από τις κατεστραμμένες εγκαταστάσεις στον Ειρηνικό Ωκεανό.
Αυτό που πρέπει να θυμόμαστε είναι ότι οι σχεδιαστές, οι μηχανικοί και οι υπεύθυνοι χάραξης πολιτικής που είναι υπεύθυνοι για την προστασία των εγκαταστάσεων της Φουκουσίμα είχαν πραγματικά σκεφτεί την πιθανότητα ενός τσουνάμι και την εξόπλισαν με έναν τοίχο βαρέως τύπου που θα προστατεύει το εργοστάσιο παραγωγής ενέργειας από ένα «ένα στα 1.000 -έτος» τσουνάμι.
Δυστυχώς, το παλιρροϊκό κύμα που έπληξε τη Φουκουσίμα ήταν ένα γεγονός ένα στα 10.000 χρόνια.
Καθώς οι σχεδιαστές, οι κατασκευαστές και οι υπεύθυνοι χάραξης πολιτικής εξετάζουν τη ρύθμιση της τεχνητής νοημοσύνης, αξίζει να θυμόμαστε την ιστορία της Φουκουσίμα.
Όπως τα οφέλη της πυρηνικής ενέργειας, τα οφέλη της τεχνητής νοημοσύνης είναι τεράστια. Θα ήταν ασύνετο να μην διερευνηθεί πώς η κοινωνία θα μπορούσε να αξιοποιήσει την τεχνολογία προς όφελος της ανθρωπότητας.
Ταυτόχρονα, δεν είναι συνετό να αρνηθούμε τους πολλούς κινδύνους της τεχνητής νοημοσύνης. Είναι, για παράδειγμα, στη σφαίρα της πιθανότητας ότι ένα ασταθές, ριζοσπαστικό άτομο με περιορισμένη μόνο κατανόηση της βιοτεχνολογίας θα μπορούσε να χρησιμοποιήσει την τεχνητή νοημοσύνη για να δημιουργήσει και να απελευθερώσει στον κόσμο ένα νέο, υπερ-μολυσματικό αερομεταφερόμενο παθογόνο που θα μπορούσε να δημιουργήσει ζωή σε αυτόν τον πλανήτη. μη βιώσιμη.
Πολλοί στοχαστικοί και ευφυείς ειδικοί έχουν εκφράσει διαφορετικές απόψεις σχετικά με το εάν η τεχνητή νοημοσύνη αποτελεί υπαρξιακή απειλή για την κοινωνία. Οι υποστηρικτές των χαλαρότερων κανονισμών συνήθως υποστηρίζουν την ιδέα ότι, ενώ τέτοιες απειλές είναι δυνατές, οι πιθανότητες να συμβούν τέτοια πράγματα είναι εξαιρετικά χαμηλές.
Η θέση μου είναι απλή: Οι ρυθμιστικές αρχές και οι νομοθέτες πρέπει να θεσπίσουν και να επιβάλουν τους αυστηρότερους κανονισμούς και τους ισχυρότερους νόμους σχετικά με την τεχνητή νοημοσύνη. Το λέω αυτό όχι επειδή είμαι κατά της τεχνολογίας ή κατά των επιχειρήσεων, αλλά επειδή καταλαβαίνω τα μαθηματικά και τις πιθανότητες. Ακόμα κι αν οι πιθανότητες τεχνητής νοημοσύνης που αποτελεί υπαρξιακή απειλή για την ανθρωπότητα είναι μόλις 0,0001 τοις εκατό – ή μία στις 10.000 – πρέπει να λάβουμε αυτή την απειλή στα σοβαρά.
Η ιστορία μάς υπενθυμίζει ότι σπάνια, χαμηλής πιθανότητας γεγονότα του «Μαύρου Κύκνου» συμβαίνουν περιστασιακά και ότι ακόμη και οι προσεκτικές διασφαλίσεις – όπως το τείχος στη Φουκουσίμα – κρίνονται ανεπαρκείς εκ των υστέρων. Δεύτερον, και πιο σημαντικό, μια απλή ανάλυση κόστους-οφέλους της τεχνητής νοημοσύνης δεν είναι υπέρ της ελαφριάς ρύθμισης.
Όταν το κόστος για κάτι που συμβαίνει είναι κυριολεκτικά ανυπολόγιστο (δηλαδή, η απώλεια όλης της ανθρώπινης ζωής), είναι δύσκολο να καταλάβουμε γιατί μια κοινωνία δεν θα έκανε ό,τι περνά από το χέρι της για να προφυλαχθεί από αυτήν την πιθανότητα — όσο απομακρυσμένη ή απίθανη. Το να κάνεις οτιδήποτε λιγότερο δεν σημαίνει απλώς πρόσκληση καταστροφής, είναι συνταγή για καταστροφή.
Ο Jack Uldrich είναι ο συγγραφέας του “A Smarter Farm: How AI is Revolutionary the Future of Agriculture”. Προηγουμένως υπηρέτησε ως διευθυντής του Γραφείου Στρατηγικού και Μακροπρόθεσμου Σχεδιασμού της Μινεσότα υπό τον κυβερνήτη Jesse Ventura.