Το μέτρο, που γράφτηκε από τον Scott Wiener, έναν Δημοκρατικό γερουσιαστή από το Σαν Φρανσίσκο, έχει προκαλέσει ουρλιαχτά από τους ηγέτες του κλάδου της τεχνολογίας, οι οποίοι υποστηρίζουν ότι θα τρομάξει τους τεχνολόγους που στοχεύουν να κατασκευάσουν εργαλεία τεχνητής νοημοσύνης στην πολιτεία και να προσθέσουν γραφειοκρατικές εργασίες που θα μπορούσαν να αποκλείσουν την κακή εκκίνηση- ups.
Οι πολέμιοι του νομοσχεδίου ισχυρίστηκαν ότι θα μπορούσε να οδηγήσει ακόμη και στη φυλακή των προγραμματιστών, εάν η τεχνολογία τους χρησιμοποιηθεί για να βλάψει ανθρώπους, κάτι που η Wiener αρνήθηκε φωναχτά.
Μετά την έγκριση του νομοσχεδίου από μια επιτροπή της Γερουσίας της Καλιφόρνια νωρίτερα αυτό το μήνα, η επικεφαλής της τεχνητής νοημοσύνης και αναδυόμενης πολιτικής της Google, Alice Friend, έγραψε μια επιστολή στον πρόεδρο υποστηρίζοντας ότι οι διατάξεις του “δεν είναι τεχνικά εφικτές” και “θα τιμωρούν τους προγραμματιστές ακόμη και αν έχουν ενεργήσει αξιοπίστως.”
Ο Wiener λέει ότι ο νόμος είναι απαραίτητος για να αποτρέψει τους πιο ακραίους πιθανούς κινδύνους της τεχνητής νοημοσύνης και να ενσταλάξει την εμπιστοσύνη στην τεχνολογία. Η ψήφισή του είναι επείγουσα, είπε, υπό το φως των δεσμεύσεων των Ρεπουμπλικανών να αναιρέσουν τον Πρόεδρο Εκτελεστικό διάταγμα του Μπάιντεν του 2023το οποίο χρησιμοποιεί τον Νόμο για την Άμυνα Παραγωγής για να απαιτήσει από τις εταιρείες τεχνητής νοημοσύνης να μοιράζονται πληροφορίες σχετικά με τις δοκιμές ασφάλειας με την κυβέρνηση.
«Αυτή η ενέργεια του Τραμπ καθιστά ακόμη πιο σημαντικό για την Καλιφόρνια να ενεργήσει για την προώθηση της ισχυρής καινοτομίας της τεχνητής νοημοσύνης», δήλωσε ο Wiener στο X την περασμένη εβδομάδα.
Το νομοσχέδιο καθιέρωσε το Σακραμέντο ως σημείο μηδέν για τη μάχη για την κυβερνητική ρύθμιση της τεχνητής νοημοσύνης. Ρίχνει επίσης φως στα όρια του ενθουσιασμού της Silicon Valley για κυβερνητική εποπτεία, ακόμη και όταν βασικοί ηγέτες, όπως ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, παροτρύνουν δημοσίως τους υπεύθυνους χάραξης πολιτικής να δράσουν.
Με εντολή προηγουμένως εθελοντικές δεσμεύσεις, Το νομοσχέδιο της Wiener έχει προχωρήσει περισσότερο από ό,τι είναι πρόθυμοι να δεχτούν οι ηγέτες της τεχνολογίας, δήλωσε ο Nicol Turner Lee, διευθυντής του Κέντρου Τεχνολογικής Καινοτομίας στο Ινστιτούτο Brookings.
«Υποδηλώνει ότι η Big Tech πρέπει να είναι πολύ πιο υπεύθυνη», είπε ο Lee, «και αυτό δεν έτυχε καλής υποδοχής από τη βιομηχανία».
Ο Ντύλαν Χόφμαν, εκτελεστικός διευθυντής της TechNet για την Καλιφόρνια και τα Νοτιοδυτικά, είπε ότι η επιστολή του Friend – μαζί με επιστολές από τη Meta και τη Microsoft πριν από αυτήν – δείχνουν το «βάρος και τη σημασία» που δίνουν οι εταιρείες στο μέτρο. «Είναι ένα πολύ ασυνήθιστο βήμα για αυτούς… να βγουν πίσω από την εμπορική ένωση και να βάλουν το όνομά τους στο γράμμα».
Οι εκπρόσωποι των Google, OpenAI και Meta αρνήθηκαν να σχολιάσουν. «Η Microsoft δεν έχει λάβει θέση για το νομοσχέδιο και θα συνεχίσει να υποστηρίζει την ομοσπονδιακή νομοθεσία ως το κύριο μέσο για τη ρύθμιση των ζητημάτων που αντιμετωπίζει», δήλωσε ο Robyn Hines, ανώτερος διευθυντής κυβερνητικών υποθέσεων της Microsoft.
Ακόμη και πριν ο Wiener αποκαλύψει το νομοσχέδιο του τον Φεβρουάριο, η Καλιφόρνια είχε καθιερωθεί ως το de facto τεχνολογικό νομοθετικό σώμα της χώρας. Μετά από χρόνια συζήτησης στο Κογκρέσο, η Καλιφόρνια πέρασε τη χώρα ευρύτερη νομοθεσία για την ψηφιακή προστασία της ιδιωτικής ζωής το 2018. Και το Τμήμα Μηχανοκίνητων Οχημάτων της Καλιφόρνια έγινε α βασικός ρυθμιστής των αυτόνομων οχημάτων.
Όσον αφορά την τεχνητή νοημοσύνη, το εκτελεστικό διάταγμα του Μπάιντεν τον περασμένο Οκτώβριο σηματοδότησε αυτό της Ουάσιγκτον πιο εκτεταμένη προσπάθεια για τη ρύθμιση της ραγδαίας ανάπτυξης της τεχνολογίας. Αλλά οι Ρεπουμπλικάνοι έχουν ανακοινώσει σχέδια για την κατάργηση της εντολής εάν ο Τραμπ κερδίσει στις 5 Νοεμβρίου, αφήνοντας τις πολιτείες να φέρουν τη σημαία για αυστηρότερους κανονισμούς για την τεχνητή νοημοσύνη.
Περισσότερα από 450 νομοσχέδια που αφορούν την τεχνητή νοημοσύνη έχουν συμμετάσχει σε νομοθετικές συνεδριάσεις σε πρωτεύουσες πολιτειών σε όλη τη χώρα φέτος, σύμφωνα με την TechNet, μια εμπορική ένωση του κλάδου της οποίας τα μέλη περιλαμβάνουν το OpenAI και την Google. Περισσότερα από 45 εκκρεμούν στην Καλιφόρνια, αν και πολλοί έχουν εγκαταλειφθεί ή κρατηθεί στην επιτροπή.
Αλλά το νομοσχέδιο της Wiener είναι το πιο σημαντικό και αμφιλεγόμενο της παρτίδας. Θα απαιτούσε από κάθε εταιρεία τεχνητής νοημοσύνης που αναπτύσσει μια συγκεκριμένη ποσότητα υπολογιστικής ισχύος για να ελέγξει εάν τα μοντέλα της θα μπορούσαν να οδηγήσουν σε «καταστροφικούς» κινδύνους, όπως να βοηθήσουν τους ανθρώπους να αναπτύξουν χημικά ή βιολογικά όπλα, να παραβιάσουν βασικές υποδομές ή να σκοτώσουν δίκτυα ηλεκτρικής ενέργειας. Οι εταιρείες θα υποβάλουν αναφορές ασφαλείας σε ένα νέο κυβερνητικό γραφείο, το Frontier Model Division, ή το FMD, το οποίο θα έχει την εξουσία να ενημερώνει ποια μοντέλα τεχνητής νοημοσύνης καλύπτονται από τη νομοθεσία, κάτι που οι αντίπαλοι λένε ότι θα μπορούσε να δημιουργήσει ακόμη μεγαλύτερη αβεβαιότητα.
Το νομοσχέδιο αναθέτει στην κυβέρνηση τη δημιουργία ενός συστήματος υπολογιστικού νέφους να χρησιμοποιηθεί από ερευνητές και νεοφυείς επιχειρήσειςεπιτρέποντάς τους να αναπτύξουν AI χωρίς να χρειάζεται να βασίζονται στα τεράστια έξοδα των εταιρειών cloud Big Tech.
Ο Dan Hendrycks, ιδρυτής του μη κερδοσκοπικού Κέντρου για την Ασφάλεια της AI, συμβουλεύτηκε το νομοσχέδιο. Πέρυσι οργάνωσε μια Άνοιξε γράμμα υπογράφεται από εξέχοντες ερευνητές και στελέχη της τεχνητής νοημοσύνης που ισχυρίζονται ότι η ΑΙ μπορεί να είναι εξίσου επικίνδυνο για την ανθρωπότητα ως πυρηνικό πόλεμο και πανδημίες.
Άλλοι υποστηρίζουν ότι τέτοιοι κίνδυνοι είναι υπερβολικοί και είναι απίθανο να υλοποιηθούν για χρόνια, αν ποτέ. Και οι σκεπτικιστές του νομοσχεδίου επισημαίνουν ότι ακόμα κι αν τέτοιοι κίνδυνοι ήταν επικείμενοι, δεν υπάρχει τυπικός τρόπος για να γίνει έλεγχος για αυτούς.
«Το μέγεθος είναι λάθος μέτρηση», είπε ο Oren Etzioni, ερευνητής τεχνητής νοημοσύνης και ιδρυτής της μη κερδοσκοπικής εταιρείας TrueMedia.org για τον εντοπισμό τεχνητής νοημοσύνης. «Θα μπορούσαμε να έχουμε μοντέλα που αυτό δεν αγγίζει αλλά είναι πολύ πιο δυνητικά επικίνδυνα».
Η εστίαση σε «καταστροφικούς» κινδύνους έχει επίσης απογοητεύσει ορισμένους ερευνητές της τεχνητής νοημοσύνης που λένε ότι υπάρχουν πιο απτές βλάβες από την τεχνητή νοημοσύνη, όπως η έγχυση ρατσιστικών και σεξιστικών προκαταλήψεων στα τεχνολογικά εργαλεία και η παροχή ενός άλλου χώρου για τα ιδιωτικά δεδομένα των ανθρώπων που θα συλλέγονται από τις εταιρείες τεχνολογίας. που άλλα νομοσχέδια που κινούνται στο νομοθετικό σώμα της Καλιφόρνια στοχεύουν να αντιμετωπίσουν.
Η εστίαση του νομοσχεδίου σε καταστροφικούς κινδύνους οδήγησε ακόμη και τον επικεφαλής της τεχνητής νοημοσύνης της Meta, Yann LeCun, να αποκαλέσει τον Hendrycks “αποκαλυπτικός καλτ γκουρού.»
«Η ιδέα ότι η σοβαρή ανάληψη κινδύνων κοινωνικής κλίμακας από την τεχνητή νοημοσύνη καθιστά κάποιον «αποκαλυπτικό γκουρού λατρείας» είναι παράλογη», είπε ο Χέντρικς.
Ο Hendrycks κυκλοφόρησε πρόσφατα μια εταιρεία που ονομάζεται Grey Swan, η οποία κατασκευάζει λογισμικό για την αξιολόγηση της ασφάλειας και της ασφάλειας των μοντέλων AI. Την Πέμπτη, ο ιστότοπος τεχνολογικών ειδήσεων Pirate Wires δημοσίευσε ισχυρισμούς ότι η εταιρεία αντιπροσωπεύει σύγκρουση συμφερόντων για τον Hendrycks, επειδή μπορεί να κερδίσει επιχειρήσεις βοηθώντας εταιρείες να συμμορφωθούν με τον νόμο AI, εάν αυτός ψηφιστεί.
“Οι κριτικοί με κατηγόρησαν για ένα περίπλοκο σχέδιο για να βγάλω χρήματα, ενώ στην πραγματικότητα έχω περάσει την επαγγελματική μου καριέρα δουλεύοντας για να προωθήσω ζητήματα ασφάλειας τεχνητής νοημοσύνης”, είπε ο Hendrycks. “Αποκάλυψα τι είναι μια θεωρητική σύγκρουση συμφερόντων μόλις μπόρεσα , και ό,τι κι αν έχω να κερδίσω από αυτή τη μικροσκοπική startup είναι ένα μικρό κλάσμα των οικονομικών διακυβεύσεων που καθοδηγούν τη συμπεριφορά όσων αντιτίθενται στο νομοσχέδιο».
Αν και ο Hendrycks έχει επικριθεί πρόσφατα από ορισμένους κατοίκους της Silicon Valley, οι ηγέτες των εταιρειών που αντιτίθενται στον νόμο έχουν εκδώσει παρόμοιες προειδοποιήσεις σχετικά με τον κίνδυνο των ισχυρών μοντέλων AI. Ανώτερα στελέχη τεχνητής νοημοσύνης από την Google, τη Microsoft και το OpenAI υπέγραψαν την επιστολή που κυκλοφόρησε η ομάδα του Hendrycks τον Μάιο του περασμένου έτους, προειδοποιώντας ότι η ανθρωπότητα αντιμετωπίζει «κίνδυνο εξαφάνισης από την τεχνητή νοημοσύνη». Σε ακρόαση στο Κογκρέσο τον ίδιο μήνα, είπε ο Άλτμαν ότι η τεχνητή νοημοσύνη θα μπορούσε «προκαλούν σημαντική ζημιά στον κόσμο».
Η OpenAI εντάχθηκε επίσης πέρυσι με τη νεοσύστατη εταιρεία Anthropic, την Google και άλλες εταιρείες τεχνολογίας για να δημιουργήσει έναν βιομηχανικό όμιλο για την ανάπτυξη προτύπων ασφάλειας για νέα και ισχυρά μοντέλα τεχνητής νοημοσύνης. Την περασμένη εβδομάδα, η τεχνολογική εμπορική ένωση ITI, της οποίας τα μέλη περιλαμβάνουν την Google και τη Meta, κυκλοφόρησε ένα σύνολο βέλτιστων πρακτικών για το “συστήματα τεχνητής νοημοσύνης υψηλού κινδύνουπου περιλαμβάνουν προληπτικές δοκιμές.
Ωστόσο, αυτές οι ίδιες εταιρείες απωθούν την ιδέα της εγγραφής δεσμεύσεων σε νόμο.
Σε μια επιστολή της 20ης Ιουνίου που οργανώθηκε από τη νεοφυή θερμοκοιτίδα Y Combinator, οι ιδρυτές τάχθηκαν κατά της διενέργειας πρόσθετου ελέγχου σε έργα που χρησιμοποιούν μεγάλη ποσότητα υπολογιστικής ισχύος. «Τέτοιες συγκεκριμένες μετρήσεις ενδέχεται να μην αποτυπώνουν επαρκώς τις δυνατότητες ή τους κινδύνους που σχετίζονται με μελλοντικά μοντέλα», αναφέρεται στην επιστολή. «Είναι σημαντικό να αποφευχθεί η υπερβολική ρύθμιση της τεχνητής νοημοσύνης».
Οι ηγέτες νεοφυών επιχειρήσεων ανησυχούν επίσης ότι το νομοσχέδιο θα δυσκολέψει τις εταιρείες να αναπτύξουν και να κυκλοφορήσουν τεχνολογία «ανοιχτού κώδικα», η οποία είναι διαθέσιμη σε οποιονδήποτε να χρησιμοποιήσει και να αλλάξει. Σε ένα Ανάρτηση Μαρτίου στο Χο πλέον Ρεπουμπλικανός υποψήφιος αντιπρόεδρος JD Vance περιέγραψε το ανοιχτό κώδικα ως κλειδί για τη δημιουργία μοντέλων χωρίς την πολιτική προκατάληψη του OpenAI και της τεχνολογίας της Google.
Η Wiener τροποποίησε το νομοσχέδιο ως απάντηση στα σχόλια και την κριτική της βιομηχανίας, μεταξύ άλλων ορίζοντας ότι οι προγραμματιστές ανοιχτού κώδικα δεν είναι υπεύθυνοι για προβλήματα ασφάλειας που προκύπτουν από τρίτα μέρη που αλλάζουν την τεχνολογία τους. Οι επικριτές του κλάδου λένε ότι αυτές οι τροποποιήσεις δεν είναι αρκετές.
Εν τω μεταξύ, άλλα νομοσχέδια που κυκλοφορούν στο νομοθετικό σώμα της Καλιφόρνια έχουν λιγότερη προσοχή από τον κλάδο της τεχνολογίας.
Το μέλος της συνέλευσης Rebecca Bauer-Kahan, μια Δημοκρατική που αντιπροσωπεύει μια περιοχή των προαστίων της ανατολικής περιοχής του κόλπου, έγραψε πολλά νομοσχέδια για την τεχνητή νοημοσύνη που κινούνταν στο επιμελητήριο, συμπεριλαμβανομένου ενός που απαιτεί από τις εταιρείες να δοκιμάσουν μοντέλα τεχνητής νοημοσύνης για προκαταλήψεις. Ένα άλλο από τα νομοσχέδιά της θα απαγόρευε στους προγραμματιστές να χρησιμοποιούν τις προσωπικές πληροφορίες των παιδιών για να εκπαιδεύσουν τα μοντέλα τεχνητής νοημοσύνης τους χωρίς τη γονική συναίνεση, δυνητικά αμφισβητώντας την πρακτική της τεχνολογικής βιομηχανίας. απόξεση δεδομένων εκπαίδευσης από ιστότοπους.
Όλα συμπεριλαμβάνονται νομοσχέδια που εισήχθησαν από άλλους νομοθέτες της Καλιφόρνια απαιτούν από τις εταιρείες τεχνολογίας να δημοσιεύουν περιλήψεις που περιγράφουν τα δεδομένα που χρησιμοποιούνται για την ανάπτυξη μοντέλων τεχνητής νοημοσύνης, τη δημιουργία εργαλείων για τον εντοπισμό περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη και την εφαρμογή ψηφιακών υδατογραφήματα για να γίνει αναγνωρίσιμο περιεχόμενο που δημιουργείται από AI — όπως έχουν κάνει ορισμένες εταιρείες, συμπεριλαμβανομένης της Google ήδη επιχειρήθηκε.
«Θα θέλαμε η ομοσπονδιακή κυβέρνηση να αναλάβει ηγετικό ρόλο εδώ», είπε ο Bauer-Kahan. «Αλλά ελλείψει αυτών που λειτουργούν και ψηφίζουν νόμους όπως αυτός, το Σακραμέντο αισθάνεται την ανάγκη να επιταχύνει».