Καθώς η κυβέρνηση Μπάιντεν αρχίζει να την εφαρμόζει εκτελεστικό διάταγμα για την τεχνητή νοημοσύνη και οι ομοσπονδιακές υπηρεσίες αρχίζουν να λαμβάνουν κρίσιμες αποφάσεις σχετικά με το πώς να δημιουργήσουν δίκαια πλαίσια σχετικά με τη χρήση της τεχνητής νοημοσύνης, ένας πρόσφατος νόμος προσφέρει σημαντικά μαθήματα σχετικά με το τι θα χρειαστούν για να είναι αποτελεσματικά και να προστατεύουν τα πολιτικά δικαιώματα.
Αυτός ο νόμος, Νόμος για το Εργαλείο Απόφασης για την Αυτοματοποιημένη Απασχόληση της Νέας Υόρκης — Τοπικός νόμος 144 — είναι ο πρώτος που απαιτεί αλγοριθμικούς ελέγχους δικαιοσύνης για εμπορικά συστήματα. Σύμφωνα με τον τοπικό νόμο 144, οι εργοδότες πρέπει να ειδοποιούν οποιονδήποτε υποβάλλει αίτηση για εργασία που βρίσκεται στη Νέα Υόρκη εάν χρησιμοποιεί ορισμένα αυτοματοποιημένα εργαλεία απόφασης απασχόλησης που υποστηρίζονται από τεχνητή νοημοσύνη στο διαδικασία πρόσληψης ή προαγωγής. Επιπλέον, αυτοί οι εργοδότες πρέπει να διεξάγουν και να δημοσιεύουν ετησίως ανεξάρτητους ελέγχους να αξιολογήσουν τη στατιστική δικαιοσύνη των διαδικασιών τους κατά φυλή και φύλο.
Η θεωρία λειτουργίας του νόμου είναι ότι εάν οι εργοδότες αναγκαστούν να μετρήσουν και να αποκαλύψουν τη δικαιοσύνη των αλγοριθμικών συστημάτων προσλήψεων και προαγωγών τους, θα τους δοθεί κίνητρο να αποφύγουν την κατασκευή ή την αγορά μεροληπτικών συστημάτων. Ερευνητές και ερευνητές δημοσιογράφοι έχουν απεικονίζεται επανειλημμένα ότι συστήματα τεχνητής νοημοσύνης όπως αυτά – τα οποία κατατάσσουν τους αιτούντες με βάση μια αυτοματοποιημένη ανάλυση παραγόντων που μπορεί να κυμαίνονται από το βιογραφικό τους έως τα αντιληπτά συναισθήματά τους σε μια συνέντευξη βίντεο – μπορούν να παράγουν μεροληπτικά αποτελέσματα.
Τα στοιχεία δείχνουν ότι πολλά αυτοματοποιημένα συστήματα εκπαιδεύτηκαν σε δεδομένα που αντικατοπτρίζουν ανθρώπινες, ιστορικές προκαταλήψεις ή/και έχουν αναπτυχθεί με βάση πλαστός συσχετίσεις. Αν και ομοσπονδιακός πρακτορεία έχουν υποδείξει ότι τα αυτοματοποιημένα συστήματα πρέπει να ακολουθούν τους υπάρχοντες νόμους για τα πολιτικά δικαιώματα που απαγορεύουν τις διακρίσεις, ο νόμος της Νέας Υόρκης είναι ο πρώτος κανονισμός που επιβάλλει σε οποιονδήποτε αναπτύσσει ή αναπτύσσει αυτά τα συστήματα να μοιράζεται στοιχεία σχετικά με τη δικαιοσύνη των αποφάσεών του με το κοινό.
Ωστόσο, οι πρώτες μελέτες που πραγματοποιήθηκαν από τους συνεργάτες της έρευνας μου και έχω διαπιστώσει ότι η συμμόρφωση με τη νομοθεσία φαίνεται να είναι σοκαριστικά χαμηλή. Είναι σημαντικό ότι η έρευνά μας δείχνει ότι τουλάχιστον ένα μέρος του ζητήματος αφορά τον ίδιο τον νόμο: Παρά τις καλές προθέσεις, ο τρόπος με τον οποίο ο νόμος δομεί τη λογοδοσία καθιστά λειτουργικά αδύνατο να προσδιοριστεί εάν η η απουσία ελέγχου υποδηλώνει μη συμμόρφωση και Γιατί συμβαίνει η μη συμμόρφωση.
Φαινομενικά, οποιοσδήποτε καλυμμένος εργοδότης ή εταιρεία πρόσληψης πρέπει να τοποθετήσει τους ελέγχους του κάπου στο Διαδίκτυο όπου το ευρύ κοινό – όχι μόνο όσοι αναζητούν εργασία – μπορούν να τους βρουν, συνήθως στη σελίδα των διαθέσιμων θέσεων εργασίας ή του ανθρώπινου δυναμικού. Τα αυτοματοποιημένα εργαλεία λήψης αποφάσεων για την απασχόληση χρησιμοποιούνται ευρέως σήμερα. Πράγματι, είναι πλέον σπάνιο να υπάρχουν αιτήσεις εργασίας δεν υπόκεινται σε κάποιο είδος τεχνητής νοημοσύνης. Αλλά αν ψάξετε για παραδείγματα, πιθανότατα θα απογοητευτείτε.
Ο τοπικός νόμος 144 δεν δημιούργησε ένα κεντρικό αποθετήριο για αυτούς τους ελέγχους, πράγμα που σημαίνει ότι η εύρεση τους απαιτεί να περάσετε από τους πιθανούς εργοδότες έναν προς έναν. Με δεκάδες ώρες εργασίας επαγγελματιών ερευνητών από τότε που τέθηκε σε ισχύ ο νόμος τον Ιούλιο, οι συνεργάτες μου και εγώ βρήκαμε λιγότερες από 20 και μερικές από αυτές έχουν ήδη εξαφανιστεί από το κοινό.
Τι εξηγεί αυτό; Είναι η απουσία επειδή ένας εργοδότης δεν χρησιμοποιεί όποιος αλγοριθμικά συστήματα ή επειδή πιστεύουν ότι ο νόμος δεν καλύπτει δικα τους αλγοριθμικά συστήματα; Δυστυχώς, ο Τοπικός Νόμος 144 δεν απαιτεί το επίπεδο διαφάνειας που θα μπορούσε να αποκαλύψει περισσότερα. Ωστόσο, η έρευνά μας περιέχει ενδείξεις: Σε συνεντεύξεις, οι ανεξάρτητοι ελεγκτές υποδεικνύουν με συνέπεια ότι οι πελάτες τους έχουν πληρώσει για τους υποχρεωτικούς ελέγχους, αλλά τελικά επέλεξαν να μην τους διαθέσουν στο κοινό.
Υπάρχει αρκετή ποικιλία στους τρόπους κατασκευής και λειτουργίας αυτών των συστημάτων που οι ορισμοί έχουν δραματική σημασία. Τοπικός Νόμος 144 ορισμός της μηχανικής μάθησης και τα ασαφή κριτήριά της για συστήματα που «βοηθούν ή αντικαθιστούν ουσιαστικά τη λήψη αποφάσεων από τον άνθρωπο» προσφέρουν αρκετό περιθώριο κίνησης για δημιουργική δικηγορία. Οι μελλοντικοί κανονισμοί θα επωφεληθούν από ευρύτερους ορισμούς που καλύπτονται γύρω από το σκοπό ή χρήση των συστημάτων και όχι των τεχνικών τους προδιαγραφών.
Ομοίως, η σχέση μεταξύ πλατφορμών, πωλητών, εργοδοτών τελικών χρηστών και ελεγκτών πρέπει να αντιμετωπιστεί άμεσα για να διευκρινιστούν οι γραμμές λογοδοσίας. Ο τοπικός νόμος 144 εξαρτάται από το ότι οι ελεγκτές έχουν επαρκή πρόσβαση στα backends των συστημάτων που πωλούν οι πωλητές στους εργοδότες, αλλά ο νόμος δεν καλύπτει καθόλου τους πωλητές ή τους συμβατικούς τους όρους. Επιβάλλει υποχρεώσεις μόνο στον εργοδότη που χρησιμοποιεί το σύστημα για να βοηθήσει τις αποφάσεις πρόσληψης και αφήνει σε αυτόν να ασκήσει την πίεση της αγοράς για να αποκτήσει πρόσβαση και πιθανώς να αλλάξει τα συστήματα των πωλητών.
Επιπλέον, η έμφαση που δίνει ο νόμος στη λήψη αποφάσεων επιτρέπει τη στρατολόγηση πλατφορμών όπως το Indeed, το LinkedIn και το Monster σε μεγάλο βαθμό από το άγκιστρο. Αν και είναι οι γορίλες του κλάδου και χρησιμοποιούν αλγόριθμους για τη μέτρηση, την κατάταξη και τη διανομή κάθε ατόμου που αναζητά εργασία, δεν δίνουν καμία τελική «απόφαση» πρόσληψης (Όντως δηλώνει ρητά τόσο), και επομένως εμπίπτουν σε μια γκρίζα ζώνη λογοδοσίας που δεν αντιμετωπίζουν ο Τοπικός Νόμος 144 και άλλοι εργατικοί νόμοι.
Ένα άλλο μάθημα είναι η σημασία της ευθυγράμμισης των κανονισμών και των κινήτρων σε όλα τα επίπεδα της κυβέρνησης. Η εργατική νομοθεσία κατά των διακρίσεων είναι διαβόητα περίπλοκη, με εκτεταμένες κρίσεις και εμπειρικούς κανόνες και λίγα αυστηρά πρότυπα που ανταποκρίνονται στην ποσοτική φύση των ελέγχων τεχνητής νοημοσύνης. Αυτό σημαίνει ότι εάν ένας εργοδότης ή ένας πωλητής διενεργεί έλεγχο —είτε για συμμόρφωση με μια τοπική δικαιοδοσία είτε για επιδίωξη πλεονεκτήματος στην αγορά— ενδέχεται να αποκαλύπτει στοιχεία μεροληπτικής λήψης αποφάσεων που εφιστούν την προσοχή ισχυρών ρυθμιστικών αρχών ή ιδιωτικών δικαστικών αρχών.
Συγκεκριμένα, ο τοπικός νόμος 144 δεν ορίζει όριο για αποδεκτά ποσοστά μεροληψίας (γνωστός και ως «ανόμοιος αντίκτυπος”) προς πώληση ή χρήση. Η Επιτροπή Ίσων Ευκαιριών Απασχόλησης επίσης αποφεύγει εσκεμμένα κατονομάζοντας ακριβώς μια τόσο σκληρή στατιστική γραμμή μεταξύ αποδεκτής και μη αποδεκτής μεροληψίας για συστήματα τεχνητής νοημοσύνης, αλλά επίσης δεν έχει παράσχει καμία καθοδήγηση σχετικά με ασφαλή λιμάνια για ελέγχους που διενεργούνται με καλή πίστη.
Δεδομένων αυτών των συνθηκών, δεν αποτελεί έκπληξη το γεγονός ότι ορισμένοι εργοδότες πληρώνουν για ελέγχους αλλά δεν τους δημοσιεύουν, υπονομεύοντας την καλή πρόθεση του τοπικού νόμου 144. Χωρίς ασφαλή λιμάνια και/ή σαφή καθοδήγηση σχετικά με τα επιτρεπτά επίπεδα στατιστικής μεροληψίας, οι εργοδότες θα μείνουν κολλημένοι μεταξύ ανταγωνιστικών πιέσεων και διφορούμενων προτύπων και δεν θα πραγματοποιηθεί έλεγχος ρουτίνας σε ολόκληρο τον κλάδο.
Τέλος, οι ερευνητές και οι ρυθμιστικοί φορείς μπορούν να μελετήσουν τα πρότυπα μεροληψίας σε αυτά τα συστήματα μόνο εάν οι ερευνητές μπορούν πραγματικά να βρουν τους ελέγχους και τα άτομα που αναζητούν εργασία μπορούν να λάβουν τεκμηριωμένες αποφάσεις σχετικά με τις αιτήσεις τους μόνο εάν οι έλεγχοι είναι άμεσα διαθέσιμοι. Οι μελλοντικοί κανονισμοί θα πρέπει να απαιτούν οι έλεγχοι να τοποθετούνται σε ένα κεντρικό αποθετήριο στο οποίο θα μπορεί να έχει πρόσβαση ο καθένας, διαφορετικά η επιβολή θα γίνει ad hoc και εξαιρετικά χρονοβόρο.
Συχνά υποθέτουμε ότι όταν υπάρχει μια νέα υποχρέωση να αξιολογήσουμε κάτι, το οικοσύστημα που θα το κάνει θα αναπτυχθεί γύρω από αυτό και τελικά θα ασκήσει «ήπια δύναμη» για να δώσει κίνητρα για καλή συμπεριφορά. Ωστόσο, οι μέχρι τώρα ελλείψεις του Τοπικού Νόμου 144 δείχνουν ότι αυτό δεν είναι δεδομένο.
Τα αλγοριθμικά εργαλεία είναι σαν τα αεροπλάνα: Απαιτούν ένα μεγάλο οικοσύστημα αμοιβαία υπεύθυνων ανθρώπων και ιδρυμάτων για να λειτουργούν με ασφάλεια. Ο τοπικός νόμος 144 λειτουργεί σαν η Ομοσπονδιακή Διοίκηση Αεροπορίας να έγραφε κανόνες μόνο για πιλότους, ελπίζοντας ότι οι πιλότοι θα απαιτούσαν στη συνέχεια καλή αεροναυπηγική μηχανική και ικανούς ελεγκτές εναέριας κυκλοφορίας.
Αντίθετα, οι αποτελεσματικοί κανονισμοί για τους αλγόριθμους πρέπει να βασίζονται σε κατανεμημένη λογοδοσία, όπου όλοι οι εμπλεκόμενοι πρέπει να λογοδοτούν με διαφάνεια για την ασφάλεια και τη δικαιοσύνη του συστήματος. Τέτοιες προσδοκίες ευθυγραμμίζονται με εκείνες που έχουμε για τομείς τόσο διαφορετικούς και ουσιαστικούς όπως τα αεροπορικά ταξίδια και τα πολιτικά δικαιώματα και είναι κατάλληλες για τα αυτοματοποιημένα εργαλεία που μπορούν να επηρεάσουν τόσους πολλούς τομείς της ζωής μας.
Ο Jacob Metcalf είναι διευθυντής προγράμματος AI στο έδαφος στο Δεδομένα & Κοινωνία.
Πνευματικά δικαιώματα 2023 Nexstar Media Inc. Με την επιφύλαξη παντός δικαιώματος. Αυτό το υλικό δεν επιτρέπεται να δημοσιευτεί, να μεταδοθεί, να ξαναγραφτεί ή να αναδιανεμηθεί.