Για να δώσει στις γυναίκες ακαδημαϊκές και σε άλλες γυναίκες που εστιάζει στην τεχνητή νοημοσύνη τον άξιο —και καθυστερημένο— χρόνο τους στο επίκεντρο, το TechCrunch ξεκινά μια σειρά από συνεντεύξεις εστιάζοντας σε αξιόλογες γυναίκες που συνέβαλαν στην επανάσταση της τεχνητής νοημοσύνης.
Η Anika Collier Navaroli είναι ανώτερη συνεργάτης στο Κέντρο Ρυμούλκησης για Ψηφιακή Δημοσιογραφία στο Πανεπιστήμιο της Κολούμπια και συνεργάτης του Technology Public Voices Fellow στο OpEd Project, που πραγματοποιήθηκε σε συνεργασία με το Ίδρυμα MacArthur.
Είναι γνωστή για την έρευνα και την υπεράσπιση της στον τομέα της τεχνολογίας. Προηγουμένως, εργάστηκε ως συνεργάτης αγώνων και τεχνολογίας στο Stanford Center on Philanthropy and Civil Society. Πριν από αυτό, ήταν επικεφαλής της Trust & Safety στο Twitch και στο Twitter. Η Ναβαρόλι είναι ίσως περισσότερο γνωστή για την κατάθεσή της στο Κογκρέσο για το Twitter, όπου μίλησε για τις αγνοημένες προειδοποιήσεις για επικείμενη βία στα μέσα κοινωνικής δικτύωσης που προλόγισαν την επίθεση που θα γινόταν στις 6 Ιανουαρίου στο Καπιτώλιο.
Εν συντομία, πώς ξεκινήσατε με την τεχνητή νοημοσύνη; Τι σας τράβηξε στο χώρο;
Πριν από περίπου 20 χρόνια, εργαζόμουν ως αντιγραφέας στην αίθουσα σύνταξης της εφημερίδας της πόλης μου κατά τη διάρκεια του καλοκαιριού, όταν έγινε ψηφιακή. Τότε, ήμουν προπτυχιακός και σπούδαζα δημοσιογραφία. Ιστότοποι μέσων κοινωνικής δικτύωσης όπως το Facebook σάρωναν την πανεπιστημιούπολη μου και με έπαιρνε εμμονή να προσπαθώ να καταλάβω πώς θα εξελίσσονταν οι νόμοι που βασίζονται στο τυπογραφείο με τις αναδυόμενες τεχνολογίες. Αυτή η περιέργεια με οδήγησε στη νομική σχολή, όπου μετανάστευσα στο Twitter, σπούδασα νομοθεσία και πολιτική για τα μέσα ενημέρωσης και παρακολούθησα τα κινήματα της Αραβικής Άνοιξης και του Occupy Wall Street να παίζουν. Τα συγκέντρωσα όλα μαζί και έγραψα τη διατριβή μου για το πώς η νέα τεχνολογία μεταμόρφωσε τον τρόπο ροής των πληροφοριών και πώς η κοινωνία ασκούσε την ελευθερία της έκφρασης.
Εργάστηκα σε δύο δικηγορικά γραφεία μετά την αποφοίτησή μου και μετά βρήκα τον δρόμο μου στο Data & Society Research Institute, επικεφαλής της έρευνας της νέας δεξαμενής σκέψης σχετικά με αυτό που τότε ονομαζόταν «μεγάλα δεδομένα», πολιτικά δικαιώματα και δικαιοσύνη. Η εργασία μου εκεί εξέτασε πώς τα πρώιμα συστήματα AI, όπως το λογισμικό αναγνώρισης προσώπου, τα εργαλεία πρόβλεψης αστυνόμευσης και οι αλγόριθμοι αξιολόγησης κινδύνου ποινικής δικαιοσύνης, αναπαράγουν μεροληψία και δημιουργούσαν ακούσιες συνέπειες που επηρέαζαν τις περιθωριοποιημένες κοινότητες. Στη συνέχεια εργάστηκα στο Color of Change και ηγήθηκα του πρώτου ελέγχου πολιτικών δικαιωμάτων μιας εταιρείας τεχνολογίας, ανέπτυξα το βιβλίο παιχνιδιού του οργανισμού για εκστρατείες τεχνολογικής λογοδοσίας και υποστήριξα για αλλαγές τεχνολογικής πολιτικής σε κυβερνήσεις και ρυθμιστικές αρχές. Από εκεί, έγινα ανώτερος υπάλληλος πολιτικής εντός των ομάδων Trust & Safety στο Twitter και στο Twitch.
Για ποια δουλειά είστε πιο περήφανοι στον τομέα της τεχνητής νοημοσύνης;
Είμαι ο πιο περήφανος για τη δουλειά μου σε εταιρείες τεχνολογίας που χρησιμοποιούν πολιτική για να αλλάξουν πρακτικά την ισορροπία δυνάμεων και να διορθώσουν την προκατάληψη εντός του πολιτισμού και των αλγοριθμικών συστημάτων που παράγουν γνώση. Στο Twitter, διεξήγαγα μερικές καμπάνιες για να επαληθεύσω άτομα που είχαν σοκαριστικά αποκλειστεί στο παρελθόν από την αποκλειστική διαδικασία επαλήθευσης, συμπεριλαμβανομένων των μαύρων γυναικών, των έγχρωμων και των queer ανθρώπων. Αυτό περιλάμβανε επίσης κορυφαίους μελετητές της τεχνητής νοημοσύνης όπως οι Safiya Noble, Alondra Nelson, Timnit Gebru και Meredith Broussard. Αυτό ήταν το 2020 όταν το Twitter ήταν ακόμα Twitter. Τότε, η επαλήθευση σήμαινε ότι το όνομα και το περιεχόμενό σας έγιναν μέρος του βασικού αλγόριθμου του Twitter, επειδή τα tweets από επαληθευμένους λογαριασμούς εισήχθησαν σε προτάσεις, αποτελέσματα αναζήτησης, χρονοδιαγράμματα αρχικής σελίδας και συνέβαλαν στη δημιουργία τάσεων. Έτσι, η εργασία για την επαλήθευση νέων ανθρώπων με διαφορετικές οπτικές γωνίες για την τεχνητή νοημοσύνη άλλαξε θεμελιωδώς στις φωνές των οποίων δόθηκε εξουσία ως ηγέτες σκέψης και ανέβασαν νέες ιδέες στη δημόσια συζήτηση σε ορισμένες πραγματικά κρίσιμες στιγμές.
Είμαι επίσης πολύ περήφανος για την έρευνα που διεξήγαγα στο Στάνφορντ και η οποία συγκεντρώθηκε ως Μαύρο με μέτρο. Όταν δούλευα σε εταιρείες τεχνολογίας, παρατήρησα επίσης ότι κανείς δεν έγραφε ή μιλούσε για τις εμπειρίες που είχα καθημερινά ως Μαύρος που εργαζόμουν στην Trust & Safety. Έτσι, όταν έφυγα από τη βιομηχανία και επέστρεψα στον ακαδημαϊκό χώρο, αποφάσισα να μιλήσω με μαύρους εργαζόμενους στον τομέα της τεχνολογίας και να φέρω στο φως τις ιστορίες τους. Η έρευνα κατέληξε να είναι η πρώτη του είδους της και έχει ωθούμενος τόσες πολλές νέες και σημαντικές συζητήσεις για τις εμπειρίες των εργαζομένων στον τομέα της τεχνολογίας με περιθωριοποιημένες ταυτότητες.
Πώς αντιμετωπίζετε τις προκλήσεις της ανδροκρατούμενης βιομηχανίας τεχνολογίας και, κατ’ επέκταση, της ανδροκρατούμενης βιομηχανίας τεχνητής νοημοσύνης;
Ως μαύρη queer γυναίκα, η πλοήγηση σε ανδροκρατούμενους χώρους και χώρους όπου είμαι άλλος ήταν μέρος ολόκληρου του ταξιδιού της ζωής μου. Στο πλαίσιο της τεχνολογίας και της τεχνητής νοημοσύνης, νομίζω ότι η πιο απαιτητική πτυχή ήταν αυτό που αποκαλώ στην έρευνά μου «αναγκαστική εργασία ταυτότητας». Επινόησα τον όρο για να περιγράψω συχνές καταστάσεις όπου οι εργαζόμενοι με περιθωριοποιημένες ταυτότητες αντιμετωπίζονται ως οι φωνές ή/και εκπρόσωποι ολόκληρων κοινοτήτων που μοιράζονται την ταυτότητά τους.
Λόγω των υψηλών διακυβεύσεων που συνεπάγεται η ανάπτυξη νέας τεχνολογίας όπως η τεχνητή νοημοσύνη, μερικές φορές μπορεί να φαίνεται σχεδόν αδύνατο να ξεφύγει από αυτό το εργατικό δυναμικό. Έπρεπε να μάθω να βάζω πολύ συγκεκριμένα όρια για τον εαυτό μου σχετικά με τα θέματα με τα οποία ήμουν διατεθειμένος να ασχοληθώ και πότε.
Ποια είναι μερικά από τα πιο πιεστικά ζητήματα που αντιμετωπίζει η τεχνητή νοημοσύνη καθώς εξελίσσεται;
Σύμφωνα με ερευνητικό ρεπορτάζ, τα τρέχοντα μοντέλα παραγωγής τεχνητής νοημοσύνης έχουν καταβροχθίσει όλα τα δεδομένα στο Διαδίκτυο και σύντομα θα εξαντληθούν τα διαθέσιμα δεδομένα για να καταβροχθιστούν. Έτσι, οι μεγαλύτερες εταιρείες τεχνητής νοημοσύνης στον κόσμο στρέφονται σε συνθετικά δεδομένα ή πληροφορίες που παράγονται από την ίδια την τεχνητή νοημοσύνη και όχι από ανθρώπους, για να συνεχίσουν να εκπαιδεύουν τα συστήματά τους.
Η ιδέα με οδήγησε σε μια τρύπα από κουνέλι. Έτσι, έγραψα πρόσφατα ένα Op-Ed υποστηρίζοντας ότι νομίζω ότι αυτή η χρήση συνθετικών δεδομένων ως δεδομένα εκπαίδευσης είναι ένα από τα πιο πιεστικά ηθικά ζητήματα που αντιμετωπίζει η ανάπτυξη της νέας τεχνητής νοημοσύνης. Τα γενετικά συστήματα τεχνητής νοημοσύνης έχουν ήδη δείξει ότι με βάση τα αρχικά δεδομένα εκπαίδευσης, το αποτέλεσμα τους είναι η αναπαραγωγή μεροληψίας και η δημιουργία ψευδών πληροφοριών. Έτσι, η διαδρομή της εκπαίδευσης νέων συστημάτων με συνθετικά δεδομένα θα σήμαινε τη συνεχή τροφοδοσία μεροληπτικών και ανακριβών αποτελεσμάτων πίσω στο σύστημα ως νέα δεδομένα εκπαίδευσης. Εγώ περιγράφεται Αυτό μπορεί να μετατραπεί σε έναν βρόχο ανατροφοδότησης στην κόλαση.
Από τότε που έγραψα το κομμάτι, Mark Zuckerberg εγκωμίασε ήταν το ενημερωμένο chatbot Llama 3 της Meta μερικώς τροφοδοτούμενο με συνθετικά δεδομένα και ήταν το «πιο έξυπνο» παραγωγικό προϊόν τεχνητής νοημοσύνης στην αγορά.
Ποια είναι ορισμένα ζητήματα που πρέπει να γνωρίζουν οι χρήστες τεχνητής νοημοσύνης;
Η τεχνητή νοημοσύνη είναι ένα τόσο πανταχού παρόν μέρος της σημερινής μας ζωής, από τον ορθογραφικό έλεγχο και τις τροφοδοσίες μέσων κοινωνικής δικτύωσης έως τα chatbot και τις συσκευές δημιουργίας εικόνων. Από πολλές απόψεις, η κοινωνία έχει γίνει το πειραματόζωο για τα πειράματα αυτής της νέας, μη δοκιμασμένης τεχνολογίας. Αλλά οι χρήστες τεχνητής νοημοσύνης δεν πρέπει να αισθάνονται ανίσχυροι.
ήμουν μαλώνοντας ότι οι υποστηρικτές της τεχνολογίας θα πρέπει να συγκεντρωθούν και να οργανώσουν τους χρήστες της τεχνητής νοημοσύνης για να ζητήσουν μια παύση ατόμων στο AI. Νομίζω ότι το Writers Guild of America έδειξε ότι με οργάνωση, συλλογική δράση και αποφασιστικότητα υπομονετική, οι άνθρωποι μπορούν να ενωθούν για να δημιουργήσουν ουσιαστικά όρια για τη χρήση τεχνολογιών AI. Πιστεύω επίσης ότι αν σταματήσουμε τώρα για να διορθώσουμε τα λάθη του παρελθόντος και να δημιουργήσουμε νέες ηθικές οδηγίες και κανονισμούς, η τεχνητή νοημοσύνη δεν χρειάζεται να γίνει υπαρξιακή απειλή στο μέλλον μας.
Ποιος είναι ο καλύτερος τρόπος για να δημιουργήσετε υπεύθυνα AI?
Η εμπειρία μου από τη δουλειά σε εταιρείες τεχνολογίας μου έδειξε πόσο σημαντικό είναι ποιος είναι στην αίθουσα γράφοντας πολιτικές, παρουσιάζοντας επιχειρήματα και λαμβάνει αποφάσεις. Η πορεία μου μου έδειξε επίσης ότι ανέπτυξα τις δεξιότητες που χρειαζόμουν για να πετύχω στον κλάδο της τεχνολογίας ξεκινώντας από τη σχολή δημοσιογραφίας. Τώρα εργάζομαι ξανά στο Columbia Journalism School και με ενδιαφέρει να εκπαιδεύσω την επόμενη γενιά ανθρώπων που θα κάνουν το έργο της τεχνολογικής λογοδοσίας και θα αναπτύξουν υπεύθυνα την τεχνητή νοημοσύνη τόσο εντός των εταιρειών τεχνολογίας όσο και ως εξωτερικοί φύλακες.
Νομίζω [journalism] Το σχολείο παρέχει στους ανθρώπους μια τέτοια μοναδική εκπαίδευση στην ανάκριση πληροφοριών, στην αναζήτηση της αλήθειας, στην εξέταση πολλαπλών απόψεων, στη δημιουργία λογικών επιχειρημάτων και στην απόσταξη γεγονότων και πραγματικότητας από απόψεις και παραπληροφόρηση. Πιστεύω ότι αυτό είναι μια σταθερή βάση για τους ανθρώπους που θα είναι υπεύθυνοι για τη συγγραφή των κανόνων για το τι μπορούν και τι δεν μπορούν να κάνουν οι επόμενες επαναλήψεις της τεχνητής νοημοσύνης. Και ανυπομονώ να δημιουργήσω ένα πιο στρωμένο μονοπάτι για αυτούς που θα ακολουθήσουν.
Πιστεύω επίσης ότι εκτός από τους ειδικευμένους εργαζομένους της Trust & Safety, ο κλάδος της τεχνητής νοημοσύνης χρειάζεται εξωτερική ρύθμιση. Στις ΗΠΑ, Ι λογομαχώ ότι αυτό θα πρέπει να έρθει με τη μορφή μιας νέας υπηρεσίας που θα ρυθμίζει τις αμερικανικές εταιρείες τεχνολογίας με την εξουσία να καθιερώνουν και να επιβάλλουν βασικά πρότυπα ασφάλειας και απορρήτου. Θα ήθελα επίσης να συνεχίσω να εργάζομαι για τη σύνδεση των σημερινών και μελλοντικών ρυθμιστικών αρχών με πρώην εργαζόμενους στον τομέα της τεχνολογίας που μπορούν να βοηθήσουν όσους βρίσκονται στην εξουσία να κάνουν τις σωστές ερωτήσεις και να δημιουργήσουν νέες αποχρώσεις και πρακτικές λύσεις.