Η τεχνητή νοημοσύνη που βασίζεται σε βουνά δυνητικά προκατειλημμένων πληροφοριών έχει δημιουργήσει πραγματικό κίνδυνο αυτοματοποίησης των διακρίσεων, αλλά υπάρχει τρόπος να εκπαιδεύσουμε εκ νέου τα μηχανήματα;
Το ερώτημα για κάποιους είναι εξαιρετικά επείγον. Σε αυτήν την εποχή ChatGPT, η τεχνητή νοημοσύνη θα παράγει όλο και περισσότερες αποφάσεις για παρόχους υγειονομικής περίθαλψης, τραπεζικούς δανειστές ή δικηγόρους, χρησιμοποιώντας ό,τι αναζητήθηκε από το Διαδίκτυο ως υλικό πηγής.
Η υποκείμενη νοημοσύνη του AI, επομένως, είναι τόσο καλή όσο ο κόσμος από τον οποίο προήλθε, τόσο πιθανόν να είναι γεμάτος εξυπνάδα, σοφία και χρησιμότητα, καθώς και μίσος, προκατάληψη και ατάκες.
«Είναι επικίνδυνο γιατί οι άνθρωποι αγκαλιάζουν και υιοθετούν λογισμικό τεχνητής νοημοσύνης και εξαρτώνται πραγματικά από αυτό», δήλωσε ο Joshua Weaver, Διευθυντής του Texas Opportunity & Justice Incubator, μιας νομικής εταιρείας συμβούλων.
«Μπορούμε να μπούμε σε αυτόν τον βρόχο ανατροφοδότησης όπου η μεροληψία στον εαυτό μας και στην κουλτούρα μας ενημερώνει για μεροληψία στην τεχνητή νοημοσύνη και γίνεται ένα είδος ενισχυτικού βρόχου», είπε.
Διαφήμιση – Κάντε κύλιση για να συνεχίσετε
Το να διασφαλίσουμε ότι η τεχνολογία αντικατοπτρίζει με μεγαλύτερη ακρίβεια την ανθρώπινη ποικιλομορφία δεν είναι απλώς μια πολιτική επιλογή.
Άλλες χρήσεις της τεχνητής νοημοσύνης, όπως η αναγνώριση προσώπου, οδήγησαν τις εταιρείες σε καυτό νερό με τις αρχές για διακρίσεις.
Αυτό συνέβη με την Rite-Aid, μια αλυσίδα φαρμακείων των ΗΠΑ, όπου οι κάμερες των καταστημάτων πρόσθεσαν ψευδώς τους καταναλωτές, ιδιαίτερα τις γυναίκες και τους έγχρωμους, ως κλέφτες καταστημάτων, σύμφωνα με την Ομοσπονδιακή Επιτροπή Εμπορίου.
Διαφήμιση – Κάντε κύλιση για να συνεχίσετε
Η τεχνητή νοημοσύνη που δημιουργείται σε στυλ ChatGPT, η οποία μπορεί να δημιουργήσει μια ομοιότητα συλλογισμού σε ανθρώπινο επίπεδο σε λίγα δευτερόλεπτα, ανοίγει νέες ευκαιρίες για να κάνετε τα πράγματα στραβά, ανησυχούν οι ειδικοί.
Οι γίγαντες της τεχνητής νοημοσύνης γνωρίζουν καλά το πρόβλημα, φοβούμενοι ότι τα μοντέλα τους μπορεί να οδηγήσουν σε κακή συμπεριφορά ή να αντικατοπτρίζουν υπερβολικά μια δυτική κοινωνία όταν η βάση χρηστών τους είναι παγκόσμια.
«Έχουμε ανθρώπους που κάνουν ερωτήσεις από την Ινδονησία ή τις ΗΠΑ», δήλωσε ο CEO της Google, Sundar Pichai, εξηγώντας γιατί τα αιτήματα για εικόνες γιατρών ή δικηγόρων θα προσπαθήσουν να αντικατοπτρίζουν τη φυλετική ποικιλομορφία.
Διαφήμιση – Κάντε κύλιση για να συνεχίσετε
Αλλά αυτές οι σκέψεις μπορεί να φτάσουν σε παράλογα επίπεδα και να οδηγήσουν σε οργισμένες κατηγορίες για υπερβολική πολιτική ορθότητα.
Αυτό συνέβη όταν η γεννήτρια εικόνων Gemini της Google έφτυσε μια εικόνα Γερμανών στρατιωτών από τον Β’ Παγκόσμιο Πόλεμο που περιελάμβανε παράλογα έναν μαύρο άνδρα και μια Ασιάτισσα.
“Προφανώς, το λάθος ήταν ότι κάναμε υπερβολική εφαρμογή… εκεί που δεν έπρεπε να είχε εφαρμοστεί ποτέ. Αυτό ήταν ένα σφάλμα και το καταλάβαμε λάθος”, είπε ο Pichai.
Διαφήμιση – Κάντε κύλιση για να συνεχίσετε
Ωστόσο, ο Sasha Luccioni, ένας ερευνητής στο Hugging Face, μια κορυφαία πλατφόρμα για μοντέλα τεχνητής νοημοσύνης, προειδοποίησε ότι «το να πιστεύει κανείς ότι υπάρχει μια τεχνολογική λύση για την προκατάληψη είναι κάπως ήδη να ακολουθείς λάθος δρόμο».
Το Generative AI έχει να κάνει ουσιαστικά με το αν η έξοδος «ανταποκρίνεται σε αυτό που περιμένει ο χρήστης» και αυτό είναι σε μεγάλο βαθμό υποκειμενικό, είπε.
Τα τεράστια μοντέλα πάνω στα οποία έχει κατασκευαστεί το ChatGPT «δεν μπορούν να συλλογιστούν τι είναι προκατειλημμένο ή τι δεν είναι, επομένως δεν μπορούν να κάνουν τίποτα γι’ αυτό», προειδοποίησε ο Jayden Ziegler, επικεφαλής προϊόντων στην Alembic Technologies.
Διαφήμιση – Κάντε κύλιση για να συνεχίσετε
Προς το παρόν τουλάχιστον, εναπόκειται στους ανθρώπους να διασφαλίσουν ότι η τεχνητή νοημοσύνη δημιουργεί ό,τι είναι κατάλληλο ή ανταποκρίνεται στις προσδοκίες τους.
Αλλά δεδομένης της φρενίτιδας γύρω από την τεχνητή νοημοσύνη, αυτό δεν είναι εύκολο έργο.
Το Hugging Face διαθέτει περίπου 600.000 μοντέλα τεχνητής νοημοσύνης ή μηχανικής μάθησης διαθέσιμα στην πλατφόρμα του.
“Κάθε δύο εβδομάδες βγαίνει ένα νέο μοντέλο και προσπαθούμε να προσπαθήσουμε απλώς να αξιολογήσουμε και να τεκμηριώσουμε προκαταλήψεις ή ανεπιθύμητες συμπεριφορές”, δήλωσε ο Luccioni.
Μια μέθοδος υπό ανάπτυξη είναι κάτι που ονομάζεται αλγοριθμική απομάκρυνση που θα επέτρεπε στους μηχανικούς να κόψουν το περιεχόμενο, χωρίς να καταστρέψουν ολόκληρο το μοντέλο.
Αλλά υπάρχουν σοβαρές αμφιβολίες ότι αυτό μπορεί πραγματικά να λειτουργήσει.
Μια άλλη μέθοδος θα «ενθάρρυνε» ένα μοντέλο να πάει στη σωστή κατεύθυνση, να το «συντονίσει καλά», «ανταμείβοντας το σωστό και το λάθος», δήλωσε ο Ram Sriharsha, επικεφαλής τεχνολογίας στην Pinecone.
Το Pinecone είναι ειδικός στην ανάκτηση επαυξημένης γενιάς (ή RAG), μια τεχνική όπου το μοντέλο ανακτά πληροφορίες από μια σταθερή αξιόπιστη πηγή.
Για τον Weaver of the Texas Opportunity & Justice Incubator, αυτές οι «ευγενείς» απόπειρες να διορθωθούν οι προκαταλήψεις είναι «προβολές των ελπίδων και των ονείρων μας για το πώς μπορεί να μοιάζει μια καλύτερη εκδοχή του μέλλοντος».
Αλλά η μεροληψία “είναι επίσης εγγενής στο τι σημαίνει να είσαι άνθρωπος και εξαιτίας αυτού, εμπεριέχεται και στην τεχνητή νοημοσύνη”, είπε.
juj-arp/md