- Όταν η Google έβαλε πρόσφατα τη δυνατότητα δημιουργίας εικόνων Gemini εκτός σύνδεσης για περαιτέρω δοκιμή λόγω προβλημάτων μεροληψίας, το επεισόδιο ανέδειξε κόκκινες σημαίες σχετικά με τους πιθανούς κινδύνους της γενετικής τεχνητής νοημοσύνης.
- Ανάλογα με τα δεδομένα στα οποία εκπαιδεύεται η γενιά AI, το μοντέλο το μαθαίνει και το αντικατοπτρίζει στις εξόδους του.
- Η διασφάλιση της διαφάνειας στον τρόπο με τον οποίο λειτουργούν και λαμβάνουν αποφάσεις τα συστήματα τεχνητής νοημοσύνης που δημιουργούνται είναι ζωτικής σημασίας για την οικοδόμηση εμπιστοσύνης και την αντιμετώπιση των ανησυχιών σχετικά με την προκατάληψη.
Σε αυτήν την εικόνα φωτογραφίας, εμφανίζεται ένα λογότυπο Gemini σε ένα smartphone με το λογότυπο της Google στο φόντο.
Avishek Das | Getty Images
Όταν το πήρε η Google Δυνατότητα δημιουργίας εικόνων Gemini εκτός σύνδεσης τον περασμένο μήνα για περαιτέρω δοκιμές λόγω ζητημάτων που σχετίζονται με την προκατάληψη, ύψωσε κόκκινες σημαίες σχετικά με τους πιθανούς κινδύνους της γενετικής τεχνητής νοημοσύνης, όχι μόνο τις θετικές αλλαγές που υπόσχεται να εισαγάγει η τεχνολογία.
«Οι εταιρείες πρέπει να ξεπεράσουν την προκατάληψη εάν θέλουν να μεγιστοποιήσουν τις πραγματικές δυνατότητες αυτής της ισχυρής τεχνολογίας», δήλωσε ο Siva Ganesan, επικεφαλής της επιχειρηματικής μονάδας AI Cloud στην Tata Consultancy Services. «Ωστόσο, ανάλογα με τα δεδομένα στα οποία εκπαιδεύεται η Gen AI, το μοντέλο το μαθαίνει και το αντικατοπτρίζει στις εξόδους του», είπε.
Κρίσιμο για τη διαχείριση ζητημάτων πιθανής μεροληψίας στην τεχνητή νοημοσύνη είναι να υπάρχουν σαφείς διαδικασίες και να δοθεί προτεραιότητα στην υπεύθυνη τεχνητή νοημοσύνη από την αρχή, δήλωσε ο Joe Atkinson, επικεφαλής προϊόντων και τεχνολογίας στην εταιρεία συμβούλων PwC.
«Αυτό ξεκινά με την προσπάθεια να γίνουν τα συστήματα τεχνητής νοημοσύνης γενιάς διαφανή και εξηγήσιμα, δίνοντας στους χρήστες πρόσβαση σε σαφείς εξηγήσεις για το πώς το σύστημα τεχνητής νοημοσύνης λαμβάνει αποφάσεις και είναι σε θέση να εντοπίσει το σκεπτικό πίσω από αυτές τις αποφάσεις», είπε ο Atkinson.
Η διασφάλιση της διαφάνειας στον τρόπο λειτουργίας και λήψης αποφάσεων των συστημάτων τεχνητής νοημοσύνης είναι ζωτικής σημασίας για την οικοδόμηση εμπιστοσύνης και την αντιμετώπιση προβλημάτων μεροληψίας, δήλωσε ο Ritu Jyoti, αντιπρόεδρος του ομίλου, AI και αυτοματισμός, έρευνα αγοράς και συμβουλευτικές υπηρεσίες της International Data Corp.
«Οι οργανισμοί θα πρέπει να επενδύσουν στην ανάπτυξη εξηγήσιμων τεχνικών τεχνητής νοημοσύνης που επιτρέπουν στους χρήστες να κατανοήσουν το σκεπτικό πίσω από το περιεχόμενο που δημιουργείται από την τεχνητή νοημοσύνη», δήλωσε ο Jyoti. «Για παράδειγμα, ένα chatbot υγειονομικής περίθαλψης που τροφοδοτείται από γενετική τεχνητή νοημοσύνη μπορεί να παρέχει εξηγήσεις για τις διαγνώσεις και τις συστάσεις θεραπείας του, βοηθώντας τους ασθενείς να κατανοήσουν τους υποκείμενους παράγοντες και μετριάζοντας πιθανές προκαταλήψεις στις ιατρικές συμβουλές».
Ποικιλομορφία στις ομάδες ανάπτυξης AI, δεδομένα
Οι εταιρείες πρέπει επίσης να δημιουργήσουν διαφορετικές και χωρίς αποκλεισμούς ομάδες ανάπτυξης. Συμπεριλαμβανομένων των ανθρώπων που αντιπροσωπεύουν μια σειρά από υπόβαθρα, προοπτικές και εμπειρίες, “συντελεί πολύ στον εντοπισμό και τον μετριασμό των προκαταλήψεων που ενδέχεται να ενσωματωθούν ακούσια στο σύστημα τεχνητής νοημοσύνης”, είπε ο Atkinson. «Διαφορετικές απόψεις μπορούν να αμφισβητήσουν υποθέσεις και προκαταλήψεις, οδηγώντας σε πιο δίκαια και περιεκτικά μοντέλα τεχνητής νοημοσύνης».
Μια άλλη καλή πρακτική είναι η δημιουργία ισχυρών διαδικασιών συλλογής και αξιολόγησης δεδομένων.
«Έχουμε δει εταιρείες που είναι πρόθυμες να ξεκινήσουν με μοντέλα τεχνητής νοημοσύνης χωρίς πρώτα να ασχοληθούν με τα υπάρχοντα υποκείμενα δεδομένα», είπε ο Ganesan. “Με την άντληση διαφορετικών, αντιπροσωπευτικών συνόλων δεδομένων, οι οργανισμοί μπορούν να μετριάσουν τις προκαταλήψεις. Οι οργανισμοί θα πρέπει να παρακολουθούν τις αλλαγές και τη διανομή δεδομένων για να βελτιώσουν την ανάπτυξη μοντέλων τεχνητής νοημοσύνης και να διασφαλίσουν την επεξήγηση.”
Προκαταλήψεις μπορεί να προκύψουν εάν τα δεδομένα εκπαίδευσης είναι περιορισμένα ή λοξά προς ορισμένα δημογραφικά στοιχεία, είπε ο Atkinson. «Συλλέγοντας δεδομένα από ένα ευρύ φάσμα πηγών και διασφαλίζοντας ότι είναι αντιπροσωπευτικά του πληθυσμού, οι εταιρείες μπορούν να μειώσουν τον κίνδυνο μεροληπτικών αποτελεσμάτων», είπε.
Η χρήση διαφορετικών και αντιπροσωπευτικών συνόλων δεδομένων “είναι ζωτικής σημασίας για να διασφαλιστεί ότι τα δεδομένα που χρησιμοποιούνται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης που δημιουργούνται είναι απαλλαγμένα από διακριτικά μοτίβα και αντικατοπτρίζουν με ακρίβεια την ποικιλομορφία της επιδιωκόμενης βάσης χρηστών”, είπε ο Jyoti.
Για παράδειγμα, κατά την ανάπτυξη ενός μοντέλου παραγωγής γλώσσας για αλληλεπιδράσεις εξυπηρέτησης πελατών, τα δεδομένα εκπαίδευσης θα πρέπει να περιλαμβάνουν μια σειρά προφίλ πελατών για να αποφευχθούν μεροληπτικές απαντήσεις που ευνοούν ορισμένα δημογραφικά στοιχεία, είπε ο Jyoti.
Η συνεχής αξιολόγηση της απόδοσης ενός συστήματος τεχνητής νοημοσύνης είναι επίσης σημαντική για τον εντοπισμό και τη διόρθωση τυχόν προκαταλήψεων που μπορεί να προκύψουν.
“Η τακτική παρακολούθηση των αποτελεσμάτων των παραγωγικών συστημάτων τεχνητής νοημοσύνης είναι απαραίτητη για τον εντοπισμό και τον μετριασμό των προκαταλήψεων», είπε ο Jyoti. «Οι οργανισμοί θα πρέπει να θεσπίσουν πλαίσια αξιολόγησης και μετρήσεις για να αξιολογήσουν τη δικαιοσύνη και τις ηθικές επιπτώσεις του παραγόμενου περιεχομένου. Για παράδειγμα, ένας ειδησεογραφικός οργανισμός που χρησιμοποιεί ένα μοντέλο παραγωγής τεχνητής νοημοσύνης για την παραγωγή ειδησεογραφικών άρθρων μπορεί να αναλύσει τα άρθρα για μεροληπτική γλώσσα ή προοπτικές και να κάνει τις απαραίτητες προσαρμογές για να εξασφαλίσει ισορροπημένη και αμερόληπτη αναφορά».
Κρατώντας τους ανθρώπους σε επαφή
Είναι επίσης ζωτικής σημασίας να παραμείνουν οι άνθρωποι ενήμεροι και να παρέχουμε ευκαιρίες αναβάθμισης δεξιοτήτων σε άτομα που θέλουν να αναπτύξουν εργαλεία τεχνητής νοημοσύνης. «Είναι σημαντικό για τους ηγέτες να παρέχουν εκπαίδευση και ευαισθητοποίηση όσον αφορά την υπεύθυνη χρήση της τεχνητής νοημοσύνης», είπε ο Atkinson. «Αυτό περιλαμβάνει την καλλιέργεια μιας κουλτούρας υπεύθυνης χρήσης τεχνητής νοημοσύνης, εκπαιδεύοντάς τους για πιθανούς κινδύνους, ενθαρρύνοντας τη προσεκτική χρήση του περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη και δίνοντας έμφαση στην ανάγκη για ανθρώπινη επανεξέταση και επαλήθευση».
Η ενσωμάτωση ανθρώπινων αναθεωρητών ή συντονιστών στον αγωγό παραγωγής τεχνητής νοημοσύνης μπορεί να βοηθήσει στον μετριασμό των κινδύνων, είπε ο Jyoti. «Η ανθρώπινη παρέμβαση μπορεί να προσφέρει ένα σύστημα ελέγχου και ισορροπίας για την πρόληψη της διάδοσης μεροληπτικού ή επιβλαβούς περιεχομένου», είπε.
Για παράδειγμα, οι πλατφόρμες μέσων κοινωνικής δικτύωσης που χρησιμοποιούν γενετική τεχνητή νοημοσύνη για σύσταση περιεχομένου μπορούν να χρησιμοποιούν ανθρώπινους συντονιστές για να ελέγχουν και να φιλτράρουν δυνητικά μεροληπτικό ή ακατάλληλο περιεχόμενο, διασφαλίζοντας ένα ασφαλέστερο και περιεκτικό διαδικτυακό περιβάλλον.
Επιπλέον, οι εταιρείες θα πρέπει να δημιουργήσουν συστήματα για τη συλλογή πληροφοριών και ανατροφοδότησης. “Η δημιουργία καναλιών για να αναφέρουν οι χρήστες ανακρίβειες ή απροσδόκητα αποτελέσματα είναι κρίσιμης σημασίας για την ανταλλαγή γνώσεων και για να βεβαιωθείτε ότι εντοπίζετε ασυνέπειες ή προκαταλήψεις προτού γίνει ένα ευρέως διαδεδομένο πρόβλημα”, είπε ο Atkinson.
Από την άποψη της συνολικής ωριμότητας του κλάδου, οι συνεργατικές προσπάθειες και τα πρότυπα του κλάδου θα είναι ζωτικής σημασίας, είπε ο Jyoti.
Η ανταλλαγή γνώσεων, εμπειριών και εργαλείων μπορεί να επιταχύνει την πρόοδο στην αντιμετώπιση της μεροληψίας και στη βελτίωση της συνολικής ηθικής χρήσης της γενετικής τεχνητής νοημοσύνης, είπε. «Για παράδειγμα, τα συνέδρια τεχνητής νοημοσύνης και οι βιομηχανικές ενώσεις μπορούν να διευκολύνουν τις συζητήσεις και την ανταλλαγή γνώσεων σχετικά με τις τεχνικές μετριασμού της μεροληψίας και τα ηθικά ζητήματα στις παραγωγικές εφαρμογές τεχνητής νοημοσύνης», είπε.
Ενώ η αγορά Gen AI είναι εκκολαπτόμενη και εξελίσσεται ταχέως, και ενώ ορισμένα από τα προβλήματα είναι πολύπλοκα, χρειάζεται περισσότερη δέουσα επιμέλεια στην εκπαίδευση και τη ρύθμιση των μοντέλων, είπε ο Jyoti. «Το διακύβευμα είναι μεγάλο», είπε.
Λόγω του γρήγορου ρυθμού της καινοτομίας τεχνητής νοημοσύνης της γενιάς, τυχόν προσκρούσεις κατά μήκος του δρόμου πρέπει να αντιμετωπιστούν γρήγορα, είπε ο Ganesan, και είναι καλό που η Google ανταποκρίθηκε γρήγορα στο πρόβλημα μεροληψίας. “Μεγάλο μέρος της ανύψωσης βαρέων βαρών που απαιτείται στα παρασκήνια μπορεί να βοηθήσει τις εταιρείες να κάνουν τα πράγματα σωστά και αυτό μπορεί να βελτιώσει τα αποτελέσματα”, είπε.