Η τεχνητή νοημοσύνη (AI) μπορεί να κάνει πρόσωπα που φαίνονται πιο «πραγματικά» στους ανθρώπους από φωτογραφίες αληθινών ανθρώπινων προσώπων, σύμφωνα με μια μελέτη της 13ης Νοεμβρίου στο περιοδικό ΣΟΦΌΣ βρέθηκαν.
Αυτό είναι ένα φαινόμενο που ο ανώτερος συγγραφέας της μελέτης Έιμι Ντάουελ, κλινικός ψυχολόγος και λέκτορας στο Εθνικό Πανεπιστήμιο της Αυστραλίας, ονόμασε «υπερρεαλισμό» — τεχνητά δημιουργημένα αντικείμενα που οι άνθρωποι αντιλαμβάνονται ως πιο «πραγματικά» από τα πραγματικά αντίστοιχά τους στον πραγματικό κόσμο. Αυτό είναι ιδιαίτερα ανησυχητικό υπό το φως της ανόδου του deepfakes — τεχνητά παραγόμενο υλικό που έχει σχεδιαστεί για να υποδύεται πραγματικά άτομα.
Αλλά υπάρχει μια ατάκα: η τεχνητή νοημοσύνη πέτυχε τον υπερρεαλισμό μόνο όταν δημιούργησε λευκά πρόσωπα. Τα έγχρωμα πρόσωπα που δημιουργήθηκαν από την τεχνητή νοημοσύνη έπεσαν ακόμα στην παράξενη κοιλάδα. Αυτό θα μπορούσε να έχει επιπτώσεις όχι μόνο στον τρόπο κατασκευής αυτών των εργαλείων αλλά και στον τρόπο με τον οποίο αντιλαμβάνονται τους έγχρωμους στο διαδίκτυο, είπε ο Dawel.
Οι συνέπειες της προκατειλημμένης τεχνητής νοημοσύνης
Ο Dawel εμπνεύστηκε από έρευνα που δημοσιεύτηκε στο περιοδικό PNAS τον Φεβρουάριο του 2022. Συγγραφείς Sophie Nightingaleλέκτορας ψυχολογίας στο Πανεπιστήμιο Lancaster στο Ηνωμένο Βασίλειο, και Χάνυ Φαρίντ, καθηγητής Ηλεκτρολόγων Μηχανικών και Επιστημών Υπολογιστών στο Πανεπιστήμιο της Καλιφόρνια, στο Μπέρκλεϋ, διαπίστωσε ότι οι συμμετέχοντες δεν μπορούσαν να διακρίνουν τη διαφορά μεταξύ προσώπων που δημιουργήθηκαν από την τεχνητή νοημοσύνη και ανθρώπινων προσώπων. Αλλά ο Dawel ήθελε να προχωρήσει ένα βήμα παραπέρα για να αξιολογήσει αν υπάρχει φυλετικό στοιχείο στο πώς οι άνθρωποι αντιλαμβάνονται τα πρόσωπα της τεχνητής νοημοσύνης.
Σχετίζεται με: Η «ανησυχητική» κυκλοφορία του AI αποκαλύπτει τα ελαττώματα του. Πόσο πρέπει να ανησυχούμε;
Στη νέα μελέτη, στους συμμετέχοντες – όλοι ήταν λευκοί – έδειξαν 100 πρόσωπα – μερικά από τα οποία ήταν ανθρώπινα πρόσωπα και μερικά από τα οποία δημιουργήθηκαν χρησιμοποιώντας το εργαλείο δημιουργίας εικόνας StyleGAN2. Αφού αποφάσισαν αν ένα πρόσωπο ήταν τεχνητή νοημοσύνη ή άνθρωπος, οι συμμετέχοντες βαθμολόγησαν την εμπιστοσύνη τους στην επιλογή τους σε μια κλίμακα από το μηδέν έως το 100.
«Ήμασταν τόσο έκπληκτοι όταν ανακαλύψαμε ότι ορισμένα πρόσωπα τεχνητής νοημοσύνης έγιναν αντιληπτά ως υπερπραγματικά που το επόμενο βήμα μας ήταν να προσπαθήσουμε να αναπαράγουμε τα ευρήματά μας από την εκ νέου ανάλυση των δεδομένων των Nightingale & Farid σε ένα νέο δείγμα συμμετεχόντων», είπε ο Dawel στο Live Science σε ένα email.
Ο λόγος είναι απλός: οι αλγόριθμοι AI, συμπεριλαμβανομένου του StyleGAN2, εκπαιδεύονται δυσανάλογα σε λευκά πρόσωπα, είπε. Αυτή η προκατάληψη προπόνησης οδήγησε σε λευκά πρόσωπα που ήταν «εξαιρετικά αληθινά», όπως το έθεσε ο Dawel.
Ένα άλλο παράδειγμα φυλετικής προκατάληψης στα συστήματα τεχνητής νοημοσύνης είναι η χρήση εργαλείων για τη μετατροπή των κανονικών φωτογραφιών σε επαγγελματικές φωτογραφίες, είπε ο Dawel. Για τους έγχρωμους, η τεχνητή νοημοσύνη αλλάζει τον τόνο του δέρματος και το χρώμα των ματιών. Οι εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη χρησιμοποιούνται επίσης όλο και περισσότερο σε τομείς όπως το μάρκετινγκ και η διαφήμιση ή στη δημιουργία εικονογραφήσεων. Η χρήση της τεχνητής νοημοσύνης, εάν έχει κατασκευαστεί με προκαταλήψεις, μπορεί να ενισχύσει τις φυλετικές προκαταλήψεις στα μέσα ενημέρωσης που καταναλώνουν οι άνθρωποι, κάτι που θα έχει βαθιές συνέπειες σε κοινωνικό επίπεδο, είπε. Frank Buytendijkεπικεφαλής έρευνας στο Gartner Futures Lab και ειδικός στην τεχνητή νοημοσύνη.
«Ήδη, οι έφηβοι αισθάνονται την πίεση των συνομηλίκων να πρέπει να μοιάζουν με το ιδανικό που έχουν οριστεί από τους συνομηλίκους τους», είπε στο Live Science σε ένα email. «Σε αυτή την περίπτωση, αν θέλουμε τα πρόσωπά μας να μαζευτούν, να γίνουν αποδεκτά από τον αλγόριθμο, πρέπει να μοιάσουμε με αυτό που παράγει το μηχάνημα».
Μετριασμός κινδύνων
Αλλά υπάρχει ένα άλλο εύρημα που ανησυχεί τον Dawel και θα μπορούσε να επιδεινώσει περαιτέρω τα κοινωνικά προβλήματα. Οι άνθρωποι που έκαναν τα περισσότερα λάθη – προσδιορίζοντας πρόσωπα που δημιουργήθηκαν από AI ως αληθινά – ήταν επίσης και οι πιο σίγουροι για τις επιλογές τους. Με άλλα λόγια, οι άνθρωποι που ξεγελιούνται περισσότερο από την τεχνητή νοημοσύνη γνωρίζουν το λιγότερο ότι εξαπατούνται.
Η Dawel υποστηρίζει ότι η έρευνά της δείχνει ότι η γενετική τεχνητή νοημοσύνη πρέπει να αναπτυχθεί με τρόπους που να είναι διαφανείς στο κοινό και ότι θα πρέπει να παρακολουθείται από ανεξάρτητους φορείς.
«Σε αυτή την περίπτωση, είχαμε πρόσβαση στις εικόνες στις οποίες εκπαιδεύτηκε ο αλγόριθμος AI, έτσι μπορέσαμε να εντοπίσουμε την προκατάληψη White στα δεδομένα εκπαίδευσης», είπε ο Dawel. «Μεγάλο μέρος της νέας τεχνητής νοημοσύνης δεν είναι διαφανές, ωστόσο, και η επένδυση σε αυτό [the] Η βιομηχανία της τεχνητής νοημοσύνης είναι τεράστια, ενώ η χρηματοδότηση για την επιστήμη για την παρακολούθηση της είναι ελάχιστη, δυσεύρετη και αργή».
Ο μετριασμός των κινδύνων θα είναι δύσκολος, αλλά οι νέες τεχνολογίες ακολουθούν συνήθως μια παρόμοια πορεία, στην οποία οι επιπτώσεις της νέας τεχνολογίας γίνονται σταδιακά αντιληπτές και οι κανονισμοί σιγά σιγά μπαίνουν για την αντιμετώπισή τους, οι οποίοι στη συνέχεια τροφοδοτούν την ανάπτυξη της τεχνολογίας, είπε ο Buytendijk. Όταν η νέα τεχνολογία έρχεται στην αγορά, κανείς δεν κατανοεί πλήρως τις επιπτώσεις.
Αυτή η διαδικασία δεν είναι αρκετά γρήγορη για τον Dawel, επειδή η τεχνητή νοημοσύνη αναπτύσσεται γρήγορα και έχει ήδη τεράστιο αντίκτυπο. Ως αποτέλεσμα, «η έρευνα για την τεχνητή νοημοσύνη απαιτεί σημαντικούς πόρους», είπε. “Ενώ οι κυβερνήσεις μπορούν να συμβάλουν σε αυτό, πιστεύω ότι οι εταιρείες που δημιουργούν τεχνητή νοημοσύνη θα πρέπει να υποχρεωθούν να κατευθύνουν μέρος των κερδών τους σε ανεξάρτητη έρευνα. Εάν θέλουμε πραγματικά η τεχνητή νοημοσύνη να ωφελήσει παρά να βλάψει την επόμενη γενιά μας, η ώρα για αυτήν τη δράση είναι τώρα. “