Τα εργαλεία που τροφοδοτούνται από την τεχνητή νοημοσύνη μπορούν να δημιουργήσουν ρεαλιστικές εικόνες ανθρώπων που δεν υπάρχουν.
Δείτε αν μπορείτε να προσδιορίσετε ποιες από αυτές τις εικόνες είναι πραγματικοί άνθρωποι και ποιες έχουν δημιουργηθεί με τεχνητή νοημοσύνη.
Από τη δημόσια κυκλοφορία εργαλείων όπως το Dall-E και το Midjourney τα τελευταία δύο χρόνια, οι εικόνες που έχουν δημιουργηθεί από την τεχνητή νοημοσύνη που έχουν δημιουργήσει έχουν προκαλέσει σύγχυση σχετικά με έκτακτες ειδήσεις, οι τάσεις της μόδας και Τέιλορ Σουίφτ.
Η διάκριση μεταξύ ενός πραγματικού και ενός προσώπου που δημιουργείται από AI έχει αποδειχθεί ιδιαίτερα μπερδεμένο.
Έρευνα που δημοσιεύτηκε σε πολλές μελέτες διαπίστωσε ότι τα πρόσωπα των λευκών που δημιουργήθηκαν από συστήματα AI θεωρούνταν πιο ρεαλιστικά από τις γνήσιες φωτογραφίες λευκών ανθρώπων, ένα φαινόμενο που ονομάζεται υπερρεαλισμός.
Οι ερευνητές πιστεύουν ότι τα εργαλεία τεχνητής νοημοσύνης υπερέχουν στην παραγωγή υπερρεαλιστικών προσώπων επειδή εκπαιδεύτηκαν σε δεκάδες χιλιάδες εικόνες πραγματικών ανθρώπων. Αυτά τα σύνολα δεδομένων εκπαίδευσης περιείχαν εικόνες κυρίως λευκών ανθρώπων, με αποτέλεσμα υπερρεαλιστικά λευκά πρόσωπα. (Η υπερβολική εξάρτηση από εικόνες λευκών ανθρώπων για την εκπαίδευση της τεχνητής νοημοσύνης είναι γνωστό πρόβλημα στον κλάδο της τεχνολογίας.)
Η σύγχυση μεταξύ των συμμετεχόντων ήταν λιγότερο εμφανής μεταξύ των μη λευκών προσώπων, διαπίστωσαν οι ερευνητές.
Ζητήθηκε επίσης από τους συμμετέχοντες να υποδείξουν πόσο σίγουροι ήταν στις επιλογές τους και οι ερευνητές διαπίστωσαν ότι η υψηλότερη αυτοπεποίθηση συσχετίστηκε με μεγαλύτερη πιθανότητα να κάνουν λάθος.
«Ήμασταν πολύ έκπληκτοι όταν είδαμε το επίπεδο υπερβολικής αυτοπεποίθησης που προέκυπτε», είπε η Δρ Έιμι Ντάουελ, αναπληρώτρια καθηγήτρια στο Εθνικό Πανεπιστήμιο της Αυστραλίας, η οποία ήταν συγγραφέας σε δύο από τις μελέτες.
«Υποδεικνύει τους τρόπους σκέψης που μας κάνουν πιο ευάλωτους στο διαδίκτυο και πιο ευάλωτους στην παραπληροφόρηση», πρόσθεσε.
Η ιδέα ότι τα πρόσωπα που δημιουργούνται από την τεχνητή νοημοσύνη θα μπορούσαν να θεωρηθούν πιο αυθεντικά από τους πραγματικούς ανθρώπους τρόμαξε ειδικούς όπως ο Δρ Dawel, που φοβούνται ότι τα ψηφιακά ψεύτικα θα μπορούσαν να βοηθήσουν στη διάδοση ψευδών και παραπλανητικών μηνυμάτων στο διαδίκτυο.
Τα συστήματα τεχνητής νοημοσύνης ήταν ικανά να παράγουν φωτορεαλιστικά πρόσωπα για χρόνια, αν και υπήρχαν συνήθως ενδεικτικά σημάδια ότι οι εικόνες δεν ήταν πραγματικές. Τα συστήματα τεχνητής νοημοσύνης προσπάθησαν να δημιουργήσουν αυτιά που έμοιαζαν με καθρέφτες το ένα του άλλου, για παράδειγμα, ή μάτια που κοιτούσαν προς την ίδια κατεύθυνση.
Αλλά καθώς τα συστήματα έχουν προχωρήσει, τα εργαλεία έχουν γίνει καλύτερα στη δημιουργία προσώπων.
Τα υπερρεαλιστικά πρόσωπα που χρησιμοποιήθηκαν στις μελέτες έτειναν να είναι λιγότερο διακριτικά, είπαν οι ερευνητές, και ήταν τόσο κοντά στις μέσες αναλογίες που απέτυχαν να προκαλέσουν υποψίες στους συμμετέχοντες. Και όταν οι συμμετέχοντες κοίταξαν πραγματικές φωτογραφίες ανθρώπων, φάνηκαν να προσηλώνονται σε χαρακτηριστικά που ξεφεύγουν από τις μέσες αναλογίες – όπως ένα κακοσχηματισμένο αυτί ή μεγαλύτερη από το μέσο όρο μύτη – θεωρώντας τα ως σημάδι εμπλοκής της τεχνητής νοημοσύνης.
Οι εικόνες στη μελέτη προήλθαν από StyleGAN2ένα μοντέλο εικόνας εκπαιδευμένο σε δημόσιο χώρο αποθήκευσης φωτογραφιών που περιέχει 69 τοις εκατό λευκά πρόσωπα.
Οι συμμετέχοντες στη μελέτη είπαν ότι βασίστηκαν σε μερικά χαρακτηριστικά για να λάβουν τις αποφάσεις τους, όπως το πόσο αναλογικά ήταν τα πρόσωπα, η εμφάνιση του δέρματος, οι ρυτίδες και τα χαρακτηριστικά του προσώπου όπως τα μάτια.