Οι εικόνες τεχνητής νοημοσύνης εμφανίζονται παντού. Σε ορισμένες περιπτώσεις λειτουργεί, σε ορισμένες περιπτώσεις είναι απλώς άσχημο (δείτε το πρώτο στον κόσμο Ρομαντική ταινία με τεχνητή νοημοσύνη), και σε ορισμένες περιπτώσεις είναι απλώς ακατάλληλο. Οι πρόσφατες κατηγορίες κατά του Netflix εμπίπτουν σε αυτό το τελευταίο στρατόπεδο.
Με μια από τις μεγάλες ανησυχίες γύρω Δημιουργία εικόνων AI Δεδομένου ότι το ζήτημα της αυθεντικότητας και των ψεύτικων ειδήσεων, ένα αληθινό ντοκιμαντέρ εγκλήματος δεν είναι πραγματικά το μέρος για να παρουσιάσει τη νέα τεχνολογία. Ωστόσο, οι θεατές του What Jennifer Did του Netflix υποψιάζονται ότι έχουν εντοπίσει αρκετά κραυγαλέα παραδείγματα ακριβώς αυτού.
Το What Jennifer Did είναι ένα ντοκιμαντέρ του Netflix για την Jennifer Pan, η οποία καταδικάστηκε επειδή προσέλαβε κάποιον για να σκοτώσει τους γονείς της (ο πατέρας της σκοτώθηκε ενώ η μητέρα της τραυματίστηκε, αλλά επέζησε). Περίπου στα 30 λεπτά του προγράμματος, μια περιγραφή της Jennifer από μια φίλη του γυμνασίου συνοδεύεται από μια σειρά από εικόνες που θα υποθέταμε ότι είναι φωτογραφίες της εποχής.
Αλλά κοιτάζοντας πιο προσεκτικά τις εικόνες, οι θεατές έχουν εντοπίσει κάτι που φαίνεται να είναι ενδεικτικά σημάδια χειραγώγησης εικόνας που μοιάζουν ύποπτα με τα αποτελέσματα της δημιουργίας εικόνων AI. Μια φωτογραφία έδειχνε την Παν να κάνει τη χειρονομία V για τη νίκη, αλλά φαίνεται να της λείπουν τα δάχτυλα και ο αντίχειράς της φαίνεται παράξενα μακρύς. Σε μια άλλη ύποπτη εικόνα, η Παν φαίνεται να έχει ένα επίμηκες δόντι, ένα παραμορφωμένο αυτί και ένα κενό στο δεξί της μάγουλο.
Άρα το Netflix κατασκεύασε πραγματικά τις εικόνες χρησιμοποιώντας AI; Ορισμένες δημοσιεύσεις έχουν προτείνει ότι οι εικόνες μπορεί να είναι παραλλαγές που δημιουργούνται από AI και προέρχονται από μια αρχική εικόνα του Pan. Αν ήταν έτσι, θα ήταν εξαιρετικά ακατάλληλο, αλλά δεν είμαι πεπεισμένος ότι αυτό συνέβη.
Τη στιγμή της γραφής, το Netflix δεν έχει απαντήσει ακόμη στη διαμάχη, αλλά υποψιάζομαι ότι οι δημιουργοί ντοκιμαντέρ μπορεί να προσπάθησαν να βελτιώσουν παλιές εικόνες χαμηλής ανάλυσης χρησιμοποιώντας λογισμικό αναβάθμισης ή αποκατάστασης φωτογραφιών που υποστηρίζεται από AI για να προσπαθήσουν να τις κάνουν πιο καθαρές στην οθόνη της τηλεόρασης . Το πρόβλημα είναι ότι ακόμη και το καλύτερο λογισμικό τεχνητής νοημοσύνης μπορεί να τραβήξει μόνο εικόνες κακής ποιότητας μέχρι στιγμής, και τέτοια προγράμματα τείνουν να οξύνουν ορισμένες γραμμές, με αποτέλεσμα παράξενα τεχνουργήματα.
Ακόμα κι αν συμβαίνει αυτό, εξακολουθώ να πιστεύω ότι το Netflix θα έπρεπε να έχει απομακρυνθεί από αυτό, δεδομένου του πλαισίου και της διαμάχης γύρω από τις εικόνες τεχνητής νοημοσύνης. Θα έπρεπε τουλάχιστον να είχε χρησιμοποιήσει μια διευκρίνιση λέγοντας ότι οι εικόνες είχαν αναβαθμιστεί με τεχνητή νοημοσύνη ή οξύνθηκαν ή αποθορρυώθηκαν ή οτιδήποτε άλλο για να αποφευχθεί αυτό το είδος αντίδρασης. Κάθε είδους χειραγώγηση φωτογραφιών σε ένα ντοκιμαντέρ είναι αμφιλεγόμενο γιατί το όλο θέμα είναι να παρουσιάζονται τα πράγματα όπως ήταν. Σίγουρα, οι αναπαραστάσεις των καλλιτεχνών χρησιμοποιούνται εδώ και πολύ καιρό στην αναφορά εγκλημάτων, για παράδειγμα για την εμφάνιση δικαστικών διαδικασιών όταν απαγορεύονται οι κάμερες, αλλά είναι σαφές ότι πρόκειται για αναπαραστάσεις και θα πρέπει να χαρακτηρίζονται ως τέτοιες.
Καθημερινά νέα σχεδιασμού, κριτικές, οδηγίες και πολλά άλλα, όπως επιλέχθηκαν από τους συντάκτες.
ο Καταστροφή της Kate Middleton στο Photoshop έχει αποδείξει πόσο πολύ μπορούν να διαχωριστούν οι εικόνες στα μέσα ενημέρωσης, και έχουμε δει επίσης ότι το κοινό είναι σε εγρήγορση και έτοιμο να φωνάξει εικόνες τεχνητής νοημοσύνης όπου κι αν εμφανιστεί: από πονηρές επιστημονικές εργασίες προς την Uber Eats και ένα Κουίζ Lego. Αντιμέτωπο με τις άφθονες θεωρίες συνωμοσίας όπως είναι, το Netflix πρέπει πραγματικά να εργαστεί για να δείξει ότι έχει πρότυπα.