Ο MrBeast έγινε ο μεγαλύτερος YouTuber στον κόσμο, εν μέρει λόγω τα περίτεχνα δώρα του.
Κάποτε μοίρασε χιλιάδες δωρεάν γαλοπούλες για την Ημέρα των Ευχαριστιών και άφησε σε μια σερβιτόρα φιλοδώρημα 10.000 δολαρίων για δύο ποτήρια νερό. Έτσι, όταν εμφανίστηκε ένα βίντεο που τον δείχνει να προσφέρει iPhone που κυκλοφόρησαν πρόσφατα σε χιλιάδες ανθρώπους στη χαμηλή τιμή των 2 $, φαινόταν σαν ένα από τα τυπικά ακροβατικά του.
Ένα πρόβλημα: στην πραγματικότητα δεν ήταν αυτός. Αυτό το βίντεο, είπε, ήταν έργο κάποιου που χρησιμοποίησε τεχνητή νοημοσύνη για να αντιγράψει την όμοιά του χωρίς την άδειά του.
«Είναι έτοιμες οι πλατφόρμες μέσων κοινωνικής δικτύωσης να χειριστούν την άνοδο των deepfakes AI;» έγραψε ο MrBeast, του οποίου το πραγματικό όνομα είναι Jimmy Donaldson, σε ανάρτηση στο Χ, πρώην Twitter. «Αυτό είναι ένα σοβαρό πρόβλημα».
Καλώς ήρθατε στον κόσμο της deepfake διαφήμισης, όπου τα προϊόντα μπορεί να είναι αληθινά, αλλά οι εγκρίσεις τους είναι κάθε άλλο παρά. Είναι όπου τα βίντεο που εμφανίζονται να δείχνουν διασημότητες να συνδέουν αντικείμενα από οδοντιατρικά σχέδια σε μαγειρικά σκεύη είναι στην πραγματικότητα απλώς κατασκευές που δημιουργούνται από AI που χρησιμοποιούν τεχνολογία για να αλλάξουν φωνές, εμφανίσεις και ενέργειες.
Φυσικά, ψεύτικες εγκρίσεις διασημοτήτων έχουν υπάρξει τριγύρω για όσο διάστημα έχουν οι ίδιες οι διασημότητες. Αυτό που έχει αλλάξει είναι η ποιότητα των εργαλείων που χρησιμοποιούνται για τη δημιουργία τους. Έτσι, αντί να το δηλώνουμε απλώς μια διασημότητα εγκρίνει ένα προϊόνμπορούν να κατασκευάσουν ένα βίντεο που φαίνεται να το αποδεικνύει, κραδαίνοντας ανυποψίαστους καταναλωτές.
Με λίγα κλικ και λίγη τεχνογνωσία, ένας έξυπνος απατεώνας μπορεί δημιουργία ήχου, βίντεο και στατικών εικόνων που είναι ολοένα και πιο δύσκολο να αναγνωριστούν ως κατασκευάσματα – ακόμα κι αν, στη σφαίρα της διαφήμισης, είναι ακόμα στη σχετική αρχή της.
«Δεν είναι ακόμα τεράστιο, αλλά νομίζω ότι υπάρχουν ακόμα πολλές δυνατότητες να γίνει πολύ μεγαλύτερο λόγω της τεχνολογίας, η οποία γίνεται όλο και καλύτερη», είπε. Κόλιν Κάμπελαναπληρωτής καθηγητής μάρκετινγκ στο Πανεπιστήμιο του Σαν Ντιέγκο που έχει δημοσίευσε έρευνα σχετικά με τις διαφημίσεις που δημιουργούνται από AI.
Ο Τομ Χανκς, ο Γκέιλ Κινγκ ανάμεσα σε διασημότητες που στοχοποιούνται σε απάτες AI
Δεν υπάρχει έλλειψη κακών χρήσεων για την τεχνολογία AI.
Ενα τεχνητά δημιουργημένη ρομποτική κλήση χρησιμοποίησε τη φωνή του προέδρου Τζο Μπάιντεν να παροτρύνει τους ψηφοφόρους στο Νιου Χάμσαϊρ να συμμετάσχουν στις προκριματικές εκλογές σε αυτή την πολιτεία. Και κυκλοφόρησαν στο διαδίκτυο κατασκευασμένες σεξουαλικές εικόνες της ποπ σταρ Taylor Swift τον περασμένο μήνα, οδηγώντας σε αυξημένες εκκλήσεις για ρύθμιση.
Την Παρασκευή, μια σειρά από σημαντικές τεχνολογίες υπέγραψε σύμφωνο να εργαστεί για να αποτρέψει τη χρήση εργαλείων τεχνητής νοημοσύνης για τη διακοπή των εκλογών.
Αλλά η τεχνολογία χρησιμοποιείται επίσης για να φτάσει πιο άμεσα στα χαρτιά των ανθρώπων με κατασκευασμένες εγκρίσεις προϊόντων.
«Επιβαρύνει τους ανθρώπους που βομβαρδίζονται με πληροφορίες για να είναι στη συνέχεια οι διαιτητές για να… προστατεύσουν τον οικονομικό τους εαυτό, πάνω από οτιδήποτε άλλο», είπε. Μπριτ Πάρις, επίκουρος καθηγητής στο Πανεπιστήμιο Rutgers που μελετά περιεχόμενο που δημιουργείται από AI. «Οι άνθρωποι που κάνουν αυτές τις τεχνολογίες διαθέσιμες, οι άνθρωποι που πραγματικά επωφελούνται από τις τεχνολογίες βαθιάς ψεύτικης… δεν ενδιαφέρονται πραγματικά για τους καθημερινούς ανθρώπους. Τους ενδιαφέρει να αποκτήσουν κλίμακα και να κερδίσουν όσο πιο γρήγορα μπορούν».
Ηθοποιός Τομ Χανκς και ραδιοτηλεοπτικός φορέας Gayle King είναι μεταξύ εκείνων που έχουν πει ότι οι φωνές και οι εικόνες τους έχουν αλλοιωθεί χωρίς τη συγκατάθεσή τους και συνδέονται με μη εξουσιοδοτημένα δώρα, προωθήσεις και εγκρίσεις.
«Είμαστε σε ένα νέο σταυροδρόμι εδώ, ένα νέο πλέγμα για το τι είδους πράγματα είναι δυνατά από την άποψη της χρήσης της ομοιότητας κάποιου», είπε ο Πάρις.
Παρόμοιοι ισχυρισμοί έγκρισης έχουν καταρριφθεί από την USA TODAY, συμπεριλαμβανομένων εκείνων που ισχυρίζονται Η Kelly Clarkson ενέκρινε τις κετο τσίχλες για απώλεια βάρους και ένας Ινδός δισεκατομμυριούχος προώθησε ένα πρόγραμμα συναλλαγών. Το βίντεο που φαίνεται να δείχνει τον Κλάρκσον προβλήθηκε περισσότερες από 48.000 φορές.
Ωστόσο, συνεχίζουν να εμφανίζονται, εν μέρει επειδή είναι τόσο εύκολο να δημιουργηθούν.
Μια έρευνα USA TODAY του Η βιβλιοθήκη διαφημίσεων του Meta αποκάλυψε πολλά βίντεο που φαινόταν ότι ήταν κατασκευασμένα από AI. Ισχυρίζονται ότι δείχνουν ΈλονΜόσχος δίνοντας ράβδους χρυσού και Η Jennifer Aniston και η Jennifer Lopez προσφέρουν κιτ υγρών botox.
«Κάθε φορά που κάποιος δεν μπορεί να πληρώσει έναν ηθοποιό ή μια διασημότητα για να εμφανιστεί στις διαφημίσεις του, πιθανότατα θα το κάνει, σωστά;» είπε ο Πάρης. «Αυτές οι μικρότερες εταιρείες απατεώνων… σίγουρα θα χρησιμοποιήσουν τα εργαλεία που έχουν στη διάθεσή τους για να βγάλουν ό,τι χρήματα μπορούν από τους ανθρώπους».
“Το λογισμικό είναι αρκετά εύκολο στη χρήση”
Οι δημιουργοί αυτών των ψεύτικων εγκρίσεων ακολουθούν συνήθως μια απλή διαδικασία, λένε οι ειδικοί.
Ξεκινούν με ένα πρόγραμμα μετατροπής κειμένου σε ομιλία που παράγει ήχο από γραπτό σενάριο. Άλλα προγράμματα μπορούν να χρησιμοποιήσουν ένα μικρό δείγμα αυθεντικού ήχου από μια συγκεκριμένη διασημότητα για να αναδημιουργήσουν τη φωνή, μερικές φορές με μόλις ένα λεπτό αληθινού ήχου, είπε Siwei Lyuεμπειρογνώμονας εγκληματολογίας ψηφιακών μέσων στο Πανεπιστήμιο του Μπάφαλο.
Άλλα προγράμματα δημιουργούν κινήσεις χειλιών για να ταιριάζουν με τις προφορικές λέξεις στο κομμάτι ήχου. Αυτό το βίντεο στη συνέχεια επικαλύπτεται στο στόμα του ατόμου, είπε ο Lyu.
«Όλο το λογισμικό είναι αρκετά εύκολο στη χρήση», είπε ο Lyu.
Αυτά τα βίντεο είναι επίσης εύκολο να παραχθούν μαζικά και να προσαρμόζονται σε συγκεκριμένο κοινό, οδηγώντας σε ένα άλλο πρόβλημα: Τα βίντεο που δεν διαδίδονται ευρέως μπορεί να είναι πιο δύσκολο να βρεθούν – και πιο σκληρά για την αστυνομία. Για παράδειγμα, υπήρχαν 63 εκδόσεις της υποτιθέμενης διαφήμισης των Lopez και Aniston στη βιβλιοθήκη διαφημίσεων Meta. Πολλοί ήταν ενεργοί μόνο για μία ή δύο ημέρες, συγκεντρώνοντας μερικές εκατοντάδες προβολές προτού διαγραφούν και αντικατασταθούν από νέα.
«Στις περισσότερες περιπτώσεις, δεν πάνε παντού», είπε ο Campbell. «Έτσι, μπορείτε απλώς να στοχεύσετε συγκεκριμένες ομάδες καταναλωτών και μόνο αυτοί οι άνθρωποι θα τις δουν. Έτσι, γίνεται πιο δύσκολο να εντοπιστούν αυτά, ειδικά αν στοχεύουν άτομα που είναι λιγότερο μορφωμένα ή απλώς λιγότερο συνειδητοποιημένα για το τι μπορεί να συμβαίνει στην πραγματικότητα».
Προς το παρόν, είναι ακόμα δυνατό να εντοπιστούν ενδείξεις με γυμνό μάτι ότι αυτά τα βίντεο που δημιουργούνται από την τεχνητή νοημοσύνη δεν είναι αληθινά. Τα δόντια και οι γλώσσες είναι δύσκολο να αναδημιουργηθούν τεχνητά, είπε ο Lyu. Μερικές φορές, ένα ψεύτικο βίντεο είναι πολύ τέλειο και αφήνει έξω παύσεις, αναπνοές ή άλλες ατέλειες του ανθρώπινου λόγου.
Αλλά η τεχνολογία έχει φτάσει τόσο μακριά σε τόσο σύντομο χρονικό διάστημα που ένα κατασκευασμένο βίντεο μπορεί να μην διακρίνεται από το αυθεντικό σε «μερικά χρόνια», είπε ο Campbell.
«Τα εργαλεία βίντεο δεν είναι τόσο καλά όσο αυτά που βασίζονται σε εικόνες», είπε. «Αλλά το βίντεο είναι ουσιαστικά απλώς ένα σωρό εικόνες συγκεντρωμένες, σωστά; Επομένως, είναι απλώς θέμα επεξεργαστικής ισχύος και απόκτησης περισσότερης εμπειρίας με αυτό».
Σκεφτείτε κριτικά, χρησιμοποιήστε διαδικτυακά εργαλεία ανίχνευσης AI
Οι χρήστες των μέσων κοινωνικής δικτύωσης έχουν μερικές τακτικές στη διάθεσή τους για να προστατευτούν. Μερικοί εντοπίστηκαν από τον Better Business Bureau σε προειδοποίηση που εκδόθηκε τον Απρίλιο του 2023.
Το κυριότερο: Σκέψου κριτικά.
«Τομ Χανκς, θα φαινόταν κάπως περίεργο που μπορεί να πουλάει οδοντιατρική ασφάλεια», είπε ο Πάρις. «Αν δεν περάσει το τεστ μυρωδιάς, με βάση αυτά που γνωρίζετε για τη συγκεκριμένη διασημότητα, μάλλον δεν αξίζει να ασχοληθείτε πολύ και σίγουρα να μην το μοιραστείτε. Τουλάχιστον, να μην το πιστεύεις μέχρι να μπεις και να κάνεις λίγη legwork, έρευνα ιστορικού».
Οι εταιρείες συνήθως δεν περιορίζουν τις νόμιμες διαφημίσεις τους σε μια ενιαία πλατφόρμα κοινωνικών μέσων. Ένα πραγματικό βίντεο που δημοσιεύτηκε στο Facebook, για παράδειγμα, πιθανότατα θα εμφανιζόταν και στο Instagram, στο TikTok και στο YouTube.
Υπάρχουν επίσης αρκετούς διαδικτυακούς ανιχνευτές ικανό να προσδιορίσει σε διάφορους βαθμούς ακρίβειας εάν μια εικόνα είναι αυθεντική ή έχει δημιουργηθεί από AI.
Οι χρήστες των μέσων κοινωνικής δικτύωσης που δεν είναι ακόμη εξοικειωμένοι με αυτά τα εργαλεία και συμβουλές έχουν ακόμα λίγο χρόνο – αλλά ίσως όχι πολύ – για να ενημερωθούν.
«Οι ψεύτικες διαφημίσεις είναι, θα πω, μια απειλή», είπε ο Lyu. «Αλλά δεν αποτελεί πραγματικά κίνδυνο για όλους – ακόμα».
Σας ευχαριστούμε που υποστηρίζετε τη δημοσιογραφία μας. Μπορείς εγγραφείτε στην έντυπη έκδοση, στην εφαρμογή χωρίς διαφημίσεις ή στην ηλεκτρονική μας εφημερίδα εδώ.
USA TODAY είναι ένα επαληθευμένο υπογράφοντα του Διεθνούς Δικτύου Ελέγχου Γεγονότων, το οποίο απαιτεί αποδεδειγμένη δέσμευση για μη κομματικότητα, δικαιοσύνη και διαφάνεια.