(NEXSTAR) – Το Διαδίκτυο υποβάλλει ολοένα και περισσότερο τους χρήστες σε εικόνες και κείμενο που δημιουργούνται από AI σε διαφημίσεις, βίντεο και αναρτήσεις στα μέσα κοινωνικής δικτύωσης, είτε πολλοί από εμάς το γνωρίζουμε είτε όχι.
Αλλά πρέπει πραγματικά να το γνωρίζουμε, σε έναν τέλειο κόσμο.
Λόγω των προόδων στη γενετική τεχνητή νοημοσύνη (ή τη γενετική τεχνητή νοημοσύνη, όπως συνήθως αποκαλείται), μπορεί να γίνει ολοένα και πιο δύσκολο να διακρίνει κανείς τη διαφορά μεταξύ γνήσιων και συνθετικών μέσων. Σε πολλές περιπτώσεις, αυτοί οι τύποι εικόνων και βίντεο δημιουργούνται και κοινοποιούνται χωρίς κακή πρόθεση — αλλά αυτό δεν συμβαίνει μεταξύ των δημιουργών που θέλουν να παραπλανήσουν ή να παραπληροφορήσουν το κοινό ή να χρησιμοποιήσουν την τεχνητή νοημοσύνη για σκοπούς απάτης ή εκβιασμού.
«Όλα τα μέσα που έχουμε σήμερα, η πλειοψηφία, είναι σε ψηφιακή μορφή και βασιζόμαστε στα ψηφιακά μέσα για να αποκτήσουμε γνώση, πληροφορίες, για το τι συμβαίνει στον κόσμο», δήλωσε ο Δρ Siwei Lyu, καθηγητής στο Κρατικό Πανεπιστήμιο της Νέα Υόρκη στο Μπάφαλο και ο συνδιευθυντής του Κέντρου για την Ακεραιότητα της Πληροφορίας του σχολείου, είπε στο Nexstar.
«Εάν κάποιος έχει τη δυνατότητα να χειραγωγήσει ή να κατασκευάσει αυτά τα μέσα και οι χρήστες δεν μπορούν να κάνουν τη διαφορά… [it can] επηρεάζουν τη λήψη των αποφάσεών τους και με αυτόν τον τρόπο επηρεάζουν τις ζωές μας, την κοινωνία και τη δημοκρατία», είπε ο Lyu. «Αυτό είναι μια κρίσιμη ανησυχία και απειλή για την ευημερία όλων».
Ακόμη και χωρίς κακόβουλη πρόθεση εκ μέρους του δημιουργού, η βιομηχανία παραγωγής τεχνητής νοημοσύνης λειτουργεί — και εξελίσσεται — με ελάχιστη επίβλεψη.
«Η άνοδος αυτών των μεγάλων εταιρειών τεχνολογίας έχει δημιουργήσει αυτό το ενδιαφέρον περιβάλλον όπου οτιδήποτε, ακόμη και ελαττωματικό ή αν έχει δυσλειτουργίες, εμφανίζεται εκεί, επειδή δεν υπάρχει ρυθμιστικός φορέας», δήλωσε η Amarda Shehu, αναπληρώτρια κοσμήτορας για την Καινοτομία AI στο George Mason. Το University’s College of Engineering and Computing, είπε. «Το κίνητρο για να βγάλεις χρήματα είναι τόσο ισχυρό, η στάση είναι «Θα το κάνουμε τώρα και θα ασχοληθούμε με ό,τι έρχεται αργότερα».
Ο Shehu επίσης δεν ανησυχεί ακόμη για το ότι η ίδια η τεχνητή νοημοσύνη βγαίνει εκτός ελέγχου. αυτή τη στιγμή, είναι περισσότερο ένα θέμα μεταξύ των κακών ηθοποιών στα χειριστήρια.
«Δεν χρειάζεται να φοβόμαστε ότι η τεχνητή νοημοσύνη κάνει ανόητα πράγματα», είπε ο Shehu. «Έχουμε ανθρώπους για αυτό».
Αυτό δεν σημαίνει ότι όλη η γενετική τεχνητή νοημοσύνη είναι κακή. Η τεχνολογία είναι γεμάτη με δυνατότητες για ευεργετικές εφαρμογές, ειδικά στους τομείς της μηχανικής και της ιατρικής, είπε ο Shehu στο Nexstar. Αλλά χωρίς ευρεία εποπτεία που προστατεύει το κοινό από κακούς παράγοντες που χρησιμοποιούν κακόβουλα εργαλεία τεχνητής νοημοσύνης, εναπόκειται σε εμάς τους καταναλωτές να ελέγξουμε τι βλέπουμε.
Λοιπόν, πώς μπορούμε να πούμε τι είναι αληθινό;
Τόσο ο Lyu όσο και ο Shehu γνωρίζουν καλά τα εξελιγμένα εργαλεία για την ανίχνευση deepfakes και ψηφιακών πλαστών, μερικά από τα οποία τροφοδοτούνται από την ίδια την τεχνητή νοημοσύνη. Ο Lyu παρομοίασε μάλιστα ένα από τα εργαλεία που βοήθησε να αναπτύξει με ένα κατοικίδιο, το οποίο εκπαιδεύει για να αναγνωρίζει τυχόν σημάδια ψεύτικο.
Οι ειδικοί είπαν, ωστόσο, ότι οι γεννήτριες βαθιάς ψεύτικης εικόνας δεν έχουν ακόμη παράγει «τέλεια» αποτελέσματα, πράγμα που σημαίνει ότι συνήθως υπάρχουν ενδεικτικά σημάδια ψευδούς ορατής — ακόμη και στο μέσο μάτι.
«Θα μπορούσατε να βρείτε μια πολύ ρεαλιστική εικόνα AI, όλα φαίνονται αληθινά… και το άτομο [in the picture] έχει χέρια με έξι δάχτυλα», είπε η Λιου. “Ή, τα χέρια είναι σε μια διαμόρφωση που είναι πολύ περίεργη και δεν μοιάζει με μια στάση που θα έκανε κάποιος με αληθινά χέρια.”
Ο Lyu εντόπισε επίσης ένα δώρο που εμφανίζεται συχνά στα μάτια ορισμένων ανθρώπινων υποκειμένων σε εικόνες που δημιουργούνται από AI.
«Στον πραγματικό κόσμο, όταν ψάχνω [at something], οι αντανακλάσεις στα δύο μάτια μου θα είναι ίδιες, αλλά αυτό δεν θα συμβαίνει με τις εικόνες που δημιουργούνται από την τεχνητή νοημοσύνη», πρόσθεσε ο Lyu. «Οι αντανακλάσεις μπορεί να φαίνονται πολύ διαφορετικές, σχεδόν σαν να κοιτάζουν δύο διαφορετικά πράγματα».
Ο Shehu είπε ότι μια προσεκτική ματιά στο δέρμα οποιουδήποτε ανθρώπινου υποκειμένου μπορεί επίσης να είναι το κλειδί, καθώς ορισμένα προγράμματα τεχνητής νοημοσύνης μπορεί να δημιουργήσουν αταίριαστους τόνους δέρματος ή δέρμα χωρίς πόρους. Αυτοί οι τύποι ελαττωμάτων (και άλλα), είπε, συμβάλλουν στον «παράξενο παράγοντα» μιας εικόνας, στον βαθμό στον οποίο προκαλεί ένα ανησυχητικό συναίσθημα.
Το φόντο της εικόνας μπορεί να έχει επίσης πολλά δώρα.
“Ένα άλλο πράγμα που οι άνθρωποι έχουν αρχίσει να παρατηρούν είναι η έλλειψη πλαισίου”, είπε ο Shehu. «Το φόντο δεν είναι συνδεδεμένο».
Σε ελαττωματικές εικόνες, είπε, οι υπολογιστές μπορεί να «αναμιγνύουν και να ταιριάζουν» στοιχεία από διάφορους τύπους φόντου, δημιουργώντας περίεργο κείμενο, ασυνεπείς λεπτομέρειες ή μια συνολική «έλλειψη φυσικής» που δεν είναι δυνατή στον πραγματικό κόσμο.
«Ούτε σκιές, ούτε αντανακλάσεις. Αν δείτε πλήθη ανθρώπων στο παρασκήνιο, κάποιοι θα είναι καλά καθορισμένοι, άλλοι θα μοιάζουν σαν να τους λείπουν pixel», είπε.
«Το ονομάζω «έλλειψη συνοχής».
Όσο για το βίντεο, η Lyu προσφέρει ένα άλλο κόλπο για τον εντοπισμό των deepfakes: Παρακολουθήστε τα χείλη.
«Παρατηρήστε τις ασυνέπειες μεταξύ του ήχου που προφέρεται και της κίνησης και του σχήματος του στόματος», είπε. «Αυτό που ακούγεται σαν «b» ή «p» ή «m» που προφέρεται, καθώς απαιτεί τα χείλη να είναι ερμητικά κλειστά. Αλλά τα deepfakes μπορεί να μην έχουν αυτόν τον τέλειο συγχρονισμό του ήχου».
Ο ήχος και το κείμενο, είπε ο Shehu, είναι πιο δύσκολο να ξεχωρίσουν, με λιγότερες πληροφορίες διαθέσιμες στον χρήστη. Αλλά ο Lyu είπε ότι υπάρχει ένας ήχος για να ακούσετε – ή μάλλον, η έλλειψη ήχου.
«Ένα πράγμα που παρατηρούμε είναι η έλλειψη ήχων φόντου», είπε. «Στην αληθινή ομιλία… υπάρχουν παύσεις, και «ωχ» και αναπνοές στην πορεία. Στις φωνές που δημιουργούνται από AI, δεν ακούτε όλο αυτόν τον διαχωρισμό. Οι φωνές ακούγονται εξαιρετικά ήρεμες, δεν ακούς καθόλου τον ήχο της αναπνοής.”
Όσον αφορά το κείμενο, ο Shehu είπε ότι μπορεί να είναι δυνατό για εργαλεία να ανιχνεύουν αντίγραφα που δημιουργούνται από AI, αλλά δεν είναι ακόμα τόσο αξιόπιστο.
«Ακολουθώ πολλά από τα εργαλεία ανίχνευσης τεχνητής νοημοσύνης, έχουν πολύ υψηλό ποσοστό ψευδώς θετικών», είπε σχετικά με την τεχνητή νοημοσύνη και το κείμενο. «Δυσκολεύονται πολύ να εντοπίσουν ότι το κείμενο είναι συνθετικό».
Ταυτόχρονα, τα εργαλεία δημιουργίας τεχνητής νοημοσύνης γίνονται καλύτερα και παράγουν πιο ρεαλιστικά μέσα. Αυτήν τη στιγμή, ορισμένα από αυτά τα εργαλεία βελτιώνονται για να μειώσουν ή να διορθώσουν συγκεκριμένα τα ελαττώματα που αναφέρονται παραπάνω.
«Είναι ένα παιχνίδι γάτας και ποντικιού», είπε ο Shehu. «Όποτε έρχεται κάποιος και λέει ότι έχει έναν καλό ανιχνευτή AI, το επόμενο [deepfake generator] γίνεται για να το αποφύγει αυτό. Μοιάζει πολύ με την ασφάλεια στον κυβερνοχώρο».
Ο Lyu είπε ότι μια από τις δουλειές του τώρα είναι να κάνει πιο δύσκολη και ακριβότερη την παραγωγή deepfakes. Ωστόσο, αυτός και ο Shehu προειδοποιούν ότι η κυβέρνηση θα πρέπει να δώσει μεγαλύτερη προσοχή στο θέμα ή να υποστηρίξει τις προσπάθειες του εκπαιδευτικού τομέα να μετριάσει κάθε βλάβη που μπορεί να προκληθεί από τη νέα τεχνολογία.
«Ποτέ δεν μου είπαν ότι αυτό που εργαζόμασταν θα μπορούσε ενδεχομένως να βλάψει τους ανθρώπους», είπε ο Lyu.
«Το πρώτο πράγμα που πρέπει να γίνει είναι να εκπαιδεύσουμε την επόμενη γενιά φοιτητών επιστήμης και μηχανικής ώστε να προσέχουν περισσότερο την τεχνολογία στην οποία εργάζονται. … Ακόμη και το να ξεκινήσετε με πολύ υψηλές προθέσεις θα μπορούσε να έχει ανεπιθύμητα αποτελέσματα».