(NewsNation) — Οι ανησυχίες για την τεχνητή νοημοσύνη αφθονούν, ειδικά όσον αφορά αυτήν μπορεί να επηρεάσει τις προεδρικές εκλογές του 2024.
Πρόσφατα, μια ρομποτική κλήση που υποδύεται Πρόεδρος Τζο Μπάιντεν ενόψει των προκριματικών εκλογών στο Νιου Χάμσαϊρ, αναφέρθηκε για πρώτη φορά από το NBC News, υψωμένα φρύδια. Τώρα, το γραφείο του γενικού εισαγγελέα του Νιού Χάμσαϊρ ερευνά.
Στο robocall, μια φωνή που ακούγεται σαν του Μπάιντεν λέει στους ψηφοφόρους στην πολιτεία: «Η ψήφος σας κάνει τη διαφορά τον Νοέμβριο, όχι αυτή την Τρίτη». Ο αριθμός είναι πλαστός για να δείξει ότι στάλθηκε από τον ταμία μιας πολιτικής επιτροπής που υποστηρίζει τις προσπάθειες εγγραφής για τον Μπάιντεν. Οι ειδικοί είπαν στο NBC ότι φαινόταν να είναι ένα deepfake, ένας ψευδής ήχος ή βίντεο που δημιουργήθηκε με AI για να μιμηθεί πραγματικούς ανθρώπους.
Τα Deepfakes δεν χρησιμοποιούνται μόνο στην πολιτική – μπορούν επίσης να χρησιμοποιηθούν χρησιμοποιείται για απάτη καθημερινοί πολίτες.
Καθώς αυτή η νέα τεχνολογία αναπτύσσεται και εξελίσσεται, μπορεί να φαίνεται δύσκολο να γνωρίζουμε τι είναι η τεχνητή νοημοσύνη και τι είναι πραγματικό στο Διαδίκτυο. Οι ειδικοί λένε ότι υπάρχουν κάποιοι τρόποι ελέγχου.
Δώστε προσοχή στις λεπτομέρειες
Το Media Lab του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης λέει ότι θα πρέπει να δώσετε προσοχή σε ορισμένες λεπτομέρειες, όπως τα πρόσωπα των ανθρώπων, για να προσδιορίσετε εάν ένα βίντεο είναι ψεύτικο.
Τα Deepfakes, σύμφωνα με το MediaLab, μπορεί να είναι ασύμβατα σε ορισμένες διαστάσεις.
«Οι χειρισμοί Deepfake υψηλής τεχνολογίας είναι σχεδόν πάντα μεταμορφώσεις του προσώπου», έγραψαν μέλη του MediaLab.
Για να αποκρυπτογραφήσετε εάν ένα βίντεο είναι πραγματικό ή όχι, κοιτάξτε προσεκτικά τα μάγουλα και το μέτωπο των ανθρώπων για να δείτε αν το δέρμα εκεί φαίνεται πολύ λείο ή πολύ ζαρωμένο ή εάν η «γήρανση» του δέρματος είναι παρόμοια με αυτή των μαλλιών και των ματιών.
Σε ένα deepfake βίντεο, οι σκιές μπορεί να εμφανίζονται σε μέρη που δεν θα περίμενε κανείς. Εάν κάποιος στο βίντεο φοράει γυαλιά, μπορεί να υπάρχει υπερβολική αντανάκλαση ή η γωνία λάμψης μπορεί να αλλάξει εάν το άτομο κινηθεί.
«Τα Deepfakes μπορεί να αποτύχουν να αντιπροσωπεύσουν πλήρως τη φυσική φυσική του φωτισμού», είπε το MediaLab.
ο Better Business Bureau λέει να αναζητήσετε αμφισβητήσιμες εικόνες στην υψηλότερη δυνατή ανάλυση και να κάνετε μεγέθυνση για να πιάσετε λεπτομέρειες που τις συνδέουν ως AI.
Χρησιμοποιήστε εργαλεία
της Google αντίστροφη αναζήτηση εικόνων μπορεί να σας βοηθήσει να βρείτε από πού προήλθε μια εικόνα. Ιστοσελίδες όπως aiornot.com μπορεί επίσης να βοηθήσει.
Ορισμένες υπηρεσίες όπως Ανιχνευτής φωνής AI μπορεί να δει αν μια φωνή είναι πραγματική ή δημιουργείται με AI, αν και μπορεί να χρειαστεί να πληρώσετε για αυτήν.
Για τον εντοπισμό γραφής τεχνητής νοημοσύνης, Forbes προτείνει πλατφόρμες όπως Μη ανιχνεύσιμος.aiτο οποίο μπορεί να αναλύσει τη δομή, τη σύνταξη και τα στιλιστικά στοιχεία ενός κειμένου για να δει πόσο χρησιμοποιήθηκε η τεχνητή νοημοσύνη ή Πρωτοτυπία.AIτο οποίο μπορεί να εντοπίσει κείμενο που δημιουργείται από το ChatGPT ή το Bard χρησιμοποιώντας προηγμένη μηχανική εκμάθηση.
Επαλήθευση πληροφοριών
Ακόμα κι αν πιστεύετε ότι γνωρίζετε και εμπιστεύεστε κάποιον που σας τηλεφώνησε, πρέπει να επιβεβαιώσετε την ταυτότητά του, λέει η BBB, ειδικά αν αρχίσει να κάνει αιτήματα εκτός χαρακτήρα. Όταν το άτομο μιλάει, ακούστε προσεκτικά για ασταθείς προτάσεις, αφύσικες ή παράξενες καμπές, περίεργες φράσεις ή ήχους φόντου που δεν ταιριάζουν με την τοποθεσία του ατόμου.
Δεν πρέπει ποτέ να υποθέσετε ότι η διαδικτυακή περσόνα κάποιου είναι πραγματικά αυτός, αν δεν τον έχετε γνωρίσει πρώτα. Επιπλέον, το BBB προειδοποιεί ότι «αν ακούγεται πολύ καλό για να είναι αληθινό, μάλλον είναι». Τα βίντεο έγκρισης διασημοτήτων, όπως αυτά που προσφέρουν δωρεάν προϊόντα, μπορεί να είναι ύποπτα.