- Της Μέριλ Σεμπάστιαν
- BBC News, Κότσι
Τον Νοέμβριο του περασμένου έτους, ο Muralikrishnan Chinnadurai παρακολουθούσε μια ζωντανή ροή μιας εκδήλωσης στη γλώσσα Ταμίλ στο Ηνωμένο Βασίλειο, όταν παρατήρησε κάτι περίεργο.
Μια γυναίκα που παρουσιάστηκε ως Duwaraka, κόρη του Velupillai Prabhakaran, του αρχηγού των μαχητών της Τίγρης Ταμίλ, έδωσε μια ομιλία.
Το πρόβλημα ήταν ότι ο Ντουβαράκα είχε πεθάνει περισσότερο από μια δεκαετία νωρίτερα, σε αεροπορική επιδρομή το 2009 κατά τις τελευταίες ημέρες του εμφυλίου πολέμου στη Σρι Λάνκα. Η σορός του τότε 23χρονου δεν βρέθηκε ποτέ.
Και τώρα, εδώ – φαινομενικά μια μεσήλικη γυναίκα – προέτρεπε τους Ταμίλια σε όλο τον κόσμο να προωθήσουν τον πολιτικό αγώνα για την ελευθερία τους.
Ο κ. Chinnadurai, ένας ελεγκτής γεγονότων στη νότια ινδική πολιτεία Ταμίλ Ναντού, παρακολούθησε το βίντεο από κοντά, παρατήρησε σφάλματα στο βίντεο και σύντομα το προσδιόρισε ως μια φιγούρα που δημιουργήθηκε από την τεχνητή νοημοσύνη (AI).
Τα πιθανά προβλήματα ήταν αμέσως ξεκάθαρα στον κ. Chinnadurai: «Αυτό είναι ένα συγκινητικό ζήτημα στην πολιτεία [Tamil Nadu] και με τις εκλογές στη γωνία, η παραπληροφόρηση θα μπορούσε γρήγορα να εξαπλωθεί».
Καθώς η Ινδία πηγαίνει στις κάλπες, είναι αδύνατο να αποφευχθεί η δημιουργία πλούτου περιεχομένου που δημιουργείται από AI – από βίντεο καμπάνιας, εξατομικευμένα ηχητικά μηνύματα σε μια σειρά ινδικών γλωσσών, ακόμη και αυτοματοποιημένες κλήσεις προς τους ψηφοφόρους με φωνή υποψηφίου.
Δημιουργοί περιεχομένου όπως ο Shahid Sheikh διασκέδασαν ακόμη και χρησιμοποιώντας εργαλεία τεχνητής νοημοσύνης για να δείξουν στους Ινδούς πολιτικούς με avatar που δεν τους έχουμε ξαναδεί: φορώντας αθλητικά, παίζοντας μουσική και χορεύοντας.
Αλλά καθώς τα εργαλεία γίνονται πιο εξελιγμένα, οι ειδικοί ανησυχούν για τις επιπτώσεις του όταν πρόκειται να κάνουν τις ψεύτικες ειδήσεις να φαίνονται αληθινές.
«Οι φήμες ήταν πάντα μέρος της προεκλογικής εκστρατείας. [But] στην εποχή των μέσων κοινωνικής δικτύωσης, μπορεί να εξαπλωθεί σαν πυρκαγιά», λέει ο SY Qureshi, πρώην επικεφαλής εκλογικός επίτροπος της χώρας.
«Μπορεί πραγματικά να βάλει φωτιά στη χώρα».
Τα πολιτικά κόμματα της Ινδίας δεν είναι τα πρώτα στον κόσμο που εκμεταλλεύονται τις πρόσφατες εξελίξεις στην τεχνητή νοημοσύνη. Ακριβώς πάνω από τα σύνορα στο Πακιστάν, επέτρεψε στον φυλακισμένο πολιτικό Imran Khan να μιλήσει σε μια συγκέντρωση.
Και στην ίδια την Ινδία, ο πρωθυπουργός Narendra Modi έχει ήδη αξιοποιήσει στο έπακρο την αναδυόμενη τεχνολογία για αποτελεσματική εκστρατεία – απευθυνόμενος σε ένα κοινό στα Χίντι, το οποίο, χρησιμοποιώντας το εργαλείο τεχνητής νοημοσύνης που δημιουργήθηκε από την κυβέρνηση Bhashini, μεταφράστηκε στη συνέχεια στα Ταμίλ σε πραγματικό χρόνο.
Αλλά μπορεί επίσης να χρησιμοποιηθεί για τον χειρισμό λέξεων και μηνυμάτων.
Τον περασμένο μήνα, δύο viral βίντεο έδειχναν τους αστέρες του Bollywood, Ranveer Singh και Aamir Khan, να κάνουν εκστρατεία για το αντιπολιτευόμενο κόμμα του Κογκρέσου. Και οι δύο υπέβαλαν καταγγελίες στην αστυνομία λέγοντας ότι επρόκειτο για deepfakes, που έγιναν χωρίς τη συγκατάθεσή τους.
Στη συνέχεια, στις 29 Απριλίου, ο πρωθυπουργός Μόντι εξέφρασε ανησυχίες σχετικά με τη χρήση της τεχνητής νοημοσύνης για τη διαστρέβλωση των ομιλιών από ανώτερους ηγέτες του κυβερνώντος κόμματος, συμπεριλαμβανομένου του ίδιου.
Την επόμενη μέρα, η αστυνομία συνέλαβε δύο άτομα, ένα από το αντιπολιτευόμενο Κόμμα Aam Aadmi (AAP) και το κόμμα του Κογκρέσου, σε σχέση με ένα επεξεργασμένο βίντεο του υπουργού Εσωτερικών Amit Shah.
Το Κόμμα Bharatiya Janata (BJP) του κ. Modi έχει επίσης αντιμετωπίσει παρόμοιες κατηγορίες από ηγέτες της αντιπολίτευσης στη χώρα.
Το πρόβλημα είναι – παρά τις συλλήψεις – δεν υπάρχει ολοκληρωμένη ρύθμιση, σύμφωνα με τους ειδικούς.
Πράγμα που σημαίνει ότι «αν σας πιάσουν να κάνετε κάτι λάθος, τότε στην καλύτερη περίπτωση μπορεί να χτυπήσει τον καρπό σας», σύμφωνα με τον Srinivas Kodali, ερευνητή δεδομένων και ασφάλειας.
Ελλείψει κανονισμών, οι δημιουργοί είπαν στο BBC ότι πρέπει να βασιστούν στην προσωπική ηθική για να αποφασίσουν το είδος της δουλειάς που επιλέγουν να κάνουν ή να μην κάνουν.
Το BBC έμαθε ότι, μεταξύ των αιτημάτων των πολιτικών, ήταν πορνογραφικές εικόνες και μεταμόρφωση βίντεο και ηχείων των αντιπάλων τους για να βλάψουν τη φήμη τους.
«Μου ζήτησαν κάποτε να κάνω μια πρωτότυπη εμφάνιση σαν deepfake γιατί το αρχικό βίντεο, αν κοινοποιηθεί ευρέως, θα έκανε τον πολιτικό να φαίνεται κακός», αποκαλύπτει η Divyendra Singh Jadoun.
«Έτσι η ομάδα του ήθελε να δημιουργήσω ένα deepfake που θα μπορούσαν να το περάσουν ως το πρωτότυπο».
Ο κ. Jadoun, ιδρυτής του The Indian Deepfaker (TID), το οποίο δημιούργησε εργαλεία για να βοηθήσει τους ανθρώπους να χρησιμοποιούν λογισμικό ανοιχτού κώδικα AI για να δημιουργήσουν υλικό εκστρατείας για Ινδούς πολιτικούς, επιμένει να δηλώνει αποποιήσεις για οτιδήποτε κάνει, ώστε να είναι σαφές ότι δεν είναι πραγματικό.
Αλλά εξακολουθεί να είναι δύσκολο να ελεγχθεί.
Ο κ. Sheikh, ο οποίος συνεργάζεται με ένα πρακτορείο μάρκετινγκ στην ανατολική πολιτεία της Δυτικής Βεγγάλης, έχει δει τη δουλειά του να μοιράζεται χωρίς άδεια ή πίστωση από πολιτικούς ή πολιτικές σελίδες στα μέσα κοινωνικής δικτύωσης.
“Ένας πολιτικός χρησιμοποίησε μια εικόνα που δημιούργησα για τον κ. Modi χωρίς πλαίσιο και χωρίς να την αναφέρει, δημιουργήθηκε χρησιμοποιώντας AI”, λέει.
Και είναι πλέον τόσο εύκολο να δημιουργήσετε ένα deepfake που μπορεί να το κάνει ο καθένας.
«Αυτό που χρειαζόμασταν επτά ή οκτώ ημέρες για να δημιουργήσουμε μπορεί τώρα να γίνει σε τρία λεπτά», εξηγεί ο κ. Jadoun. «Θα πρέπει απλώς να έχεις έναν υπολογιστή».
Πράγματι, το BBC κοίταξε από πρώτο χέρι πόσο εύκολο είναι να δημιουργήσεις ένα ψεύτικο τηλεφώνημα μεταξύ δύο ατόμων – σε αυτήν την περίπτωση, εμένα και τον πρώην πρόεδρο των ΗΠΑ Ντόναλντ Τραμπ.
Παρά τους κινδύνους, η Ινδία είχε αρχικά δηλώσει ότι δεν εξέταζε νόμο για την τεχνητή νοημοσύνη. Αυτόν τον Μάρτιο, ωστόσο, άρχισε να δραστηριοποιείται μετά από μια αναταραχή για την απάντηση του chatbot Gemini της Google σε ένα ερώτημα: “Είναι ο Μόντι φασίστας;”
Ο Rajeev Chandrasekhar, ο κατώτερος υπουργός Τεχνολογίας της Πληροφορικής της χώρας, δήλωσε ότι παραβίασε τους νόμους πληροφορικής της χώρας.
Έκτοτε, η ινδική κυβέρνηση ζήτησε από τις εταιρείες τεχνολογίας να λάβουν τη ρητή άδειά της πριν κυκλοφορήσουν δημόσια «αναξιόπιστα» ή «υποδοκιμασμένα» μοντέλα ή εργαλεία τεχνητής νοημοσύνης. Έχει επίσης προειδοποιήσει για απαντήσεις από αυτά τα εργαλεία που “απειλούν την ακεραιότητα της εκλογικής διαδικασίας”.
Αλλά δεν αρκεί: οι ελεγκτές γεγονότων λένε ότι η αποκάλυψη τέτοιου περιεχομένου είναι δύσκολη υπόθεση, ιδιαίτερα κατά τη διάρκεια των εκλογών, όταν η παραπληροφόρηση κορυφώνεται.
«Οι πληροφορίες ταξιδεύουν με ταχύτητα 100 χιλιομέτρων την ώρα», λέει ο κ. Chinnadurai, ο οποίος διευθύνει έναν φύλακα των μέσων ενημέρωσης στο Ταμίλ Ναντού. «Οι αποσαφηνισμένες πληροφορίες που διαδίδουμε θα πάνε με 20 χιλιόμετρα την ώρα».
Και αυτά τα ψεύτικα μπαίνουν ακόμη και στα κυρίαρχα μέσα ενημέρωσης, λέει ο κ. Kodali. Παρόλα αυτά, η “εκλογική επιτροπή σιωπά δημόσια για την τεχνητή νοημοσύνη”.
«Δεν υπάρχουν κανόνες γενικά», λέει ο κ. Kodali. «Αφήνουν τη βιομηχανία της τεχνολογίας να αυτορυθμιστεί αντί να βγάζει πραγματικούς κανονισμούς».
Δεν υπάρχει μια αλάνθαστη λύση στον ορίζοντα, λένε οι ειδικοί.
“Αλλά [for now] Εάν ληφθούν μέτρα εναντίον ατόμων που διαβιβάζουν ψεύτικα, μπορεί να τρομάξουν τους άλλους να μην κοινοποιήσουν μη επαληθευμένες πληροφορίες», λέει ο κ. Qureshi.