Η φετινή χρονιά υπόσχεται να είναι μεγάλη για την εκλογική κυβέρνηση, με δισεκατομμύρια ανθρώπους –ή περισσότερο από το 40% του παγκόσμιου πληθυσμού– να μπορούν να ψηφίσουν σε εκλογές. Αλλά σχεδόν πέντε μήνες μετά το 2024, ορισμένοι κυβερνητικοί αξιωματούχοι αναρωτιούνται σιωπηλά γιατί ο διαφαινόμενος κίνδυνος της τεχνητής νοημοσύνης δεν έχει, προφανώς, διαδραματιστεί.
Παρόλο που οι ψηφοφόροι στην Ινδονησία και το Πακιστάν έχουν προσέλθει στις κάλπες, βλέπουν ελάχιστα στοιχεία για ιογενή deepfakes που παραμορφώνουν το εκλογικό αποτέλεσμα, σύμφωνα με πρόσφατο άρθρο στο Politico, το οποίο επικαλείται «αξιωματούχους εθνικής ασφάλειας, στελέχη εταιρειών τεχνολογίας και εξωτερικές ομάδες παρακολούθησης». Η τεχνητή νοημοσύνη, είπαν, δεν είχε τον «μαζικό αντίκτυπο» που περίμεναν. Αυτή είναι μια οδυνηρά κοντόφθαλμη άποψη. Ο λόγος? Η τεχνητή νοημοσύνη μπορεί να διαταράσσει τις εκλογές αυτή τη στιγμή και απλώς δεν το γνωρίζουμε.
Το πρόβλημα είναι ότι οι αξιωματούχοι αναζητούν μια μακιαβελική εκδοχή του ο Πάπας Balenciaga.
Θυμάστε τις εικόνες του Πάπα Φραγκίσκου που δημιουργήθηκαν από την τεχνητή νοημοσύνη με ένα puffer jacket που έγιναν viral πέρυσι; Αυτό περιμένουν πολλοί τώρα από τα εργαλεία παραγωγής τεχνητής νοημοσύνης – τα οποία μπορούν να δημιουργήσουν μαζικά κείμενα, εικόνες και βίντεο που μοιάζει με ανθρώπινο, καθιστώντας τον εντοπισμό τους εξίσου εύκολο με προηγούμενες εκστρατείες πειθούς που υποστήριζαν τον Ντόναλντ Τραμπ από την πΓΔΜ ή διέδωσαν διχαστικό πολιτικό περιεχόμενο στο Twitter και το Facebook από τη Ρωσία. . Το λεγόμενο astroturfing ήταν εύκολο να εντοπιστεί όταν μια σειρά από bots έλεγε το ίδιο πράγμα χιλιάδες φορές.
Είναι πολύ πιο δύσκολο να πιάσεις κάποιον να λέει το ίδιο πράγμα, ελαφρώς διαφορετικά, χιλιάδες φορές, όμως. Αυτό, με λίγα λόγια, είναι που κάνει την παραπληροφόρηση που βασίζεται στην τεχνητή νοημοσύνη τόσο πιο δύσκολο να ανιχνευθεί, και γι’ αυτό οι εταιρείες τεχνολογίας πρέπει να αλλάξουν την εστίασή τους από την “virality στην ποικιλία”, δήλωσε ο Josh Lawson, επικεφαλής του εκλογικού κινδύνου στη Meta Platforms Inc. και τώρα συμβουλεύει εταιρείες κοινωνικής δικτύωσης ως διευθυντής στο Aspen Institute, μια δεξαμενή σκέψης.
Μην ξεχνάτε, είπε, τη λεπτή δύναμη των λέξεων. Μεγάλο μέρος της δημόσιας συζήτησης για την τεχνητή νοημοσύνη αφορούσε τις εικόνες και τα βαθιά ψεύτικα, «όταν μπορούσαμε να δούμε το μεγαλύτερο μέρος των εκστρατειών πειθούς θα μπορούσαν να βασίζονται σε κείμενο. Έτσι μπορείς πραγματικά να κλιμακώσεις μια επέμβαση χωρίς να σε πιάσουν».
Το WhatsApp της Meta το κάνει αυτό δυνατό χάρη στη λειτουργία “Κανάλια” του, η οποία μπορεί να μεταδοθεί σε χιλιάδες. Θα μπορούσατε, για παράδειγμα, να χρησιμοποιήσετε ένα μοντέλο γλώσσας ανοιχτού κώδικα για να δημιουργήσετε και να στείλετε λεγεώνες διαφορετικών αναρτήσεων κειμένου σε αραβόφωνους στο Μίσιγκαν ή να στείλετε μήνυμα στους ανθρώπους ότι το εκλογικό τους τμήμα σε ένα σχολείο έχει πλημμυρίσει και ότι η ψηφοφορία θα διαρκέσει έξι ώρες, Lawson προσθέτει. «Τώρα κάτι σαν μια λειτουργία στην αραβική γλώσσα είναι εφικτή για τόσο χαμηλή πολυπλοκότητα όσο τα Proud Boys», είπε.
Το άλλο πρόβλημα είναι ότι τα εργαλεία τεχνητής νοημοσύνης χρησιμοποιούνται πλέον ευρέως, με περισσότερους από τους μισούς Αμερικανούς και το ένα τέταρτο των Βρετανών να τα έχουν δοκιμάσει. Αυτό σημαίνει ότι οι τακτικοί άνθρωποι – σκόπιμα ή όχι – μπορούν επίσης να δημιουργήσουν και να μοιραστούν παραπληροφόρηση. Τον Μάρτιο, για παράδειγμα, οι θαυμαστές του Ντόναλντ Τραμπ δημοσίευσαν ψεύτικες φωτογραφίες του που δημιουργήθηκαν από τεχνητή νοημοσύνη περιτριγυρισμένος από υποστηρικτές των Μαύρων, για να τον ζωγραφίσουν ως ήρωα της μαύρης κοινότητας.
«Είναι απλοί άνθρωποι που δημιουργούν περιεχόμενο θαυμαστών», είπε η Renee DiResta, ερευνήτρια στο Stanford Internet Observatory που ειδικεύεται στην παρέμβαση στις εκλογές. «Σκοπεύουν να είναι απατηλοί; Ποιός ξέρει?” Αυτό που έχει σημασία είναι ότι με το κόστος διανομής να είναι ήδη μηδενικό, το κόστος δημιουργίας έχει μειωθεί επίσης, για όλους. (Δεν βοηθά το γεγονός ότι το Facebook συνιστά ενεργά εικόνες που δημιουργούνται από AI – συμπεριλαμβανομένων παράξενων εικόνων του Ιησού συγχωνευμένες σε γιγάντιες γαρίδες – που προκαλούν εκατοντάδες εκατομμύρια δεσμεύσεις, σύμφωνα με μια ερευνητική εργασία του Μαρτίου από την DiResta.)
Αυτό που κάνει τη δουλειά του Meta ιδιαίτερα προκλητική είναι ότι για να το αντιμετωπίσει, δεν μπορεί απλώς να προσπαθήσει να περιορίσει ορισμένες εικόνες από το να λάβουν πολλά κλικ και likes. Η ανεπιθύμητη αλληλογραφία AI δεν χρειάζεται αφοσίωση για να είναι αποτελεσματική. Απλώς χρειάζεται να πλημμυρίσει η ζώνη.
Το Meta είναι προσπαθώντας να αντιμετωπίσει το πρόβλημα εφαρμόζοντας τις ετικέτες «Made with AI», αυτόν τον μήνα, σε βίντεο, εικόνες και ήχο στο Facebook και το Instagram – μια προσέγγιση που θα μπορούσε να γίνει αντιπαραγωγική εάν οι άνθρωποι αρχίσουν να θεωρούν ότι τα πάντα χωρίς ετικέτα είναι αληθινά.
Μια άλλη προσέγγιση θα ήταν να επικεντρωθεί η Meta σε μια πλατφόρμα όπου κυριαρχεί το κείμενο: το WhatsApp. Ήδη το 2018, μια πλημμύρα παραπληροφόρησης εξαπλώθηκε μέσω της πλατφόρμας μηνυμάτων στη Βραζιλία με στόχο τον Fernando Haddad του Εργατικού Κόμματος. Υποστηρικτές του Ζαΐρ Μπολσονάρου, ο οποίος κέρδισε την προεδρία, αναφέρθηκε ότι χρηματοδότησε τη μαζική στόχευση.
Η Meta θα μπορούσε να καταπολεμήσει καλύτερα την επανάληψη αυτού – που η τεχνητή νοημοσύνη θα έβαζε στα στεροειδή – εάν ευθυγραμμίσει τις πολιτικές της στο WhatsApp με αυτές του Instagram και του Facebook, απαγορεύοντας συγκεκριμένα περιεχόμενο που παρεμβαίνει στην ψηφοφορία. Οι κανόνες του WhatsApp απαγορεύουν μόνο αόριστα «περιεχόμενο που σκόπιμα εξαπατά» και «παράνομη δραστηριότητα».
Ένας εκπρόσωπος της Meta είπε ότι αυτό σημαίνει ότι η εταιρεία «θα επιβάλει την καταστολή ψηφοφόρων ή εκλογών».
Ωστόσο, οι σαφέστερες πολιτικές περιεχομένου θα έδιναν στη Meta περισσότερη εξουσία για την αντιμετώπιση των ανεπιθύμητων μηνυμάτων AI στα κανάλια WhatsApp. Το χρειάζεστε “για προληπτική επιβολή”, είπε ο Lawson. Εάν η εταιρεία δεν πίστευε ότι ίσχυε, δεν θα είχε πιο συγκεκριμένες πολιτικές κατά της παρέμβασης των ψηφοφόρων για το Facebook και το Instagram.
Τα όπλα καπνίσματος είναι σπάνια με τα εργαλεία τεχνητής νοημοσύνης χάρη στα πιο διάχυτα και διαφοροποιημένα εφέ τους. Θα πρέπει να προετοιμαστούμε για περισσότερο θόρυβο παρά σήμα καθώς το συνθετικό περιεχόμενο διαχέεται στο διαδίκτυο. Αυτό σημαίνει ότι οι εταιρείες τεχνολογίας και οι αξιωματούχοι δεν θα πρέπει να εφησυχάζουν για την έλλειψη «μαζικού αντίκτυπου» από την τεχνητή νοημοσύνη στις εκλογές. Ακριβώς το αντίθετο.
Αντιγράψτε τον σύνδεσμο της ιστορίας
«Προηγούμενο
Επόμενο ”
Σχετικές ιστορίες
Μη έγκυρο όνομα χρήστη/κωδικός πρόσβασης.
Ελέγξτε το email σας για να επιβεβαιώσετε και να ολοκληρώσετε την εγγραφή σας.
Χρησιμοποιήστε την παρακάτω φόρμα για να επαναφέρετε τον κωδικό πρόσβασής σας. Όταν υποβάλετε το email του λογαριασμού σας, θα στείλουμε ένα email με έναν κωδικό επαναφοράς.