Καλλιτέχνες και επιστήμονες υπολογιστών δοκιμάζουν έναν νέο τρόπο για να εμποδίσουν την τεχνητή νοημοσύνη να αφαιρεί εικόνες που προστατεύονται από πνευματικά δικαιώματα: «δηλητηριάστε» τα μοντέλα AI με οράματα για γάτες.
Ενα εργαλείο που ονομάζεται Nightshade, που κυκλοφόρησε τον Ιανουάριο από ερευνητές του Πανεπιστημίου του Σικάγο, αλλάζει εικόνες με μικρούς τρόπους που είναι σχεδόν αόρατοι στο ανθρώπινο μάτι, αλλά φαίνονται δραματικά διαφορετικοί από τις πλατφόρμες τεχνητής νοημοσύνης που τις καταπίνουν. Καλλιτέχνες όπως η Karla Ortiz τώρα «νυχτοπεύουν» τα έργα τους για να τα προστατεύσουν από τη σάρωση και την αναπαραγωγή από προγράμματα μετατροπής κειμένου σε φωτογραφία όπως το DreamUp του DeviantArt, το Stable Diffusion του Stability AI και άλλα.
«Μου έκανε εντύπωση ότι πολλά από αυτά είναι βασικά το σύνολο της δουλειάς μου, το σύνολο της δουλειάς των συνομηλίκων μου, το σύνολο σχεδόν της δουλειάς κάθε καλλιτέχνη που γνωρίζω», είπε η Ortiz, μια concept artist και εικονογράφος της οποίας το χαρτοφυλάκιο έχει φέρει τις δουλειές της. σχεδίαση εικαστικών για έργα ταινιών, τηλεοπτικών παιχνιδιών και βιντεοπαιχνιδιών όπως το “Star Wars”, το “Black Panther” και το Final Fantasy XVI.
«Και όλα έγιναν χωρίς τη συγκατάθεση κανενός – ούτε πίστωση, ούτε αποζημίωση, ούτε τίποτα», είπε.
Το Nightshade αξιοποιεί το γεγονός ότι τα μοντέλα τεχνητής νοημοσύνης δεν «βλέπουν» τον τρόπο που βλέπουν οι άνθρωποι, δήλωσε ο επικεφαλής της έρευνας Shawn Shan.
«Μηχανές, βλέπουν μόνο μια μεγάλη σειρά αριθμών, σωστά; Αυτές είναι τιμές pixel από το μηδέν έως το 255, και στο μοντέλο, αυτό είναι το μόνο που βλέπουν», είπε. Έτσι το Nightshade αλλάζει χιλιάδες εικονοστοιχεία – μια σταγόνα στον κάδο για τυπικές εικόνες που περιέχουν εκατομμύρια εικονοστοιχεία, αλλά αρκεί για να ξεγελάσει το μοντέλο ώστε να δει «κάτι που είναι εντελώς διαφορετικό», είπε ο Shan, τεταρτοετής διδακτορικός φοιτητής στο Πανεπιστήμιο του Σικάγο. .Σε ένα χαρτί που θα παρουσιαστεί τον Μάιο, η ομάδα περιγράφει πώς το Nightshade επιλέγει αυτόματα μια ιδέα που σκοπεύει να μπερδέψει ένα πρόγραμμα τεχνητής νοημοσύνης που ανταποκρίνεται σε μια δεδομένη προτροπή — ενσωματώνοντας φωτογραφίες «σκύλου», για παράδειγμα, με μια σειρά παραμορφώσεων pixel που διαβάζονται ως «γάτα ” στο μοντέλο.
Αφού τάισε 1.000 ανεπαίσθητα «δηλητηριασμένες» φωτογραφίες σκύλων σε ένα εργαλείο τεχνητής νοημοσύνης κειμένου σε φωτογραφία και ζήτησε μια εικόνα ενός σκύλου, το μοντέλο δημιουργεί κάτι αναμφισβήτητα μη κυνικό.
Ωστόσο, οι στοχευμένες παραμορφώσεις του Nightshade δεν είναι πάντα αιλουροειδείς. Το πρόγραμμα αποφασίζει κατά περίπτωση ποια εναλλακτική ιδέα σκοπεύει να «δουν» οι στόχοι τεχνητής νοημοσύνης του. Σε ορισμένες περιπτώσεις, είπε ο Shan, χρειάζονται μόλις 30 νυχτερινές φωτογραφίες για να δηλητηριάσει ένα μοντέλο με αυτόν τον τρόπο.
Ο Ben Zhao, καθηγητής επιστήμης υπολογιστών που διευθύνει το εργαστήριο του Πανεπιστημίου του Σικάγο που ανέπτυξε το Nightshade, δεν αναμένει μαζική απορρόφηση του εργαλείου κοντά σε ένα επίπεδο που θα απειλούσε να καταστρέψει τις γεννήτριες εικόνων AI. Αντίθετα, το περιέγραψε ως ένα «δόρυ» που μπορεί να καταστήσει ορισμένες στενότερες εφαρμογές αρκετά άχρηστες ώστε να αναγκάσει τις εταιρείες να πληρώσουν όταν ξύνουν τα έργα των καλλιτεχνών.
«Εάν είστε δημιουργός οποιουδήποτε τύπου, αν τραβάτε φωτογραφίες, για παράδειγμα, και δεν θέλετε απαραίτητα οι φωτογραφίες σας να τροφοδοτηθούν σε ένα μοντέλο εκπαίδευσης — ή οι ομοιότητες των παιδιών σας ή οι δικές σας ομοιότητες σε ένα μοντέλο — τότε το Nightshade είναι κάτι που μπορείτε να σκεφτείτε», είπε ο Zhao.
Το εργαλείο είναι δωρεάν στη χρήση και ο Zhao είπε ότι σκοπεύει να το διατηρήσει έτσι.
Μοντέλα όπως το Stable Diffusion προσφέρουν ήδη «εξαιρέσεις», ώστε οι καλλιτέχνες να μπορούν να λένε στα σύνολα δεδομένων να μην χρησιμοποιούν το περιεχόμενό τους. Ωστόσο, πολλοί κάτοχοι πνευματικών δικαιωμάτων έχουν παραπονεθεί ότι ο πολλαπλασιασμός των εργαλείων τεχνητής νοημοσύνης ξεπερνά τις προσπάθειές τους να προστατεύσουν το έργο τους.
Η συζήτηση γύρω από την προστασία της πνευματικής ιδιοκτησίας προσθέτει σε ένα ευρύτερο σύνολο ηθικών ανησυχιών σχετικά με την τεχνητή νοημοσύνη, συμπεριλαμβανομένης της επικράτησης των deepfakes και των ερωτήσεων σχετικά με την όρια υδατοσήμανσης να περιορίσει αυτές και άλλες καταχρήσεις. Αν και υπάρχει αυξανόμενη αναγνώριση στον κλάδο της τεχνητής νοημοσύνης ότι χρειάζονται περισσότερες διασφαλίσεις, η ταχεία ανάπτυξη της τεχνολογίας — συμπεριλαμβανομένων νεότερων εργαλείων μετατροπής κειμένου σε βίντεο όπως Ο Σόρα του OpenAI — ανησυχεί ορισμένους ειδικούς.
«Δεν ξέρω ότι θα κάνει πολλά γιατί θα υπάρξει μια τεχνολογική λύση που θα είναι μια αντεπίδραση σε αυτήν την επίθεση», είπε για το Nightshade η Sonja Schmer-Galunder, καθηγήτρια τεχνητής νοημοσύνης και ηθικής στο Πανεπιστήμιο της Φλόριντα.
Ενώ το έργο Nightshade και άλλα παρόμοια αντιπροσωπεύουν μια ευπρόσδεκτη «εξέγερση» κατά των μοντέλων τεχνητής νοημοσύνης ελλείψει ουσιαστικής ρύθμισης, είπε ο Schmer-Galunder, οι προγραμματιστές τεχνητής νοημοσύνης είναι πιθανό να διορθώσουν τα προγράμματά τους για να αμυνθούν από τέτοια αντίμετρα.
Οι ερευνητές του Πανεπιστημίου του Σικάγο αναγνωρίζουν την πιθανότητα «δυνητικών άμυνες» ενάντια στη δηλητηρίαση εικόνων του Nightshade, καθώς οι πλατφόρμες τεχνητής νοημοσύνης ενημερώνονται για να φιλτράρουν δεδομένα και εικόνες που υπάρχουν υπόνοιες ότι έχουν υποστεί «ανώμαλη αλλαγή».
Ο Zhao πιστεύει ότι είναι άδικο να επιβαρύνουμε μεμονωμένα άτομα να απομακρύνουν μοντέλα τεχνητής νοημοσύνης από τις εικόνες τους στην αρχή.
«Πόσες εταιρείες πρέπει να πας σε ένα άτομο για να του πεις να μην παραβιάσει τα δικαιώματά σου;» αυτός είπε. «Δεν λες «Ναι, θα πρέπει πραγματικά να υπογράφεις ένα έντυπο κάθε φορά που διασχίζεις το δρόμο που λέει, «Σε παρακαλώ μην με χτυπήσεις!» σε κάθε οδηγό που έρχεται».
Εν τω μεταξύ, η Ortiz είπε ότι βλέπει τη Nightshade ως μια χρήσιμη «επίθεση» που δίνει στη δουλειά της κάποιο βαθμό προστασίας, ενώ αναζητά ισχυρότερους στο δικαστήριο.
«Ο Nightshade απλώς λέει: «Ε, αν το πάρετε χωρίς τη συγκατάθεσή μου, μπορεί να υπάρχουν συνέπειες σε αυτό», είπε ο Ortiz, ο οποίος είναι μέρος ενός ομαδική αγωγή κατατέθηκε εναντίον της Stability AI, της Midjourney και της DeviantArt τον Ιανουάριο του 2023, ισχυριζόμενη παραβίαση πνευματικών δικαιωμάτων.
Δικαστήριο στα τέλη του περασμένου έτους απολύθηκε ορισμένα από τα επιχειρήματα των εναγόντων, αλλά τους άφησε ανοιχτή την πόρτα να καταθέσουν μια τροποποιημένη αγωγή, η οποία έκαναν τον Νοέμβριο, προσθέτοντας το Runway AI ως κατηγορούμενο. Σε μια πρόταση απόρριψης νωρίτερα αυτό το έτος, η Stability AI υποστήριξε ότι «η απλή μίμηση ενός αισθητικού στυλ δεν συνιστά παραβίαση πνευματικών δικαιωμάτων οποιουδήποτε έργου».
Το Stability AI δεν σχολίασε. Το Midjourney, το DeviantArt και το Runway AI δεν απάντησαν σε αιτήματα για σχολιασμό.