Τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT έχουν γίνει mainstream και οι εταιρείες πίσω από τις τεχνολογίες ρίχνουν δισεκατομμύρια δολάρια στο στοίχημα ότι θα αλλάξουν τον τρόπο που ζούμε και εργαζόμαστε.
(CNN) — Τα εργαλεία τεχνητής νοημοσύνης όπως το ChatGPT έχουν γίνει mainstream και οι εταιρείες πίσω από τις τεχνολογίες ρίχνουν δισεκατομμύρια δολάρια στο στοίχημα ότι θα αλλάξουν τον τρόπο που ζούμε και εργαζόμαστε.
Αλλά παράλληλα με αυτή την υπόσχεση, έρχεται μια συνεχής ροή ανησυχητικών πρωτοσέλιδων, μερικοί που υπογραμμίζουν τη δυνατότητα της τεχνητής νοημοσύνης να αναδυθεί προκαταλήψεις ή ανακρίβειες κατά την απάντηση σε ερωτήσεις ή εντολές μας. Δημιουργήθηκαν εργαλεία AI, συμπεριλαμβανομένου του ChatGPT φέρεται να παραβιάζει πνευματικά δικαιώματα. Ορισμένα, ανησυχητικά, έχουν χρησιμοποιηθεί για τη δημιουργία μη συναινετική οικεία εικόνα.
Πιο πρόσφατα, η έννοια των «deepfakes» έπεσε στο προσκήνιο όταν η πορνογραφία, Εικόνες της Taylor Swift που δημιουργήθηκαν από AI εξαπλωθεί στα μέσα κοινωνικής δικτύωσης, υπογραμμίζοντας τις επιζήμιες δυνατότητες που δημιουργεί η κύρια τεχνολογία τεχνητής νοημοσύνης.
Πρόεδρος Τζο Μπάιντεν προέτρεψε το Κογκρέσο κατά τη διάρκεια της ομιλίας του για την κατάσταση της Ένωσης το 2024 για την ψήφιση νομοθεσίας για τη ρύθμιση της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της απαγόρευσης της «κλοπής φωνής AI και πολλά άλλα». Είπε ότι οι νομοθέτες πρέπει να «εκμεταλλευτούν την υπόσχεση της τεχνητής νοημοσύνης και να μας προστατεύσουν από τον κίνδυνο της», προειδοποιώντας για τους κινδύνους της τεχνολογίας για τους Αμερικανούς, εάν αφεθεί ανεξέλεγκτος.
Η δήλωσή του ακολούθησε μια πρόσφατη ψεύτικη εκστρατεία ρομποτικής κλήσης που μιμήθηκε τη φωνή του και στόχευσε χιλιάδες ψηφοφόρους στο Νιου Χάμσαϊρ. περιέγραψαν οι αρχές ως μια απόπειρα παρέμβασης στις εκλογές με τη δυνατότητα AI. Ακόμη και όταν οι ειδικοί της παραπληροφόρησης προειδοποιούν για τις απειλές της τεχνητής νοημοσύνης για τις δημοσκοπήσεις και τον δημόσιο διάλογο, λίγοι αναμένουν από το Κογκρέσο να εγκρίνει νομοθεσία χαλιναγωγώντας τον κλάδο της τεχνητής νοημοσύνης κατά τη διάρκεια μιας διχαστικής εκλογικής χρονιάς.
Αυτό δεν εμποδίζει τις μεγάλες εταιρείες τεχνολογίας και τις εταιρείες τεχνητής νοημοσύνης, οι οποίες συνεχίζουν να προσελκύουν καταναλωτές και επιχειρήσεις σε νέα χαρακτηριστικά και δυνατότητες.
Πιο πρόσφατα, ο δημιουργός του ChatGPT OpenAI παρουσίασε ένα νέο μοντέλο AI που ονομάζεται Σόρα, το οποίο ισχυρίζεται ότι μπορεί να δημιουργήσει «ρεαλιστικά» και «ευφάνταστα» βίντεο 60 δευτερολέπτων από γρήγορες προτροπές κειμένου. Η Microsoft πρόσθεσε τον βοηθό τεχνητής νοημοσύνης της, το Copilot, που λειτουργεί με την τεχνολογία που βασίζεται στο ChatGPT, στη σουίτα προϊόντων της, συμπεριλαμβανομένων των Word, PowerPoint, Teams και Outlook, λογισμικό που χρησιμοποιούν πολλές επιχειρήσεις παγκοσμίως. Και η Google παρουσίασε το Gemini, ένα chatbot AI που έχει αρχίσει να αντικαθιστά τη λειτουργία Google Assistant σε ορισμένες συσκευές Android.
Ανήσυχοι ειδικοί
Οι ερευνητές τεχνητής νοημοσύνης, οι καθηγητές και οι νομικοί εμπειρογνώμονες ανησυχούν για τη μαζική υιοθέτηση της τεχνητής νοημοσύνης προτού οι ρυθμιστικές αρχές έχουν την ικανότητα ή την προθυμία να τη χαλιναγωγήσουν. Εκατοντάδες από αυτούς τους ειδικούς υπέγραψε επιστολή αυτή την εβδομάδα ζητά από τις εταιρείες τεχνητής νοημοσύνης να κάνουν αλλαγές πολιτικής και να συμφωνήσουν να συμμορφωθούν με ανεξάρτητες αξιολογήσεις για λόγους ασφαλείας και λογοδοσίας.
«Οι εταιρείες παραγωγής τεχνητής νοημοσύνης θα πρέπει να αποφεύγουν να επαναλαμβάνουν τα λάθη των πλατφορμών μέσων κοινωνικής δικτύωσης, πολλές από τις οποίες έχουν ουσιαστικά απαγορεύσει τύπους έρευνας που αποσκοπούν στο να τις καταστήσουν υπόλογες, με απειλή νομικής δράσης, γράμματα παύσης και παραίτησηςή άλλες μεθόδους επιβολής ανατριχιαστικές επιπτώσεις στην έρευνα», ανέφερε η επιστολή.
Πρόσθεσε ότι ορισμένες εταιρείες παραγωγής τεχνητής νοημοσύνης ανέστειλαν λογαριασμούς ερευνητών και άλλαξαν τους όρους παροχής υπηρεσιών για να αποτρέψουν ορισμένους τύπους αξιολόγησης, σημειώνοντας ότι «η αποδυνάμωση ανεξάρτητων ερευνητών δεν είναι προς το συμφέρον των εταιρειών τεχνητής νοημοσύνης».
Η επιστολή ήρθε λιγότερο από ένα χρόνο αφότου μερικά από τα μεγαλύτερα ονόματα της τεχνολογίας, συμπεριλαμβανομένου του Έλον Μασκ, ζήτησαν από τα εργαστήρια τεχνητής νοημοσύνης να σταματήσουν την εκπαίδευση των πιο ισχυρών συστημάτων τεχνητής νοημοσύνης για τουλάχιστον έξι μήνες, αναφέροντας «βαθούς κινδύνους για την κοινωνία και την ανθρωπότητα. ” (Η παύση δεν έγινε).
«Το πιο ανησυχητικό πράγμα που βλέπω γύρω από την τεχνητή νοημοσύνη είναι το συνεχές χάσμα μεταξύ υπόσχεσης και πρακτικής», είπε στο CNN ο Suresh Venkatasubramanian, επιστήμονας υπολογιστών και καθηγητής στο Πανεπιστήμιο Brown. «Οι εταιρείες συνεχίζουν να υπόσχονται να παραδώσουν το φεγγάρι όταν πρόκειται για τεχνητή νοημοσύνη και εξακολουθούν να παρέχουν μουχλιασμένο πράσινο τυρί».
Ο Venkatasubramanian, ο οποίος διορίστηκε στο Γραφείο Επιστήμης και Τεχνολογικής Πολιτικής του Λευκού Οίκου το 2021 για να συμβάλει στην παροχή συμβουλών σχετικά με την πολιτική τεχνητής νοημοσύνης, είναι μεταξύ των ειδικών που υπέγραψαν την τελευταία επιστολή.
«Η πρόσβαση σε μεγάλα συστήματα παραγωγής τεχνητής νοημοσύνης σε ευρεία χρήση ελέγχεται από λίγες εταιρείες», είπε ο Venkatasubramanian, σημειώνοντας ότι αυτά τα συστήματα κάνουν εύκολα λάθη και μπορούν να παράγουν επιζήμιο περιεχόμενο. «Χωρίς τη δυνατότητα ανεξάρτητης αξιολόγησης της τεχνητής νοημοσύνης και με το φόβο των νομικών απειλών, θα συνεχίσει να είναι πολύ δύσκολο για τους ερευνητές να κάνουν τη σημαντική δουλειά της αξιολόγησης της ασφάλειας, της ασφάλειας και της αξιοπιστίας των παραγωγικών συστημάτων τεχνητής νοημοσύνης, έτσι ώστε οι υπεύθυνοι χάραξης πολιτικής να είναι καλά ενημερωμένοι να αναλάβουν δράση».
Είπε ότι προσβλέπει στους υπεύθυνους χάραξης πολιτικής και στο έργο που επιτελείται από το Γραφείο Διαχείρισης και Προϋπολογισμού του Λευκού Οίκου, το οποίο επιβλέπει το όραμα του Προέδρου Μπάιντεν σε όλη την εκτελεστική εξουσία, για να αποσαφηνίσει και να θέσει «κανόνες του δρόμου».
Ο Arvind Narayanan, καθηγητής επιστήμης υπολογιστών στο Πρίνστον, ο οποίος υπέγραψε επίσης την επιστολή, συμφώνησε, δηλώνοντας στο CNN ότι ανησυχεί ιδιαίτερα για τον ρυθμό με τον οποίο επιταχύνεται η τεχνητή νοημοσύνη. ταχύτητα πολύ μεγαλύτερη από την ικανότητά μας να προσαρμοστούμε σε αυτό.
«Οι εταιρείες τεχνολογίας έχουν πλουτίσει από ένα επιχειρηματικό μοντέλο όπου αποκομίζουν κέρδη από τα οφέλη των νέων τεχνολογιών, ενώ το κόστος αυτών των τεχνολογιών βαρύνει την κοινωνία», δήλωσε ο Narayanan, αναγνωρίζοντας ότι αυτό συνέβαινε πολύ πριν από τη δημιουργία τεχνητής νοημοσύνης.
«Χρειάζονται προστατευτικά κιγκλιδώματα για συγκεκριμένες βλάβες, αλλά δεν θα διορθώσουν το υποκείμενο επιχειρηματικό μοντέλο», πρόσθεσε.
Πιστεύει ότι μπορεί να χρειαστούν και πιο τολμηρές μεταρρυθμίσεις, όπως η φορολόγηση των εταιρειών τεχνητής νοημοσύνης για τη χρηματοδότηση δικτύων κοινωνικής ασφάλειας.
Προς το παρόν, οι σημερινοί χρήστες τεχνητής νοημοσύνης πρέπει να κατανοήσουν τους περιορισμούς και τις προκλήσεις της χρήσης προϊόντων που εξακολουθούν να είναι αρκετά μακριά από εκεί που πρέπει.
Ρωτώντας το AI για το AI
Όταν το CNN ρώτησε το ChatGPT εάν (και άλλα εργαλεία παραγωγής τεχνητής νοημοσύνης) είναι έτοιμα για μαζική υιοθέτηση, απάντησε: «Ναι». Αλλά πρόσθεσε μια προειδοποίηση: «Οι συνεχείς προσπάθειες για την αντιμετώπιση ηθικών, κοινωνικών και ρυθμιστικών προκλήσεων είναι κρίσιμες για την υπεύθυνη και επωφελή μαζική υιοθέτηση».
Το εργαλείο Gemini AI της Google – που προηγουμένως ονομαζόταν Bard – απάντησε με παρόμοιο τρόπο, αλλά με λίγο περισσότερη προσοχή: «Το Generative AI περνάει λίγο, αλλά υπάρχουν ανάμεικτα μηνύματα σχετικά με τη μαζική υιοθέτηση».
«Παρά την ευρεία χρήση, οι μελέτες δεν έχουν δείξει ακόμη σημαντική αύξηση της παραγωγικότητας», έγραψε ο Gemini. «Οι εργαζόμενοι μπορεί να χρειαστούν περισσότερη εκπαίδευση για να χρησιμοποιήσουν πλήρως τη γενετική τεχνητή νοημοσύνη».
Ο Gemini έγνεψε επίσης σε ηθικά ζητήματα: «Η μεροληψία στα δεδομένα εκπαίδευσης μπορεί να οδηγήσει σε προκατειλημμένες εξόδους τεχνητής νοημοσύνης», έγραψε. “[And] υπάρχουν ανησυχίες σχετικά με την υπεύθυνη χρήση και τη λογοδοσία».
Ο Brian Fung του CNN συνέβαλε σε αυτήν την αναφορά
The-CNN-Wire
™ & © 2024 Cable News Network, Inc., μια εταιρεία Discovery της Warner Bros. Ολα τα δικαιώματα διατηρούνται.