Η σειρά τεχνητής νοημοσύνης της Scarlett Johansson έχει τον απόηχο των παλιών κακών ημερών της Silicon Valley
- Συγγραφέας, Ζόι Κλάινμαν
- Ρόλος, Επεξεργαστής τεχνολογίας
- Κελάδημα,
Το «Move fast and break things» είναι ένα σύνθημα που συνεχίζει να στοιχειώνει τον τεχνολογικό τομέα, περίπου 20 χρόνια αφότου επινοήθηκε από έναν νεαρό Mark Zuckerberg.
Αυτές οι πέντε λέξεις άρχισαν να συμβολίζουν τη Silicon Valley στη χειρότερη περίπτωση της – ένας συνδυασμός αδίστακτης φιλοδοξίας και μιας μάλλον συναρπαστικής αλαζονείας – καινοτομίας με γνώμονα το κέρδος χωρίς φόβο για συνέπειες.
Θυμήθηκα αυτή τη φράση αυτή την εβδομάδα όταν η ηθοποιός Scarlett Johansson συγκρούστηκε με το OpenAI. Η κ. Johansson ισχυρίστηκε ότι τόσο η ίδια όσο και ο ατζέντης της αρνήθηκαν να είναι η φωνή του νέου προϊόντος της για το ChatGPT – και στη συνέχεια, όταν αποκαλύφθηκε, ακουγόταν ακριβώς όπως εκείνη. Το OpenAI αρνείται ότι ήταν σκόπιμη μίμηση.
Είναι μια κλασική απεικόνιση του τι ακριβώς ανησυχούν τόσο οι δημιουργικές βιομηχανίες – να μιμούνται και τελικά να αντικαθίστανται από την τεχνητή νοημοσύνη.
Την περασμένη εβδομάδα η Sony Music, ο μεγαλύτερος μουσικός εκδότης στον κόσμο, έγραψε προς την Google, τη Microsoft και την OpenAI ζητώντας να μάθει εάν κάποιο από τα τραγούδια των καλλιτεχνών της είχε χρησιμοποιηθεί για την ανάπτυξη συστημάτων τεχνητής νοημοσύνης, λέγοντας ότι δεν είχαν άδεια να το κάνουν.
Υπάρχουν απόηχοι σε όλα αυτά των φαινομένων γίγαντων της Silicon Valley της παλιάς εποχής. Αναζητώντας συγχώρεση αντί για άδεια ως ανεπίσημο επιχειρηματικό σχέδιο.
Αλλά οι εταιρείες τεχνολογίας του 2024 είναι εξαιρετικά πρόθυμες να αποστασιοποιηθούν από αυτή τη φήμη.
Το OpenAI δεν διαμορφώθηκε από αυτό το καλούπι. Αρχικά δημιουργήθηκε ως ένας μη κερδοσκοπικός οργανισμός που θα επένδυε τυχόν επιπλέον κέρδη που επένδυσαν πίσω στην επιχείρηση.
Το 2019, όταν σχημάτισε ένα σκέλος προσανατολισμένο στο κέρδος, είπαν ότι η κερδοσκοπική πλευρά θα ηγείται της μη κερδοσκοπικής πλευράς και θα επιβληθεί ανώτατο όριο στις αποδόσεις που θα μπορούσαν να κερδίσουν οι επενδυτές.
Δεν ήταν όλοι ευχαριστημένοι με αυτή τη μετατόπιση – λέγεται ότι ήταν ένας βασικός λόγος πίσω από την απόφαση του αρχικού συνιδρυτή Elon Musk να αποχωρήσει.
Όταν ο Διευθύνων Σύμβουλος του OpenAI Sam Altman απολύθηκε ξαφνικά από το δικό του διοικητικό συμβούλιο στα τέλη του περασμένου έτους, μια από τις θεωρίες ήταν ότι ήθελε να απομακρυνθεί περισσότερο από την αρχική αποστολή. Δεν το μάθαμε ποτέ σίγουρα.
Αλλά ακόμα κι αν το OpenAI έχει γίνει πιο κερδοφόρο, πρέπει να αντιμετωπίσει τις ευθύνες του.
Στον κόσμο της χάραξης πολιτικής, σχεδόν όλοι συμφωνούν ότι χρειάζονται σαφή όρια για να παραμείνουν εταιρείες όπως το OpenAI στη σειρά πριν από την καταστροφή.
Μέχρι στιγμής, οι γίγαντες της AI έχουν παίξει σε μεγάλο βαθμό μπάλα στα χαρτιά. Στην πρώτη σύνοδο κορυφής στον κόσμο για την ασφάλεια της τεχνητής νοημοσύνης πριν από έξι μήνες, ένα σωρό αφεντικά τεχνολογίας υπέγραψαν εθελοντική δέσμευση για τη δημιουργία υπεύθυνων, ασφαλών προϊόντων που θα μεγιστοποιήσουν τα οφέλη της τεχνολογίας AI και θα ελαχιστοποιήσουν τους κινδύνους της.
Αυτοί οι κίνδυνοι, που αρχικά εντοπίστηκαν από τους διοργανωτές της εκδήλωσης, ήταν το σωστό υλικό των εφιαλτών. Όταν ρώτησα τότε για τις πιο προσγειωμένες απειλές για τους ανθρώπους που δημιουργούνται από εργαλεία τεχνητής νοημοσύνης που τους κάνουν διακρίσεις ή τους αντικαθιστούν στις δουλειές τους, μου είπαν ότι αυτή η συγκέντρωση ήταν αφιερωμένη στη συζήτηση μόνο των απολύτως χειρότερων σεναρίων. – αυτό ήταν το Terminator, το Doomsday, το AI-goes-rogue-and-destroys-humanity area.
Έξι μήνες αργότερα, όταν συνήλθε εκ νέου η σύνοδος κορυφής, η λέξη «ασφάλεια» είχε αφαιρεθεί εντελώς από τον τίτλο του συνεδρίου.
Την περασμένη εβδομάδα, ένα σχέδιο έκθεσης της κυβέρνησης του Ηνωμένου Βασιλείου από μια ομάδα 30 ανεξάρτητων εμπειρογνωμόνων κατέληξε στο συμπέρασμα ότι υπήρχε «Δεν υπάρχουν ακόμη στοιχεία» ότι η τεχνητή νοημοσύνη θα μπορούσε να δημιουργήσει ένα βιολογικό όπλο ή να πραγματοποιήσει μια εξελιγμένη κυβερνοεπίθεση. Η αληθοφάνεια ότι οι άνθρωποι έχασαν τον έλεγχο της τεχνητής νοημοσύνης ήταν «πολύ αμφιλεγόμενη», είπε.
Μερικοί άνθρωποι στον τομέα λένε εδώ και αρκετό καιρό ότι η πιο άμεση απειλή από τα εργαλεία τεχνητής νοημοσύνης ήταν ότι θα αντικαταστήσουν θέσεις εργασίας ή ότι δεν μπορούν να αναγνωρίσουν τα χρώματα του δέρματος. Ο ειδικός σε θέματα ηθικής τεχνητής νοημοσύνης Dr Rumman Chowdhury λέει ότι αυτά είναι «τα πραγματικά προβλήματα».
Το Ινστιτούτο Ασφάλειας Τεχνητής Νοημοσύνης αρνήθηκε να πει εάν είχε ελέγξει την ασφάλεια κάποιο από τα νέα προϊόντα τεχνητής νοημοσύνης που κυκλοφόρησαν τις τελευταίες ημέρες. ιδιαίτερα το GPT-4o του OpenAI και το Project Astra της Google, που είναι και τα δύο από τα πιο ισχυρά και προηγμένα συστήματα παραγωγής τεχνητής νοημοσύνης που είναι διαθέσιμα στο κοινό που έχω δει μέχρι στιγμής. Εν τω μεταξύ, η Microsoft παρουσίασε έναν νέο φορητό υπολογιστή που περιέχει υλικό τεχνητής νοημοσύνης – η αρχή των εργαλείων τεχνητής νοημοσύνης να είναι φυσικά ενσωματωμένα στις συσκευές μας.
Η ανεξάρτητη έκθεση αναφέρει επίσης ότι δεν υπάρχει επί του παρόντος αξιόπιστος τρόπος να κατανοήσουμε ακριβώς γιατί τα εργαλεία τεχνητής νοημοσύνης παράγουν το αποτέλεσμα που παράγουν –ακόμα και μεταξύ των προγραμματιστών– και ότι η καθιερωμένη πρακτική δοκιμών ασφαλείας του Red Teaming, στην οποία οι αξιολογητές προσπαθούν εσκεμμένα να αποκτήσουν ένα εργαλείο τεχνητής νοημοσύνης να συμπεριφέρεται άσχημα, δεν έχει οδηγίες βέλτιστης πρακτικής.
Στην επόμενη σύνοδο κορυφής που διεξήχθη αυτή την εβδομάδα, που διοργανώθηκε από κοινού από το Ηνωμένο Βασίλειο και τη Νότια Κορέα στη Σεούλ, οι εταιρείες έχουν δεσμευτεί να βάλουν στο ράφι ένα προϊόν εάν δεν πληροί ορισμένα όρια ασφαλείας – αλλά αυτά δεν θα καθοριστούν μέχρι την επόμενη συγκέντρωση στην 2025.
Κάποιοι φοβούνται ότι όλες αυτές οι δεσμεύσεις και δεσμεύσεις δεν πάνε αρκετά μακριά.
«Οι εθελοντικές συμφωνίες είναι ουσιαστικά απλώς ένα μέσο για τις εταιρείες να σημαδεύουν τις δικές τους εργασίες για το σπίτι», λέει ο Andrew Straight, αναπληρωτής διευθυντής του Ινστιτούτου Ada Lovelace, ενός ανεξάρτητου ερευνητικού οργανισμού. «Ουσιαστικά δεν αντικαθιστά νομικά δεσμευτικούς και εκτελεστούς κανόνες που απαιτούνται για την παροχή κινήτρων για την υπεύθυνη ανάπτυξη αυτών των τεχνολογιών».
Το OpenAI μόλις δημοσίευσε τη δική του διαδικασία ασφάλειας 10 σημείων, στην οποία λέει ότι έχει δεσμευτεί – αλλά ένας από τους ανώτερους μηχανικούς του με επίκεντρο την ασφάλεια παραιτήθηκε πρόσφατα, γράφοντας στο X ότι το τμήμα του «έπλεε ενάντια στον άνεμο» εσωτερικά.
«Τα τελευταία χρόνια, η κουλτούρα και οι διαδικασίες ασφάλειας έχουν πάρει πίσω τα λαμπερά προϊόντα», δημοσίευσε ο Jan Leike.
Υπάρχουν, φυσικά, άλλες ομάδες στο OpenAI που συνεχίζουν να επικεντρώνονται στην ασφάλεια και την ασφάλεια.
Επί του παρόντος, ωστόσο, δεν υπάρχει επίσημη, ανεξάρτητη εποπτεία για το τι κάνει στην πραγματικότητα κάποιος από αυτούς.
«Δεν έχουμε καμία εγγύηση ότι αυτές οι εταιρείες τηρούν τις δεσμεύσεις τους», λέει η καθηγήτρια Dame Wendy Hall, ένας από τους κορυφαίους επιστήμονες υπολογιστών στο Ηνωμένο Βασίλειο.
«Πώς θα τους ζητήσουμε να λογοδοτήσουν για αυτά που λένε, όπως κάνουμε με εταιρείες φαρμάκων ή σε άλλους τομείς όπου υπάρχει υψηλός κίνδυνος;»
Μπορεί επίσης να διαπιστώσουμε ότι αυτοί οι ισχυροί ηγέτες της τεχνολογίας γίνονται λιγότερο επιδεκτικοί όταν η ώθηση έρθει σε ώθηση και οι εθελοντικές συμφωνίες γίνουν λίγο πιο εκτελεστές.
Όταν η κυβέρνηση του Ηνωμένου Βασιλείου είπε ότι ήθελε την εξουσία να διακόψει την ανάπτυξη χαρακτηριστικών ασφαλείας από μεγάλες εταιρείες τεχνολογίας, εάν υπήρχε η πιθανότητα να θέσουν σε κίνδυνο την εθνική ασφάλεια, η Apple απείλησε να αφαιρέσει υπηρεσίες από τη Βρετανία, περιγράφοντάς το ως «Πρωτοφανής υπέρβαση» από νομοθέτες.
Η νομοθεσία πέρασε και μέχρι στιγμής, η Apple είναι ακόμα εδώ.
Ο νόμος για την τεχνητή νοημοσύνη της Ευρωπαϊκής Ένωσης μόλις υπογράφηκε σε νόμο και είναι τόσο η πρώτη όσο και η πιο αυστηρή νομοθεσία που κυκλοφορεί. Υπάρχουν επίσης αυστηρές κυρώσεις για εταιρείες που δεν συμμορφώνονται. Αλλά δημιουργεί περισσότερη δουλειά για τους χρήστες τεχνητής νοημοσύνης από τους ίδιους τους γίγαντες της τεχνητής νοημοσύνης, λέει ο Nader Henein, αντιπρόεδρος αναλυτής της Gartner.
«Θα έλεγα ότι η πλειοψηφία [of AI developers] υπερεκτιμούν τον αντίκτυπο που θα έχει ο νόμος σε αυτούς», λέει.
Οποιεσδήποτε εταιρείες χρησιμοποιούν εργαλεία τεχνητής νοημοσύνης θα πρέπει να τα κατηγοριοποιήσουν και να τα βαθμολογήσουν με κίνδυνο – και οι εταιρείες τεχνητής νοημοσύνης που παρείχαν την τεχνητή νοημοσύνη θα πρέπει να παρέχουν αρκετές πληροφορίες για να μπορέσουν να το κάνουν αυτό, εξηγεί.
Αλλά αυτό δεν σημαίνει ότι έχουν ξεφύγει.
«Πρέπει να προχωρήσουμε προς τη νομική ρύθμιση με την πάροδο του χρόνου, αλλά δεν μπορούμε να το βιαστούμε», λέει ο καθηγητής Χολ. «Η θέσπιση αρχών παγκόσμιας διακυβέρνησης που θα προσυπογράφουν όλοι είναι πραγματικά δύσκολο».
«Πρέπει επίσης να βεβαιωθούμε ότι είναι πραγματικά παγκοσμίως και όχι μόνο ο δυτικός κόσμος και η Κίνα που προστατεύουμε».
Όσοι παρακολούθησαν τη Σύνοδο Κορυφής της AI Σεούλ λένε ότι ένιωσαν χρήσιμο. Ήταν «λιγότερο φανταχτερό» από τον Bletchley, αλλά με περισσότερη συζήτηση, είπε ένας παρευρισκόμενος. Είναι ενδιαφέρον ότι η τελική δήλωση της εκδήλωσης έχει υπογραφεί από 27 χώρες αλλά όχι από την Κίνα, αν και είχε εκπροσώπους εκεί αυτοπροσώπως.
Το κυρίαρχο ζήτημα, όπως πάντα, είναι ότι η ρύθμιση και η πολιτική κινούνται πολύ πιο αργά από την καινοτομία.
Ο καθηγητής Χολ πιστεύει ότι «τα αστέρια ευθυγραμμίζονται» σε κυβερνητικό επίπεδο. Το ερώτημα είναι αν μπορούν να πειστούν οι τεχνολογικοί γίγαντες να τους περιμένουν.
BBC InDepth είναι το νέο σπίτι στον ιστότοπο και την εφαρμογή για την καλύτερη ανάλυση και τεχνογνωσία από τους κορυφαίους δημοσιογράφους μας. Κάτω από μια ξεχωριστή νέα επωνυμία, θα σας προσφέρουμε νέες προοπτικές που αμφισβητούν τις υποθέσεις και θα σας βοηθήσουμε να κατανοήσετε έναν περίπλοκο κόσμο σε βάθος. Και θα προβάλλουμε περιεχόμενο που προκαλεί σκέψη από το BBC Sounds και το iPlayer επίσης. Ξεκινάμε από μικρά αλλά σκεφτόμαστε μεγάλα και θέλουμε να μάθουμε τι σκέφτεστε – μπορείτε να μας στείλετε τα σχόλιά σας κάνοντας κλικ στο παρακάτω κουμπί.
Το InDepth είναι το νέο σπίτι για την καλύτερη ανάλυση από όλες τις ειδήσεις του BBC. Πείτε μας τι σκέφτεστε.