Η στροφή της Google προς τη χρήση της τεχνητής νοημοσύνης για τη δημιουργία γραπτών απαντήσεων στις αναζητήσεις των χρηστών αντί της παροχής μιας λίστας συνδέσμων που ταξινομούνται αλγοριθμικά ανά συνάφεια ήταν αναπόφευκτη. Πριν Επισκόπηση AI — παρουσιάστηκε την περασμένη εβδομάδα για χρήστες των ΗΠΑ — Η Google διέθετε Πίνακες γνώσεων, αυτά τα πλαίσια πληροφοριών που εμφανίζονται στην κορυφή ορισμένων αναζητήσεων, παροτρύνοντας τους χρήστες να λαμβάνουν τις απαντήσεις τους απευθείας από την Google, αντί να κάνουν κλικ σε ένα αποτέλεσμα.
Η Επισκόπηση AI συνοψίζει τα αποτελέσματα αναζήτησης για ένα τμήμα ερωτημάτων, ακριβώς στην κορυφή της σελίδας. Τα αποτελέσματα προέρχονται από πολλές πηγές, οι οποίες αναφέρονται σε μια αναπτυσσόμενη συλλογή κάτω από τη σύνοψη. Όπως συμβαίνει με οποιαδήποτε απόκριση που δημιουργείται από την τεχνητή νοημοσύνη, αυτές οι απαντήσεις διαφέρουν ως προς την ποιότητα και την αξιοπιστία.
Η Επισκόπηση είπε στους χρήστες να αλλάξτε το υγρό φλας τους — το οποίο δεν υπάρχει — φαινομενικά επειδή έλαβε απαντήσεις αστείων από φόρουμ όπου οι χρήστες ζητούν συμβουλές αυτοκινήτου από τους συνομηλίκους τους. Σε μια δοκιμή που έτρεξα την Τετάρτη, η Google μπόρεσε να δημιουργήσει σωστά οδηγίες για να κάνετε ένα pushup, αντλώντας σε μεγάλο βαθμό από τις οδηγίες σε ένα Άρθρο των New York Times. Λιγότερο από μία εβδομάδα μετά την κυκλοφορία αυτής της λειτουργίας, η Google ανακοίνωσε ότι είναι δοκιμάζοντας τρόπους ενσωμάτωσης διαφημίσεων στις γεννητικές τους απαντήσεις.
Γράφω για το Bad Stuff στο Διαδίκτυο εδώ και χρόνια, οπότε δεν αποτελεί έκπληξη το γεγονός ότι, μόλις απέκτησα πρόσβαση στην Επισκόπηση AI, άρχισα να γκουγκλάρω ένα σωρό πράγματα που μπορεί να κάνουν το εργαλείο γενετικής αναζήτησης να αντλεί από αναξιόπιστες πηγές. Τα αποτελέσματα ήταν ανάμεικτα και φάνηκαν να βασίζονται πολύ στην ακριβή διατύπωση της ερώτησής μου.
Όταν πληκτρολογούσα ερωτήματα ζητώντας πληροφορίες για δύο διαφορετικούς ανθρώπους που συνδέονται ευρέως με αμφίβολες φυσικές «θεραπείες» για τον καρκίνο, έλαβα μια απάντηση που απλώς επαναλάμβανε τους ισχυρισμούς αυτού του ατόμου χωρίς κριτική. Για το άλλο όνομα, η μηχανή Google αρνήθηκε να δημιουργήσει γενετικές απαντήσεις.
Αποτελέσματα σε βασικά ερωτήματα πρώτων βοηθειών – όπως το πώς να καθαρίσω μια πληγή – αντλήθηκαν από αξιόπιστες πηγές για να δώσουν μια απάντηση όταν το δοκίμασα. Τα ερωτήματα σχετικά με τις «αποτοξίνες» επαναλαμβάνονταν αναπόδεικτες ισχυρισμοί και έλειπαν το σημαντικό πλαίσιο.
Ωστόσο, αντί να προσπαθήσετε να καταλάβετε πόσο αξιόπιστα είναι αυτά τα αποτελέσματα συνολικά, υπάρχει μια άλλη ερώτηση που πρέπει να κάνετε εδώ: Εάν η Επισκόπηση AI της Google κάνει κάτι λάθος, ποιος είναι υπεύθυνος εάν αυτή η απάντηση καταλήξει να βλάψει κάποιον;
Ποιος είναι υπεύθυνος για την τεχνητή νοημοσύνη;
Η απάντηση σε αυτό το ερώτημα μπορεί να μην είναι απλή, σύμφωνα με τον Samir Jain, αντιπρόεδρο πολιτικής στο Κέντρο για τη Δημοκρατία και την Τεχνολογία. Άρθρο 230 απο 1996 Communications Decency Act προστατεύει σε μεγάλο βαθμό εταιρείες όπως η Google από την ευθύνη για το περιεχόμενο τρίτων που δημοσιεύεται στις πλατφόρμες της, επειδή η Google δεν αντιμετωπίζεται ως εκδότης των πληροφοριών που φιλοξενεί.
Είναι «λιγότερο σαφές» πώς θα εφαρμοστεί ο νόμος στις απαντήσεις αναζήτησης που δημιουργούνται από AI, είπε ο Jain. Η Επισκόπηση AI κάνει τις προστασίες της Ενότητας 230 λίγο πιο βρώμικες, επειδή είναι πιο δύσκολο να πούμε εάν το περιεχόμενο δημιουργήθηκε από την Google ή απλώς εμφανίστηκε από αυτήν.
«Εάν έχετε μια επισκόπηση τεχνητής νοημοσύνης που περιέχει μια παραίσθηση, είναι λίγο δύσκολο να δείτε πώς αυτή η ψευδαίσθηση δεν θα είχε τουλάχιστον εν μέρει δημιουργηθεί ή αναπτυχθεί από την Google», είπε ο Jain. Αλλά μια ψευδαίσθηση είναι διαφορετική από την εμφάνιση κακών πληροφοριών. Εάν η Επισκόπηση τεχνητής νοημοσύνης της Google αναφέρει ένα τρίτο μέρος που το ίδιο παρέχει ανακριβείς πληροφορίες, οι ασφάλειες θα εξακολουθήσουν να ισχύουν.
Ένα σωρό άλλα σενάρια έχουν κολλήσει σε μια γκρίζα περιοχή προς το παρόν: οι απαντήσεις που δημιουργούνται από την Google αντλούνται από τρίτους, αλλά δεν τους παραθέτουν απαραίτητα απευθείας. Είναι λοιπόν αυτό το πρωτότυπο περιεχόμενο ή μοιάζει περισσότερο με τα αποσπάσματα που εμφανίζονται κάτω από τα αποτελέσματα αναζήτησης;
Ενώ τα εργαλεία δημιουργίας αναζήτησης όπως η Επισκόπηση AI αντιπροσωπεύουν νέα περιοχή όσον αφορά τις προστασίες της Ενότητας 230, οι κίνδυνοι δεν είναι υποθετικοί. Εφαρμογές που λένε ότι μπορούν χρησιμοποιήστε AI για να αναγνωρίσετε μανιτάρια για επίδοξους τροφοσυλλέκτες είναι ήδη διαθέσιμα στα καταστήματα εφαρμογών, παρά τις ενδείξεις ότι αυτά τα εργαλεία δεν είναι εξαιρετικά ακριβή. Ακόμη και στο demo της Google για τη νέα αναζήτηση βίντεο, δημιουργήθηκε ένα πραγματικό σφάλμα, όπως παρατήρησε το The Verge.
Τρώγοντας τον πηγαίο κώδικα του Διαδικτύου
Υπάρχει ένα άλλο ερώτημα εδώ πέρα από το πότε η Ενότητα 230 μπορεί ή όχι να ισχύει για απαντήσεις που δημιουργούνται από την τεχνητή νοημοσύνη: τα κίνητρα που περιέχει ή δεν περιέχει η Επισκόπηση AI για τη δημιουργία αξιόπιστων πληροφοριών εξαρχής. Η Επισκόπηση AI βασίζεται στο ότι ο Ιστός συνεχίζει να περιέχει πολλές ερευνημένες, πραγματικές πληροφορίες. Αλλά το εργαλείο φαίνεται επίσης να δυσκολεύει τους χρήστες να κάνουν κλικ σε αυτές τις πηγές.
«Η κύρια ανησυχία μας είναι για τον πιθανό αντίκτυπο στα ανθρώπινα κίνητρα», είπε σε ένα email ο Τζέικομπ Ρότζερς, συνεργάτης γενικός σύμβουλος στο Ίδρυμα Wikimedia. «Τα εργαλεία δημιουργίας τεχνητής νοημοσύνης πρέπει να περιλαμβάνουν αναγνώριση και αμοιβαιότητα για τις ανθρώπινες συνεισφορές πάνω στις οποίες βασίζονται, μέσω σαφούς και συνεπούς απόδοσης».
Το Ίδρυμα Wikimedia δεν έχει δει σημαντική πτώση στην επισκεψιμότητα στη Wikipedia ή σε άλλα έργα του Wikimedia ως άμεσο αποτέλεσμα των chatbots και των εργαλείων AI, αλλά ο Rogers είπε ότι το ίδρυμα παρακολουθούσε την κατάσταση. Η Google, στο παρελθόν, βασίστηκε στη Wikipedia για να συμπληρώσει τους Πίνακες Γνώσης της και αντλεί από τη δουλειά της για να παρέχει αναδυόμενα πλαίσια ελέγχου γεγονότων σε, για παράδειγμα, βίντεο του YouTube για αμφιλεγόμενα θέματα.
Υπάρχει μια κεντρική ένταση εδώ που αξίζει να παρακολουθήσετε καθώς αυτή η τεχνολογία γίνεται πιο διαδεδομένη. Η Google έχει ένα κίνητρο να παρουσιάζει τις απαντήσεις της που δημιουργούνται από την τεχνητή νοημοσύνη ως έγκυρες. Διαφορετικά, γιατί θα τα χρησιμοποιούσατε;
«Από την άλλη πλευρά», είπε ο Jain, «ιδιαίτερα σε ευαίσθητους τομείς όπως η υγεία, πιθανότατα θα θέλει να έχει κάποιο είδος αποποίησης ευθύνης ή τουλάχιστον κάποια προειδοποιητική γλώσσα».
Η Επισκόπηση AI της Google περιέχει μια μικρή σημείωση στο κάτω μέρος κάθε αποτελέσματος που διευκρινίζει ότι είναι ένα πειραματικό εργαλείο. Και, με βάση την αντιεπιστημονική μου έρευνα, υποθέτω ότι η Google επέλεξε τώρα να αποφύγει τη δημιουργία απαντήσεων σε ορισμένα αμφιλεγόμενα θέματα.
Η Επισκόπηση, με κάποιες τροποποιήσεις, θα δώσει απάντηση σε ερωτήσεις σχετικά με τη δική της πιθανή ευθύνη. Μετά από μερικά αδιέξοδα, ρώτησα την Google, «Είναι η Google εκδότης».
“Η Google δεν είναι εκδότης επειδή δεν δημιουργεί περιεχόμενο”, ξεκινά η απάντηση. Αντέγραψα αυτήν την πρόταση και την επικόλλησα σε μια άλλη αναζήτηση, που περιβάλλεται από εισαγωγικά. Η μηχανή αναζήτησης βρήκε 0 αποτελέσματα για την ακριβή φράση.