«Το τρέξιμο με ψαλίδι είναι μια άσκηση καρδιο που μπορεί να αυξήσει τον καρδιακό σου ρυθμό και να απαιτεί συγκέντρωση και εστίαση», λέει η νέα της Google Λειτουργία αναζήτησης AI. «Μερικοί λένε ότι μπορεί επίσης να βελτιώσει τους πόρους σας και να σας δώσει δύναμη».
Η δυνατότητα AI της Google άντλησε αυτήν την απάντηση από έναν ιστότοπο που ονομάζεται Κωμωδία Little Old Lady, που όπως ξεκαθαρίζει το όνομά του είναι ένα κωμικό blog. Αλλά η γκάφα είναι τόσο γελοία που κυκλοφορεί στα μέσα κοινωνικής δικτύωσης, μαζί με άλλες εμφανώς λανθασμένες επισκοπήσεις τεχνητής νοημοσύνης στο Google. Ουσιαστικά, οι καθημερινοί χρήστες συνδυάζουν πλέον αυτά τα προϊόντα στα μέσα κοινωνικής δικτύωσης.
Στον τομέα της κυβερνοασφάλειας, ορισμένες εταιρείες θα προσλάβουν «κόκκινες ομάδες» – ηθικούς χάκερ – που προσπαθούν να παραβιάσουν τα προϊόντα τους σαν να είναι κακοί ηθοποιοί. Εάν μια κόκκινη ομάδα βρει μια ευπάθεια, τότε η εταιρεία μπορεί να τη διορθώσει πριν αποσταλεί το προϊόν. Η Google σίγουρα πραγματοποίησε μια μορφή κόκκινης ομαδοποίησης πριν κυκλοφορήσει ένα προϊόν τεχνητής νοημοσύνης στην Αναζήτηση Google, το οποίο είναι εκτιμάται για την επεξεργασία τρισεκατομμυρίων ερωτημάτων την ημέρα.
Είναι εκπληκτικό, λοιπόν, όταν μια εταιρεία με υψηλούς πόρους όπως η Google εξακολουθεί να αποστέλλει προϊόντα με προφανή ελαττώματα. Αυτός είναι ο λόγος που έχει γίνει πλέον ένα μιμίδιο για κλόουν για τις αποτυχίες των προϊόντων τεχνητής νοημοσύνης, ειδικά σε μια εποχή που η τεχνητή νοημοσύνη γίνεται όλο και πιο πανταχού παρούσα. Το έχουμε δει με κακή ορθογραφία ChatGPTαδυναμία κατανόησης των γεννητριών βίντεο πώς τρώνε οι άνθρωποι τα μακαρόνιακαι Grok AI περιλήψεις ειδήσεων στο X που, όπως η Google, δεν καταλαβαίνουν τη σάτιρα. Αλλά αυτά τα μιμίδια θα μπορούσαν στην πραγματικότητα να χρησιμεύσουν ως χρήσιμα σχόλια για εταιρείες που αναπτύσσουν και δοκιμάζουν την τεχνητή νοημοσύνη.
Παρά τον υψηλού προφίλ χαρακτήρα αυτών των ελαττωμάτων, οι εταιρείες τεχνολογίας συχνά υποβαθμίζουν τον αντίκτυπό τους.
«Τα παραδείγματα που έχουμε δει είναι γενικά πολύ ασυνήθιστα ερωτήματα και δεν αντιπροσωπεύουν τις εμπειρίες των περισσότερων ανθρώπων», είπε η Google στο TechCrunch σε μια δήλωση που εστάλη μέσω email. «Πραγματοποιήσαμε εκτεταμένες δοκιμές πριν ξεκινήσουμε αυτή τη νέα εμπειρία και θα χρησιμοποιήσουμε αυτά τα μεμονωμένα παραδείγματα καθώς συνεχίζουμε να βελτιώνουμε τα συστήματά μας συνολικά».
Δεν βλέπουν όλοι οι χρήστες τα ίδια αποτελέσματα τεχνητής νοημοσύνης και μέχρι να εμφανιστεί μια ιδιαίτερα κακή πρόταση τεχνητής νοημοσύνης, το πρόβλημα συχνά έχει ήδη διορθωθεί. Σε μια πιο πρόσφατη περίπτωση που έγινε viral, η Google πρότεινε ότι εάν φτιάχνετε πίτσα αλλά το τυρί δεν κολλάει, θα μπορούσατε να προσθέσετε περίπου το ένα όγδοο του φλιτζανιού κόλλα στη σάλτσα για να «της δώσετε περισσότερη κολλώδη». Όπως αποδείχθηκε, η AI αντλεί αυτήν την απάντηση ένα εντεκάχρονο σχόλιο του Reddit από έναν χρήστη με το όνομα «f––smith».
Πέρα από μια απίστευτη γκάφα, σηματοδοτεί επίσης ότι οι συμφωνίες περιεχομένου AI μπορεί να είναι υπερτιμημένες. Η Google έχει ένα Συμβόλαιο 60 εκατομμυρίων δολαρίων με το Reddit για την άδεια χρήσης του περιεχομένου του για εκπαίδευση μοντέλων AI, για παράδειγμα. Η Reddit υπέγραψε παρόμοια συμφωνία με OpenAI την περασμένη εβδομάδα, και οι ιδιότητες Automattic WordPress.org και Tumblr είναι φημολογείται να είναι σε συνομιλίες για την πώληση δεδομένων στο Midjourney και το OpenAI.
Προς τιμήν της Google, πολλά από τα λάθη που κυκλοφορούν στα μέσα κοινωνικής δικτύωσης προέρχονται από μη συμβατικές αναζητήσεις που έχουν σχεδιαστεί για να σκοντάψουν την τεχνητή νοημοσύνη. Τουλάχιστον ελπίζω να μην ψάχνει κανείς σοβαρά για «τα οφέλη για την υγεία του τρεξίματος με ψαλίδι». Αλλά μερικές από αυτές τις βίδες είναι πιο σοβαρές. Η δημοσιογράφος της επιστήμης Έριν Ρος αναρτήθηκε στο Χ ότι η Google φτύνει εσφαλμένες πληροφορίες σχετικά με το τι πρέπει να κάνετε εάν δαγκώσετε κροταλία.
Η ανάρτηση του Ross, η οποία συγκέντρωσε πάνω από 13.000 likes, δείχνει ότι η τεχνητή νοημοσύνη συνέστησε την εφαρμογή ενός τουρνικέ στην πληγή, το κόψιμο της πληγής και την απορρόφηση του δηλητηρίου. Σύμφωνα με την Δασική Υπηρεσία των ΗΠΑαυτά είναι όλα τα πράγματα που πρέπει δεν κάνε, αν σε δαγκώσουν. Εν τω μεταξύ στο Bluesky, ο συγγραφέας T Kingfisher ενίσχυσε μια ανάρτηση που δείχνει τους Gemini της Google λανθασμένη αναγνώριση ενός δηλητηριώδους μανιταριού ως ένα κοινό μανιτάρι με λευκό κουμπί – έχουν στιγμιότυπα οθόνης της ανάρτησης εξάπλωση σε άλλες πλατφόρμες ως προειδοποιητική ιστορία.
Όταν μια κακή απόκριση AI γίνεται viral, η τεχνητή νοημοσύνη θα μπορούσε να μπερδευτεί περισσότερο από το νέο περιεχόμενο γύρω από το θέμα που προκύπτει ως αποτέλεσμα. Την Τετάρτη, ο δημοσιογράφος των New York Times Aric Toler δημοσίευσε μια ανάρτηση ένα στιγμιότυπο οθόνης στο X που δείχνει μια ερώτηση που ρωτά αν ένας σκύλος έχει παίξει ποτέ στο NHL. Η απάντηση του AI ήταν ναι – για κάποιο λόγο, η AI αποκάλεσε σκύλο τον παίκτη των Calgary Flames, Martin Pospisil. Τώρα, όταν κάνετε το ίδιο ερώτημα, το AI ανασύρει ένα άρθρο από το Daily Dot για το πώς η τεχνητή νοημοσύνη της Google συνεχίζει να πιστεύει ότι τα σκυλιά αθλούνται. Η τεχνητή νοημοσύνη τροφοδοτείται με τα δικά της λάθη, δηλητηριάζοντάς την περαιτέρω.
Αυτό είναι το εγγενές πρόβλημα της εκπαίδευσης αυτών των μοντέλων τεχνητής νοημοσύνης μεγάλης κλίμακας στο διαδίκτυο: μερικές φορές, οι άνθρωποι στο Διαδίκτυο λένε ψέματα. Αλλά όπως ακριβώς υπάρχει κανένας κανόνας κατά του σκύλου να παίζει μπάσκετδυστυχώς δεν υπάρχει κανένας κανόνας ενάντια στις μεγάλες εταιρείες τεχνολογίας που αποστέλλουν κακά προϊόντα τεχνητής νοημοσύνης.
Όπως λέει και η παροιμία: σκουπίδια μέσα, σκουπίδια έξω.