Η Liz Reid, η επικεφαλής της Αναζήτησης Google, παραδέχτηκε ότι η μηχανή αναζήτησης της εταιρείας έχει επιστρέψει κάποια “περίεργα, ανακριβή ή μη χρήσιμα Επισκοπήσεις AI“μετά από αυτούς κυκλοφόρησε σε όλους στις ΗΠΑ. Το στέλεχος δημοσίευσε μια εξήγηση για τις πιο περίεργες απαντήσεις της Google που δημιουργούνται από την τεχνητή νοημοσύνη στο α ανάρτησηόπου ανακοίνωσε επίσης ότι η εταιρεία έχει εφαρμόσει δικλείδες ασφαλείας που θα βοηθήσουν τη νέα λειτουργία να επιστρέψει πιο ακριβή και λιγότερο αξιόπιστα αποτελέσματα για meme.
Ο Reid υπερασπίστηκε την Google και επεσήμανε ότι ορισμένες από τις πιο κατάφωρες απαντήσεις της Επισκόπησης AI, όπως οι ισχυρισμοί ότι είναι ασφαλές να αφήνεις σκύλους στα αυτοκίνητα, είναι ψεύτικες. Το viral στιγμιότυπο οθόνης που δείχνει την απάντηση στο “Πόσα πέτρες πρέπει να φάω;” είναι αληθινό, αλλά είπε ότι η Google βρήκε μια απάντηση επειδή ένας ιστότοπος δημοσίευσε ένα σατιρικό περιεχόμενο που ασχολείται με το θέμα. «Πριν αυτά τα στιγμιότυπα οθόνης γίνουν viral, ουσιαστικά κανείς δεν έκανε αυτή την ερώτηση στην Google», εξήγησε, έτσι η τεχνητή νοημοσύνη της εταιρείας συνδέθηκε με αυτόν τον ιστότοπο.
Ο Αντιπρόεδρος της Google επιβεβαίωσε επίσης ότι η Επισκόπηση AI είπε στους ανθρώπους να χρησιμοποιούν κόλλα για να κολλήσουν το τυρί στην πίτσα με βάση το περιεχόμενο που ελήφθη από ένα φόρουμ. Είπε ότι τα φόρουμ συνήθως παρέχουν “αυθεντικές πληροφορίες από πρώτο χέρι”, αλλά θα μπορούσαν επίσης να οδηγήσουν σε “λιγότερο από χρήσιμες συμβουλές”. Το στέλεχος δεν ανέφερε τις άλλες ιογενείς απαντήσεις της Επισκόπησης AI, αλλά ως Η Washington Post Σύμφωνα με αναφορές, η τεχνολογία είπε επίσης στους χρήστες ότι ο Μπαράκ Ομπάμα ήταν μουσουλμάνος και ότι οι άνθρωποι πρέπει να πίνουν πολλά ούρα για να τους βοηθήσουν να περάσουν μια πέτρα στα νεφρά.
Ο Reid είπε ότι η εταιρεία δοκίμασε τη λειτουργία εκτενώς πριν από την κυκλοφορία, αλλά “δεν υπάρχει τίποτα σαν να υπάρχουν εκατομμύρια άνθρωποι που χρησιμοποιούν τη δυνατότητα με πολλές νέες αναζητήσεις”. Η Google ήταν προφανώς σε θέση να προσδιορίσει μοτίβα στα οποία η τεχνολογία AI της δεν έκανε τα πράγματα σωστά, εξετάζοντας παραδείγματα των απαντήσεών της τις τελευταίες δύο εβδομάδες. Στη συνέχεια, έχει θέσει σε εφαρμογή προστασίες βάσει των παρατηρήσεών της, ξεκινώντας από την προσαρμογή της τεχνητής νοημοσύνης της για να μπορεί να ανιχνεύει καλύτερα περιεχόμενο χιούμορ και σάτιρας. Έχει επίσης ενημερώσει τα συστήματά της για να περιορίσει την προσθήκη απαντήσεων που δημιουργούνται από τους χρήστες στις Επισκοπήσεις, όπως αναρτήσεις μέσων κοινωνικής δικτύωσης και φόρουμ, οι οποίες θα μπορούσαν να δώσουν στους ανθρώπους παραπλανητικές ή ακόμη και επιβλαβείς συμβουλές. Επιπλέον, έχει επίσης “προσθέσει περιορισμούς ενεργοποίησης για ερωτήματα όπου οι Επισκοπήσεις AI δεν αποδείχθηκαν εξίσου χρήσιμες” και σταμάτησε να εμφανίζει απαντήσεις που δημιουργήθηκαν από AI για ορισμένα θέματα υγείας.