Για παράδειγμα, έψαξα “competing visions google openai” και είδα ένα Κομμάτι TechCrunch στην κορυφή των Ειδήσεων Google. Από κάτω υπήρχαν άρθρα από Ο Ατλαντικός και Bloomberg συγκρίνοντας τις προσεγγίσεις των ανταγωνιστικών εταιρειών στην ανάπτυξη τεχνητής νοημοσύνης. Στη συνέχεια, όμως, το τέταρτο άρθρο που εμφανίστηκε για αυτήν την αναζήτηση, που βρίσκεται ακριβώς κάτω από αυτούς τους πιο αξιόπιστους ιστότοπους, ήταν ένα άλλο κομμάτι του Syrus #Blog που αντέγραψε σε μεγάλο βαθμό το άρθρο του TechCrunch στην πρώτη θέση.
Όπως αναφέρεται από 404 Media τον Ιανουάριο, άρθρα με τεχνητή νοημοσύνη εμφανίστηκαν πολλές φορές για βασικά ερωτήματα στην αρχή του έτους στα αποτελέσματα των Ειδήσεων Google. Δύο μήνες αργότερα, η Google ανακοίνωσε σημαντικές αλλαγές στον αλγόριθμό του και νέες πολιτικές ανεπιθύμητης αλληλογραφίας, ως προσπάθεια βελτίωσης των αποτελεσμάτων αναζήτησης. Και μέχρι τα τέλη Απριλίου, η Google κοινοποίησε ότι ολοκληρώθηκαν οι σημαντικές προσαρμογές για την κατάργηση των μη χρήσιμων αποτελεσμάτων από το σύστημα κατάταξης της μηχανής αναζήτησης. «Από τις 19 Απριλίου, έχουμε ολοκληρώσει την κυκλοφορία αυτών των αλλαγών. Τώρα θα βλέπετε 45 τοις εκατό λιγότερο χαμηλής ποιότητας, μη πρωτότυπο περιεχόμενο στα αποτελέσματα αναζήτησης έναντι της βελτίωσης κατά 40 τοις εκατό που περιμέναμε σε αυτό το έργο», έγραψε η Ελίζαμπεθ Τάκερ, διευθύντρια διαχείρισης προϊόντων στην Google, σε μια ανάρτηση.
Παρά τις αλλαγές, το ανεπιθύμητο περιεχόμενο που δημιουργήθηκε με τη βοήθεια της τεχνητής νοημοσύνης παραμένει ένα διαρκές, διαδεδομένο ζήτημα για τις Ειδήσεις Google.
“Αυτό είναι ένα πραγματικά αχαλίνωτο πρόβλημα στη Google αυτή τη στιγμή και είναι δύσκολο να απαντήσω συγκεκριμένα γιατί συμβαίνει”, λέει η Lily Ray, ανώτερη διευθύντρια βελτιστοποίησης μηχανών αναζήτησης στο πρακτορείο μάρκετινγκ. Φιλόδοξος. «Είχαμε μερικούς πελάτες που είπαν: «Γεια, πήραν το άρθρο μας και το ανασκεύασαν με AI. Μοιάζει ακριβώς με αυτό που γράψαμε στο αρχικό περιεχόμενό μας, αλλά κάπως σαν μια mumbo-jumbo, ξαναγραμμένη από AI εκδοχή του».
Με την πρώτη ματιά, ήταν ξεκάθαρο για μένα ότι ορισμένες από τις εικόνες για τα ιστολόγια του Syrus είχαν δημιουργηθεί με τεχνητή νοημοσύνη με βάση τα πεσμένα μάτια των εικονογραφήσεων και άλλα παραμορφωμένα φυσικά χαρακτηριστικά – ενδεικτικά σημάδια της τεχνητής νοημοσύνης που προσπαθεί να αναπαραστήσει το ανθρώπινο σώμα.
Τώρα, το κείμενο του άρθρου μας ξαναγράφτηκε χρησιμοποιώντας AI; Επικοινώνησα με το άτομο πίσω από το ιστολόγιο για να μάθω περισσότερα για το πώς το έφτιαξαν και έλαβα επιβεβαίωση μέσω email ότι μια ιταλική εταιρεία μάρκετινγκ δημιούργησε το ιστολόγιο. Ισχυρίζονται ότι χρησιμοποίησαν ένα εργαλείο AI ως μέρος της διαδικασίας γραφής. «Όσον αφορά τις ανησυχίες σας σχετικά με τη λογοκλοπή, μπορούμε να σας διαβεβαιώσουμε ότι η διαδικασία δημιουργίας περιεχομένου περιλαμβάνει εργαλεία τεχνητής νοημοσύνης που αναλύουν και συνθέτουν πληροφορίες από διάφορες πηγές, ενώ πάντα σέβονται την πνευματική ιδιοκτησία», γράφει κάποιος χρησιμοποιώντας το όνομα Daniele Syrus μέσω email.
Υποδεικνύουν τον μοναδικό υπερσύνδεσμο στο κάτω μέρος του ανυψωμένου άρθρου ως επαρκή απόδοση. Αν και καλύτερο από το τίποτα, ένας σύνδεσμος που δεν αναφέρει καν τη δημοσίευση με το όνομα δεν είναι επαρκής άμυνα κατά της λογοκλοπής. Το άτομο ισχυρίζεται επίσης ότι ο στόχος του ιστότοπου δεν είναι να λαμβάνει κλικ από τη μηχανή αναζήτησης της Google, αλλά να δοκιμάσει αλγόριθμους τεχνητής νοημοσύνης σε πολλές γλώσσες.
Όταν προσεγγίστηκε μέσω email για απάντηση, η Google αρνήθηκε να σχολιάσει σχετικά με το Syrus. «Δεν σχολιάζουμε συγκεκριμένες ιστοσελίδες, αλλά τις δικές μας ενημερωμένες πολιτικές ανεπιθύμητης αλληλογραφίας απαγορεύουν τη δημιουργία χαμηλής αξίας, μη πρωτότυπου περιεχομένου σε κλίμακα για τους σκοπούς της καλής κατάταξης στο Google», λέει η Meghann Farnsworth, εκπρόσωπος της Google. “Αναλαμβάνουμε δράση σε ιστότοπους παγκοσμίως που δεν ακολουθούν τις πολιτικές μας.” (Ο Φάρνσγουορθ είναι πρώην υπάλληλος της WIRED.)