Οι ερευνητές του Πανεπιστημίου Στάνφορντ λένε ότι οι επαγγελματίες ηθικής της τεχνητής νοημοσύνης αναφέρουν ότι δεν υπάρχει θεσμική υποστήριξη στις εταιρείες τους.
Οι εταιρείες τεχνολογίας που έχουν υποσχεθεί να υποστηρίξουν την ηθική ανάπτυξη της τεχνητής νοημοσύνης (AI) αποτυγχάνουν να ανταποκριθούν στις δεσμεύσεις τους καθώς η ασφάλεια βρίσκεται σε δεύτερη μοίρα στις μετρήσεις απόδοσης και στην κυκλοφορία προϊόντων, σύμφωνα με μια νέα έκθεση ερευνητών του Πανεπιστημίου Στάνφορντ.
Παρά τη δημοσίευση των αρχών της τεχνητής νοημοσύνης και τη χρήση κοινωνικών επιστημόνων και μηχανικών για τη διεξαγωγή έρευνας και την ανάπτυξη τεχνικών λύσεων που σχετίζονται με την ηθική της τεχνητής νοημοσύνης, πολλές ιδιωτικές εταιρείες δεν έχουν ακόμη δώσει προτεραιότητα στην υιοθέτηση ηθικών διασφαλίσεων, αναφέρει το Ινστιτούτο Ανθρωποκεντρικής Τεχνητής Νοημοσύνης του Στάνφορντ στην έκθεση που δόθηκε στη δημοσιότητα την Πέμπτη. .
«Οι εταιρείες συχνά «μιλούν» για την ηθική της τεχνητής νοημοσύνης, αλλά σπάνια «περπατούν» παρέχοντας επαρκείς πόρους και ενδυναμώνοντας ομάδες που εργάζονται σε υπεύθυνη τεχνητή νοημοσύνη», δήλωσαν οι ερευνητές Sanna J Ali, Angele Christin, Andrew Smart και Riitta Katila στην έκθεση με τίτλο Walking. το Walk of AI Ethics στις εταιρείες τεχνολογίας.
Βασιζόμενη στις εμπειρίες 25 «επαγγελματιών ηθικής τεχνητής νοημοσύνης», η έκθεση ανέφερε ότι οι εργαζόμενοι που εμπλέκονται στην προώθηση της ηθικής της τεχνητής νοημοσύνης παραπονέθηκαν για έλλειψη θεσμικής υποστήριξης και αποσιωπήθηκαν από άλλες ομάδες σε μεγάλους οργανισμούς παρά τις υποσχέσεις για το αντίθετο.
Οι εργαζόμενοι ανέφεραν μια κουλτούρα αδιαφορίας ή εχθρότητας λόγω των διαχειριστών προϊόντων που βλέπουν τη δουλειά τους ως επιβλαβή για την παραγωγικότητα, τα έσοδα ή το χρονοδιάγραμμα κυκλοφορίας ενός προϊόντος μιας εταιρείας, ανέφερε η έκθεση.
«Το να είμαι πολύ δυνατά για να βάλω περισσότερα φρένα [AI development] ήταν ένα ριψοκίνδυνο πράγμα», είπε ένα άτομο που ρωτήθηκε για την έκθεση. «Δεν ενσωματώθηκε στη διαδικασία».
Η έκθεση δεν κατονομάζει τις εταιρείες όπου εργάζονταν οι ερωτηθέντες εργαζόμενοι.
Κυβερνήσεις και ακαδημαϊκοί έχουν εκφράσει ανησυχίες για την ταχύτητα ανάπτυξης της τεχνητής νοημοσύνης, με ηθικά ερωτήματα που αφορούν τα πάντα, από τη χρήση ιδιωτικών δεδομένων έως τις φυλετικές διακρίσεις και την παραβίαση πνευματικών δικαιωμάτων.
Τέτοιες ανησυχίες έχουν γίνει πιο έντονες μετά την κυκλοφορία του ChatGPT από το OpenAI πέρυσι και την επακόλουθη ανάπτυξη ανταγωνιστικών πλατφορμών όπως το Gemini της Google.
Οι εργαζόμενοι είπαν στους ερευνητές του Stanford ότι τα ηθικά ζητήματα συχνά εξετάζονται πολύ αργά στο παιχνίδι, καθιστώντας δύσκολη την προσαρμογή σε νέες εφαρμογές ή λογισμικό και ότι οι ηθικοί προβληματισμοί συχνά διαταράσσονται από τη συχνή αναδιοργάνωση των ομάδων.
«Οι μετρήσεις γύρω από την αφοσίωση ή την απόδοση των μοντέλων τεχνητής νοημοσύνης έχουν τόσο μεγάλη προτεραιότητα που οι συστάσεις που σχετίζονται με την ηθική που ενδέχεται να επηρεάσουν αρνητικά αυτές τις μετρήσεις απαιτούν αδιάψευστα ποσοτικά στοιχεία», ανέφερε η έκθεση.
«Ωστόσο, οι ποσοτικές μετρήσεις ηθικής ή δικαιοσύνης είναι δύσκολο να βρεθούν και είναι δύσκολο να προσδιοριστούν, δεδομένου ότι οι υπάρχουσες υποδομές δεδομένων των εταιρειών δεν είναι προσαρμοσμένες σε τέτοιες μετρήσεις».