Οι ηγέτες ανθρώπινου δυναμικού πρέπει να εκπαιδεύονται σχετικά με την τεχνητή νοημοσύνη, ώστε να μπορούν να αξιοποιήσουν τα οφέλη της στην εργασία τους και να εξηγήσουν σε όλους τους υπαλλήλους πώς μπορεί να εφαρμοστεί μέσω του οργανισμού, σύμφωνα με ένα πάνελ στο Ετήσιο Συνέδριο SHRM και Expo 2023 στο Λας Βέγκας.
Η κατανόηση της τεχνητής νοημοσύνης θα βοηθήσει επίσης τους ηγέτες ανθρώπινου δυναμικού να συζητήσουν την τεχνολογία με τους εκλεγμένους αξιωματούχους τους, καθώς διάφορα επίπεδα διακυβέρνησης εξετάζουν τη νομοθεσία για τη ρύθμιση της τεχνολογίας που γίνεται πιο διαδεδομένη στον χώρο εργασίας και στην κοινωνία γενικότερα.
«Δεν χρειάζεται να γίνετε μηχανικός μηχανικής μάθησης», είπε στους παρευρισκόμενους στη συνεδρία της 11ης Ιουνίου η Μέγκαν Σμιθ-Μπραντς, αναπληρώτρια επικεφαλής της Ομάδας Δεοντολογίας και Ασφάλειας AI στο Booz Allen Hamilton, «The Road Ahead: The Intersection of Artificial Intelligence & Πολιτική Χώρου Εργασίας.” Η Smith-Branch πρότεινε να αντιμετωπίζεται η τεχνητή νοημοσύνη ως μέλος της ομάδας και ότι οι επαγγελματίες ανθρώπινου δυναμικού θα πρέπει να σκεφτούν μερικές από τις μεγαλύτερες προκλήσεις τους και πώς η τεχνητή νοημοσύνη θα μπορούσε να βοηθήσει στην επίλυσή τους.
Τα πάνελ αναγνώρισαν ότι ορισμένοι υπάλληλοι φοβούνται την τεχνολογία και ανησυχούν γι’ αυτήν χάνουν τις δουλειές τους εξαιτίας αυτού.
“Δεν πρόκειται να γίνουμε σκλάβοι των μηχανών. Δεν είναι αυτό το θέμα”, δήλωσε η Αντζέλικα Ντορτς, ανώτερη διευθύντρια κυβερνητικών υποθέσεων της SAP. Είπε ότι η τεχνητή νοημοσύνη είναι ένα εργαλείο που μπορεί να βοηθήσει τα άτομα να κάνουν τη δουλειά τους. Για παράδειγμα, η SAP έχει χρησιμοποιήσει τεχνολογία για να δημιουργήσει περιγραφές θέσεων εργασίας. Εξετάζει επίσης πώς θα μπορούσε να χρησιμοποιήσει την τεχνητή νοημοσύνη για να βοηθήσει στη συνεχή εκπαίδευση και ανάπτυξη του προσωπικού.
Ωστόσο, πρόσθεσε η Dortch, οι εταιρείες πρέπει να γνωρίζουν τους κινδύνους από τη χρήση της τεχνητής νοημοσύνης. Για παράδειγμα, αυτό Η EEOC εξέδωσε πρόσφατα οδηγίες ότι οι εργοδότες δεν μπορούν να βασιστούν στις διαβεβαιώσεις που δίνουν οι κατασκευαστές της τεχνολογίας ότι συμμορφώνεται με τους νόμους περί πολιτικών δικαιωμάτων. Η Dortch πρόσθεσε ότι οποιοσδήποτε χρησιμοποιεί γενετική τεχνητή νοημοσύνη πρέπει να διασφαλίσει ότι το προϊόν που παράγει δεν παραβιάζει νόμους περί απορρήτου ή πνευματικών δικαιωμάτων. Οι εργοδότες πρέπει επίσης να προσέχουν ότι οι εργαζόμενοί τους δεν φορτώνουν ιδιόκτητες πληροφορίες σε ανοιχτά συστήματα.
Για παράδειγμα, σε τρεις διαφορετικές περιπτώσεις, οι υπάλληλοι της Samsung στην Κορέα έβαλαν εμπιστευτικές πληροφορίες εταιρείας στο ChatGPT ενώ το χρησιμοποιούσαν για να τους βοηθήσουν να κάνουν τη δουλειά τους, σύμφωνα με αναφορές που δημοσιεύθηκαν τον Απρίλιο. Οι ενέργειες των εργαζομένων ήρθαν αμέσως μετά την αναίρεση της απαγόρευσης χρήσης της τεχνολογίας από τη Samsung. νωρίτερα αυτό το μήνα η εταιρεία επανέφερε την απαγόρευση, ανέφεραν αναφορές.
Η Jo Anna Lebo, αντιπρόεδρος HR στο Lodging Dynamics Hospitality Group, μια εταιρεία διαχείρισης νοσοκομείων με έδρα την Provo της Γιούτα, είπε ότι οι ανησυχίες για την ασφάλεια των δεδομένων και τους νομικούς κινδύνους την εμπόδισαν να υιοθετήσει την τεχνολογία. Ωστόσο, είπε ότι η ιδέα της χρήσης του για τη δημιουργία περιγραφών θέσεων εργασίας και άλλου υλικού ήταν συναρπαστική.
Ομοίως, η Sarah Priszner, ανώτερη διευθύντρια ανθρώπινου δυναμικού για την ABS, μια εταιρεία παροχής υπηρεσιών πιστοποίησης με έδρα το Spring, Texas για τη ναυτιλιακή και υπεράκτια βιομηχανία, είπε ότι οι ανησυχίες για την ασφάλεια την εμπόδισαν να χρησιμοποιήσει την τεχνητή νοημοσύνη. Αλλά είπε επίσης ότι πρέπει να μάθει περισσότερα για να κατανοήσει πλήρως τους κινδύνους και τα οφέλη.
Ο Ken Meyer, SHRM-SCP, διευθυντής της KWM HR Consulting LLC, είπε ότι είναι επιτακτική ανάγκη για τους ανθρώπους HR να μάθουν περισσότερα ώστε να μπορούν να γίνουν υποστηρικτές των εταιρειών τους καθώς εξετάζεται όλο και περισσότερη νομοθεσία σχετικά με την τεχνητή νοημοσύνη.
Τον Απρίλιο, το Υπουργείο Εμπορίου των ΗΠΑ ζήτησε από το κοινό σχόλια σχετικά με πιθανά μέτρα και πολιτικές λογοδοσίας να διασφαλίσει ότι τα συστήματα τεχνητής νοημοσύνης είναι νόμιμα, αποτελεσματικά, ηθικά, ασφαλή και κατά τα άλλα αξιόπιστα. Το πρακτορείο είπε ότι θα εκδώσει έκθεση αφού εξετάσει τις απαντήσεις. Και τέσσερις άλλες ομοσπονδιακές υπηρεσίες υποσχέθηκαν πρόσφατα να συνεργαστούν στενά για να αποτρέψουν τις διακρίσεις που προκύπτουν από τη χρήση τεχνητής νοημοσύνης και αυτοματοποιημένων εργαλείων λήψης αποφάσεων στο χώρο εργασίας.
«Πρέπει να συνεργαστείτε με τους δημόσιους αξιωματούχους σας», είπε ο Meyer, ο οποίος είναι επίσης πρόεδρος της Νέας Υόρκης SHRM. Το επισημαίνει Η Νέα Υόρκη ψήφισε νόμο Αυτό έλεγε ότι οι εργοδότες δεν μπορούν να χρησιμοποιήσουν εργαλεία τεχνητής νοημοσύνης για να λάβουν αποφάσεις προσλήψεων και προαγωγών, εκτός εάν η τεχνολογία ελεγχθεί από εξωτερικό προμηθευτή για μεροληψία.
Είπε ότι τα μικρά μη κερδοσκοπικά συστήματα υγειονομικής περίθαλψης με τα οποία συνεργάζεται δεν μπορούν να αντέξουν οικονομικά τέτοιους ελέγχους και αυτό τα θέτει σε μειονεκτική θέση επειδή ανταγωνίζονται μεγάλα νοσοκομειακά συστήματα για προσωπικό.
«Έχουμε ρυθμιστεί να μην χρησιμοποιούμε τέτοια εργαλεία», είπε ο Meyer.