Περίληψη: Μια νέα μελέτη αποκαλύπτει ότι πάνω από το 60% των συμμετεχόντων προτιμούν την τεχνητή νοημοσύνη έναντι των ανθρώπων για αναδιανεμητικές αποφάσεις, παρά το γεγονός ότι βρίσκουν τις αποφάσεις τεχνητής νοημοσύνης λιγότερο ικανοποιητικές και δίκαιες. Οι ερευνητές πραγματοποίησαν ένα διαδικτυακό πείραμα με περισσότερους από 200 συμμετέχοντες από το Ηνωμένο Βασίλειο και τη Γερμανία.
Η μελέτη υπογραμμίζει την ανάγκη για διαφάνεια και υπευθυνότητα στη λήψη αποφάσεων AI. Τα ευρήματα υποδηλώνουν ότι η βελτιωμένη συνέπεια του αλγορίθμου θα μπορούσε να αυξήσει την αποδοχή της τεχνητής νοημοσύνης από το κοινό σε ηθικά πλαίσια λήψης αποφάσεων.
Βασικά στοιχεία:
- Προτίμηση AI: Το 60% των συμμετεχόντων προτίμησε την τεχνητή νοημοσύνη για αναδιανεμητικές αποφάσεις.
- Αντιλαμβανόμενη δικαιοσύνη: Οι συμμετέχοντες αξιολόγησαν τις αποφάσεις AI ως λιγότερο ικανοποιητικές και δίκαιες.
- Απαιτείται διαφάνεια: Η διαφάνεια και η λογοδοσία είναι ζωτικής σημασίας για την αποδοχή της τεχνητής νοημοσύνης.
Πηγή: Πανεπιστήμιο του Πόρτσμουθ
Μια νέα μελέτη αποκάλυψε ότι οι άνθρωποι προτιμούν την Τεχνητή Νοημοσύνη (AI) έναντι των ανθρώπων όταν πρόκειται για αποφάσεις αναδιανομής.
Καθώς η τεχνολογία συνεχίζει να ενσωματώνεται σε διάφορες πτυχές της δημόσιας και ιδιωτικής λήψης αποφάσεων, η κατανόηση της αντίληψης και της ικανοποίησης του κοινού και η διασφάλιση της διαφάνειας και της λογοδοσίας των αλγορίθμων θα είναι το κλειδί για την αποδοχή και την αποτελεσματικότητά τους.
Η μελέτη, που διεξήχθη από ερευνητές από το Πανεπιστήμιο του Πόρτσμουθ και το Ινστιτούτο Καινοτομίας και Ανταγωνισμού Max Planck, εξέτασε τη στάση του κοινού απέναντι στην αλγοριθμική έναντι της ανθρώπινης λήψης αποφάσεων και εξέτασε τον αντίκτυπο των πιθανών διακρίσεων σε αυτές τις προτιμήσεις.
Χρησιμοποιήθηκε ένα διαδικτυακό πείραμα απόφασης για τη μελέτη της προτίμησης για τους ανθρώπους που λαμβάνουν αποφάσεις από ανθρώπους ή τεχνητές νοημοσύνη, όπου τα κέρδη δύο ατόμων θα μπορούσαν να ανακατανεμηθούν μεταξύ τους μετά από μια σειρά εργασιών.
Πάνω από 200 συμμετέχοντες από το Ηνωμένο Βασίλειο και τη Γερμανία κλήθηκαν να ψηφίσουν εάν ήθελαν έναν άνθρωπο ή έναν αλγόριθμο (AI) για να πάρουν την απόφαση που θα καθόριζε πόσα χρήματα κέρδιζαν.
Σε αντίθεση με προηγούμενα ευρήματα, πάνω από το 60 τοις εκατό των συμμετεχόντων επέλεξαν την τεχνητή νοημοσύνη αντί για έναν άνθρωπο για να αποφασίσουν πώς θα αναδιανεμηθούν τα κέρδη. Οι συμμετέχοντες ευνόησαν τον αλγόριθμο, ανεξάρτητα από πιθανή διάκριση. Αυτή η προτίμηση αμφισβητεί τη συμβατική αντίληψη ότι οι άνθρωποι που λαμβάνουν αποφάσεις ευνοούνται σε αποφάσεις που περιλαμβάνουν ένα «ηθικό» στοιχείο όπως η δικαιοσύνη.
Ωστόσο, παρά την προτίμηση για αλγόριθμους, κατά την αξιολόγηση των αποφάσεων που ελήφθησαν, οι συμμετέχοντες ήταν λιγότερο ικανοποιημένοι με την απόφαση της τεχνητής νοημοσύνης και τη βρήκαν λιγότερο «δίκαιη» από αυτή που έλαβαν οι άνθρωποι.
Οι υποκειμενικές αξιολογήσεις των αποφάσεων καθορίζονται κυρίως από τα υλικά συμφέροντα των συμμετεχόντων και τα ιδανικά της δικαιοσύνης. Οι συμμετέχοντες μπορούσαν να ανεχθούν οποιαδήποτε εύλογη απόκλιση μεταξύ της πραγματικής απόφασης και των ιδανικών τους, αλλά αντέδρασαν πολύ έντονα και αρνητικά σε αποφάσεις ανακατανομής που δεν ήταν συνεπείς με καμία από τις καθιερωμένες αρχές δικαιοσύνης.
Ο Δρ Wolfgang Luhan, Αναπληρωτής Καθηγητής Οικονομικών της Συμπεριφοράς στη Σχολή Λογιστικής, Οικονομίας και Χρηματοοικονομικής στο Πανεπιστήμιο του Πόρτσμουθ και αντίστοιχος συγγραφέας της μελέτης, δήλωσε: «Η έρευνά μας δείχνει ότι ενώ οι άνθρωποι είναι ανοιχτοί στην ιδέα των αλγοριθμικών υπευθύνων λήψης αποφάσεων, ειδικά λόγω της δυνατότητάς τους για αμερόληπτες αποφάσεις, η πραγματική απόδοση και η ικανότητα να εξηγούν πώς αποφασίζουν παίζουν κρίσιμους ρόλους στην αποδοχή.
«Ειδικά σε ηθικά πλαίσια λήψης αποφάσεων, η διαφάνεια και η υπευθυνότητα των αλγορίθμων είναι ζωτικής σημασίας.
«Πολλές εταιρείες χρησιμοποιούν ήδη τεχνητή νοημοσύνη για αποφάσεις προσλήψεων και προγραμματισμό αποζημιώσεων και οι δημόσιοι φορείς χρησιμοποιούν την τεχνητή νοημοσύνη σε στρατηγικές αστυνόμευσης και αποφυλάκισης υπό όρους. Τα ευρήματά μας υποδηλώνουν ότι, με βελτιώσεις στη συνέπεια των αλγορίθμων, το κοινό μπορεί να υποστηρίζει όλο και περισσότερο τους αλγοριθμικούς λήπτες αποφάσεων ακόμη και σε ηθικά σημαντικούς τομείς.
«Εάν ακολουθηθεί η σωστή προσέγγιση τεχνητής νοημοσύνης, αυτό θα μπορούσε πραγματικά να βελτιώσει την αποδοχή των πολιτικών και των διαχειριστικών επιλογών, όπως οι αυξήσεις μισθών ή οι πληρωμές μπόνους».
Σχετικά με αυτά τα νέα έρευνας AI
Συγγραφέας: Γκλεν Χάρις
Πηγή: Πανεπιστήμιο του Πόρτσμουθ
Επικοινωνία: Glenn Harris – Πανεπιστήμιο του Πόρτσμουθ
Εικόνα: Η εικόνα πιστώνεται στο Neuroscience News
Πρωτότυπη έρευνα: Ανοιχτή πρόσβαση.
“Κυβερνούνται από ρομπότ: προτίμηση για αλγοριθμικούς λήπτες αποφάσεων και αντιλήψεις για τις επιλογές τους» των Wolfgang Luhan et al. Δημόσια Επιλογή
Αφηρημένη
Κυβερνούνται από ρομπότ: προτίμηση για αλγοριθμικούς λήπτες αποφάσεων και αντιλήψεις για τις επιλογές τους
Καθώς η λήψη αποφάσεων με τη βοήθεια τεχνολογίας γίνεται όλο και πιο διαδεδομένη, είναι σημαντικό να κατανοήσουμε πώς η αλγοριθμική φύση του υπεύθυνου λήψης αποφάσεων επηρεάζει τον τρόπο με τον οποίο οι αποφάσεις γίνονται αντιληπτές από αυτούς που επηρεάζονται.
Χρησιμοποιούμε ένα διαδικτυακό πείραμα για να μελετήσουμε την προτίμηση για ανθρώπους ή αλγοριθμικούς υπεύθυνους λήψης αποφάσεων σε αναδιανεμητικές αποφάσεις. Ειδικότερα, εξετάζουμε εάν ένας αλγοριθμικός λήπτης αποφάσεων θα προτιμηθεί λόγω της αμεροληψίας του.
Σε αντίθεση με τα προηγούμενα ευρήματα, η πλειονότητα των συμμετεχόντων (πάνω από 60%) προτιμά τον αλγόριθμο ως φορέα λήψης αποφάσεων από έναν άνθρωπο — αλλά αυτό δεν οφείλεται σε ανησυχίες για μεροληπτικές αποφάσεις.
Ωστόσο, παρά αυτή την προτίμηση, οι αποφάσεις που λαμβάνονται από τους ανθρώπους θεωρούνται ευνοϊκότερα. Οι υποκειμενικές αξιολογήσεις των αποφάσεων καθορίζονται κυρίως από τα υλικά συμφέροντα των συμμετεχόντων και τα ιδανικά της δικαιοσύνης.
Οι συμμετέχοντες ανέχονται οποιαδήποτε εξηγήσιμη απόκλιση μεταξύ της πραγματικής απόφασης και των ιδανικών τους, αλλά αντιδρούν πολύ έντονα και αρνητικά σε αποφάσεις ανακατανομής που δεν συνάδουν με καμία αρχή δικαιοσύνης.