phonlamaiphoto/Adobe Stock
Τεχνητή νοημοσύνη η τεχνολογία έχει διεισδύσει σε κάθε κλάδο και φροντίδα υγείας δεν αποτελεί εξαίρεση. Τώρα έχουμε Μαζί από τη Ρενέμια εφαρμογή που παρακολουθεί το ιατρικό ιστορικό σας, στοχεύει να μετρήσει το δικό σας πίεση αίματος με μια selfie και εντοπίστε συμπτώματα κατάθλιψης ή άγχους από τον ήχο της φωνής σας. DrugGPT, που αναπτύχθηκε στο Πανεπιστήμιο της Οξφόρδης, είναι ένα εργαλείο που έχει σχεδιαστεί για να βοηθά τους γιατρούς να συνταγογραφούν φάρμακα και να ενημερώνουν τους ασθενείς για το τι παίρνουν. Μπορείτε να κάνετε λήψη Ανθρωπότηταένας γενεσιουργός «προπονητής υγείας» που υπόσχεται να «μειώσει τη βιολογική ηλικία» και Google εργάζεται σε ένα μοντέλο μηχανικής μάθησης που θα διαγνώσει δυνητικά έναν ασθενή με βάση το τον ήχο του βήχα τους.
Αλλά οι πιθανές συνέπειες αυτών των εφαρμογών είναι κάπως διαφορετικές από ό,τι μπορεί να συμβεί όταν χρησιμοποιείτε την τεχνητή νοημοσύνη δημιουργήστε ένα τραγούδι. Για να το θέσουμε με τους πιο αυστηρούς όρους: ζωές κινδυνεύουν. Και οι ειδικοί στους τομείς της υγείας και της τεχνολογίας λένε Βράχος που κυλά έχουν πραγματικές αμφιβολίες για το εάν αυτές οι καινοτομίες μπορούν να εξυπηρετήσουν το δημόσιο καλό.
Για τον Bernard Robertson-Dunn, έναν έμπειρο μηχανικό συστημάτων που υπηρετεί ως πρόεδρος της επιτροπής υγείας στο Australian Privacy Foundation, ένα σημαντικό ζήτημα είναι ότι οι ίδιοι οι προγραμματιστές χειρίστηκαν λάθος πληροφορίες ασθενών από την αρχή. Πριν από δεκαετίες, λέει, υπήρξε μια «μεγάλη ώθηση» για την ψηφιοποίηση των ιατρικών αρχείων, αλλά η υπόσχεση αυτής της επανάστασης κατέρρευσε επειδή οι τεχνολόγοι πιστεύουν ότι αυτά τα δεδομένα «είναι σαν δεδομένα οικονομικών συναλλαγών».
«Δεν είναι», λέει ο Robertson-Dunn. «Τα δεδομένα οικονομικών συναλλαγών είναι γεγονότα και το νόημα μιας υπάρχουσας συναλλαγής δεν αλλάζει με την πάροδο του χρόνου. Αν κοιτάξετε τον τραπεζικό σας λογαριασμό, δεν θα έχει αλλάξει χωρίς προφανή λόγο». Τα δεδομένα υγείας, εν τω μεταξύ, «μπορούν να αλλάζουν από μέρα σε μέρα χωρίς να το γνωρίζετε και γιατί. Μπορεί να πιάσεις Covid, HIV, κρυολόγημα ή καρδιακή προσβολή σήμερα, γεγονός που ακυρώνει πολλά από τα δεδομένα του αρχείου υγείας σας όπως καταγράφηκαν χθες», λέει ο Robertson-Dunn. Κατά την άποψή του, η παλιά φρενίτιδα για τα ηλεκτρονικά αρχεία υγείας έχει μεταφερθεί στην έκρηξη της τεχνητής νοημοσύνης, «που είναι πολύ μεγαλύτερο πρόβλημα».
«Δεν πρόκειται ποτέ να πω ότι η τεχνολογία είναι επιβλαβής ή ότι δεν πρέπει να τη χρησιμοποιήσουμε», λέει η Τζούλια Στογιάνοβιτς, η επιστήμονας υπολογιστών που ηγείται του Κέντρου Υπεύθυνης Τεχνητής Νοημοσύνης του Πανεπιστημίου της Νέας Υόρκης. «Αλλά στη συγκεκριμένη περίπτωση, πρέπει να πω ότι είμαι δύσπιστος, γιατί αυτό που βλέπουμε είναι ότι οι άνθρωποι σπεύδουν να χρησιμοποιήσουν γενετική τεχνητή νοημοσύνη για όλα τα είδη των εφαρμογών, απλώς και μόνο επειδή είναι εκεί έξω και φαίνεται ωραίο, και οι ανταγωνιστές το χρησιμοποιούν». Βλέπει τη βιασύνη της τεχνητής νοημοσύνης να αναδύεται από τη «διαφημιστική εκστρατεία και τη μαγική σκέψη, ότι οι άνθρωποι θέλουν πραγματικά να πιστεύουν ότι υπάρχει κάτι εκεί έξω που θα κάνει το αδύνατο».
Ο Stoyanovich και ο Robertson-Dunn επισημαίνουν και οι δύο ότι τα εργαλεία υγείας της τεχνητής νοημοσύνης αποφεύγουν επί του παρόντος τα είδη κλινικών δοκιμών και κανονισμών που είναι απαραίτητα για την κυκλοφορία μιας ιατρικής συσκευής στην αγορά. Ο Stoyanovich περιγράφει ένα «παραθυράκι» που το καθιστά δυνατό. «Δεν είναι πραγματικά το εργαλείο που θα σας συνταγογραφήσει ένα φάρμακο. Είναι πάντα ένα εργαλείο που χρησιμοποιεί ένας γιατρός. Και τελικά ο γιατρός θα πει «Ναι, συμφωνώ» ή «διαφωνώ». Και αυτός είναι ο λόγος που αυτά τα εργαλεία ξεφεύγουν από τον έλεγχο που θα περίμενε κανείς να έχει ένα εργαλείο στον ιατρικό τομέα».
«Αλλά είναι ακόμα προβληματικό, σωστά;» προσθέτει ο Στογιάνοβιτς. «Επειδή γνωρίζουμε ότι οι άνθρωποι – οι γιατροί δεν αποτελούν εξαίρεση – θα βασίζονταν υπερβολικά σε αυτά τα εργαλεία. Διότι εάν ένα εργαλείο σας δώσει μια απάντηση που φαίνεται ακριβής, τότε ένας άνθρωπος θα πει, “Λοιπόν, ποιος είμαι εγώ για να το αμφισβητήσω;”» Το χειρότερο, λέει, ένα ρομπότ θα μπορούσε να αναφέρει ένα άρθρο σε ένα περιοδικό όπως Επιστήμη ή το Νυστέρι για να υποστηρίξει το συμπέρασμά του ακόμα κι αν η έρευνα το αντικρούει ευθέως.
Η Elaine O. Nsoesie, επιστήμονας δεδομένων στη Σχολή Δημόσιας Υγείας του Πανεπιστημίου της Βοστώνης που ερευνά πώς η τεχνολογία μπορεί να προωθήσει την ισότητα στην υγεία, εξηγεί τι μπορεί να λείπει από ένα διαγνωστικό μοντέλο AI όταν αξιολογεί τα συμπτώματα ενός ασθενούς. Αυτά τα εργαλεία «βασικά μαθαίνουν όλες αυτές τις πληροφορίες και μετά σας τις δίνουν πίσω, και δεν έχουν πλαίσιο και στερούνται αποχρώσεις», λέει. «Εάν εισέλθει ένας ασθενής, μπορεί να έχει συγκεκριμένα συμπτώματα και ίσως έχει ιστορικό διαφορετικών καταστάσεων και ο γιατρός μπορεί να παρέχει ιατρικές συμβουλές που μπορεί να μην είναι τυπικές ή ποια δεδομένα έχουν χρησιμοποιηθεί για την εκπαίδευση μας ο αλγόριθμος θα παράγει.”
Σύμφωνα με τον Nsoesie, τεχνητή νοημοσύνη μπορεί επίσης να αναπαράγει ή να επιδεινώσει τις συστημικές ανισότητες στην υγεία που επηρεάζουν δυσμενώς τις γυναίκες, τους έγχρωμους, LGBTQ ασθενείς και άλλες μειονεκτούσες ομάδες. «Όταν βλέπετε αλγόριθμους να μην κάνουν αυτό που υποτίθεται ότι πρέπει να κάνετε, το πρόβλημα συνήθως ξεκινά από τα δεδομένα», λέει. «Όταν κοιτάτε τα δεδομένα, αρχίζετε να βλέπετε ότι είτε ορισμένες ομάδες δεν εκπροσωπούνται είτε δεν εκπροσωπούνται με δίκαιο τρόπο. Υπάρχουν λοιπόν προκαταλήψεις, ίσως στερεότυπα [the models], υπάρχει ρατσισμός ή σεξισμός». Έχει συγγράψει μια εργασία με θέμα: «Στην ιατρική, πώς μαθαίνουμε από μηχανής οτιδήποτε αληθινό;Σκιαγραφεί πώς μια «μακρόχρονη ιστορία διακρίσεων» στους χώρους υγειονομικής περίθαλψης έχει παράγει μεροληπτικά δεδομένα, τα οποία, εάν χρησιμοποιηθούν σε «αφελείς εφαρμογές», μπορούν να δημιουργήσουν δυσλειτουργικά συστήματα.
Ωστόσο, ο Nsoesie και άλλοι είναι προσεκτικά αισιόδοξοι ότι η τεχνητή νοημοσύνη μπορεί να ωφελήσει τη δημόσια υγεία – ίσως όχι με τους τρόπους που επιδιώκουν οι εταιρείες αυτή τη στιγμή. «Όταν πρόκειται για τη χρήση διαφόρων μορφών τεχνητής νοημοσύνης για άμεση φροντίδα των ασθενών, οι λεπτομέρειες της εφαρμογής θα έχουν μεγάλη σημασία», λέει ο Nate Sharadin, συνεργάτης στο Κέντρο για την Ασφάλεια AI. «Είναι εύκολο να φανταστεί κανείς τους γιατρούς να χρησιμοποιούν διάφορα εργαλεία τεχνητής νοημοσύνης με τρόπο που ελευθερώνει το χρόνο τους για να τον περάσουν πρόσωπο με πρόσωπο με τους ασθενείς τους. Η μεταγραφή έρχεται στο μυαλό, αλλά και η περίληψη των ιατρικών αρχείων και η αρχική λήψη. Οι γιατροί υποδεικνύουν ότι η αδυναμία τους να περνούν ουσιαστικό χρόνο με τους ασθενείς τους είναι πρόβλημα εδώ και δεκαετίες και οδηγεί σε εξουθένωση σε όλο το επάγγελμα, που επιδεινώνεται, φυσικά, από τον Covid-19».
Ο Sharadin βλέπει επίσης τους πιθανούς κινδύνους, ωστόσο, όπως «οι ιδιωτικές κερδοσκοπικές εγκαταστάσεις μακροχρόνιας φροντίδας περιορίζουν το προσωπικό προσπαθώντας να αυτοματοποιήσουν τα πράγματα με την τεχνητή νοημοσύνη» ή «τσαρλατάνους που πουλούν το ισοδύναμο AI άχρηστων συμπληρωμάτων». Προσδιορίζει την εφαρμογή Together ως ένα παράδειγμα. «Δεν υπάρχει απολύτως κανένας τρόπος να ανιχνεύσουν με ακρίβεια SpO2 [blood oxygen levels] με μια selfie», λέει. «Είμαι βέβαιος ότι αυτοί και άλλες επιχειρήσεις θα είναι προσεκτικοί για να υποδείξουν ότι τα προϊόντα τους δεν προορίζονται για τη διάγνωση ή τη θεραπεία οποιασδήποτε ασθένειας. Αυτή είναι η τυπική ετικέτα συμβατή με το FDA για την πώληση κάτι που οι άνθρωποι δεν χρειάζονται στην πραγματικότητα, το οποίο στην πραγματικότητα δεν λειτουργεί».
Ο Stoyanovich συμφωνεί με τον Sharadin ότι πρέπει να σκεφτούμε σκληρά τι ακριβώς θέλουμε από αυτήν την τεχνολογία ή «ποιο κενό ελπίζουμε να καλύψουν αυτά τα εργαλεία» στον τομέα της ιατρικής. «Αυτά δεν είναι παιχνίδια. Αυτή είναι η υγεία των ανθρώπων και η εμπιστοσύνη των πολιτών στο ιατρικό σύστημα». Μια σημαντική ευπάθεια σε αυτό το σημείο είναι το απόρρητο των δεδομένων υγείας σας. Είτε μοντέλα τεχνητής νοημοσύνης όπως το εργαλείο ανάλυσης βήχα της Google μπορούν να λειτουργήσουν αξιόπιστα είτε όχι, λέει ο Stoyanovich, «ρουφούν πολλές πληροφορίες από εμάς» και τα ιατρικά δεδομένα είναι ιδιαίτερα ευαίσθητα. Φαντάζεται ένα μέλλον στο οποίο οι εταιρείες ασφάλισης υγείας αυξάνουν συστηματικά τα ασφάλιστρα για τους πελάτες με βάση τις πληροφορίες που συλλέγονται από τέτοιες εφαρμογές. «Θα χρησιμοποιούν αυτά τα δεδομένα για να λάβουν αποφάσεις που στη συνέχεια θα επηρεάσουν την πρόσβαση των ανθρώπων στην ιατρική περίθαλψη», προβλέπει ο Stoyanovich, συγκρίνοντας την κατάσταση με την «ανεύθυνη» και «αυθαίρετη» χρήση της τεχνητής νοημοσύνης στις προσλήψεις και την απασχόληση. «Καταλήγει σε μειονεκτική θέση ανθρώπους που έχουν μειονεκτεί ιστορικά».
Ο Στογιάνοβιτς ανησυχεί επίσης ότι η υπερβολή της αποτελεσματικότητας των μοντέλων τεχνητής νοημοσύνης σε κλινικό περιβάλλον λόγω μερικών υποσχόμενων αποτελεσμάτων θα μας οδηγήσει σε μια επικίνδυνη πορεία. «Έχουμε δει πολύ ενθουσιασμό από συγκεκριμένες περιπτώσεις που αναφέρθηκαν ότι, ας πούμε, το ChatGPT μπόρεσε να διαγνώσει μια κατάσταση που αρκετοί γιατροί έχασαν και δεν μπόρεσαν να διαγνώσουν σωστά», λέει ο Stoyanovich. «Και αυτό το κάνει έτσι ώστε τώρα πιστεύουμε ότι το ChatGPT είναι γιατρός. Αλλά όταν κρίνουμε αν κάποιος είναι καλός γιατρός, δεν εξετάζουμε πόσες περιπτώσεις είχαν δίκιο. Κοιτάμε πόσες περιπτώσεις πήραν λανθασμένος. Θα έπρεπε τουλάχιστον να κρατάμε αυτά τα μηχανήματα σε παρόμοιο επίπεδο, αλλά να είμαστε εντυπωσιασμένοι με έναν γιατρό που διέγνωσε μια συγκεκριμένη δύσκολη περίπτωση, αυτό είναι ανόητο. Χρειάζεται πραγματικά να έχουμε μια ισχυρή αξιολόγηση που λειτουργεί σε κάθε περίπτωση».
Οι ειδικοί τεχνολογίας και υγείας που μίλησαν με Βράχος που κυλά συμφωνούν σε μεγάλο βαθμό ότι ο διπλός έλεγχος της απόδοσης των μοντέλων τεχνητής νοημοσύνης από επαγγελματίες ιατρούς προσθέτει ένα επίπεδο βαρύτητας και αναποτελεσματικότητας στην υγειονομική περίθαλψη. Ο Robertson-Dunn λέει ότι στην περίπτωση των παθολογικών εξετάσεων – όπως αυτές που περιλαμβάνουν την ανάγνωση ακτινογραφιών ή μαγνητικής τομογραφίας – «ένας ειδικευμένος γιατρός μπορεί να αξιολογήσει τη διάγνωση του καθενός, αλλά αυτό μετατρέπει τη δουλειά ενός ειδικευμένου ιατρού σε πολύ βαρετή, ψυχοφθόρα, μηχανική ρουτίνα».
Και, όπως παρατηρεί ο Nsoesie, ίσως μπορούμε να επαναπροσδιορίσουμε πλήρως την ευκαιρία που δημιουργεί η τεχνητή νοημοσύνη στην υγειονομική περίθαλψη. Αντί να προσπαθούμε να μετρήσουμε τις βιολογικές ιδιότητες των ατόμων με μηχανές, θα μπορούσαμε να αναπτύξουμε αυτά τα μοντέλα για να μάθουμε κάτι για ολόκληρες περιοχές και κοινότητες. Ο Nsoesie λέει ότι το κίνημα AI στην Αφρική έχει βρει πολλά υποσχόμενες λύσεις που περιλαμβάνουν τη χρήση τεχνητής νοημοσύνης για την παρακολούθηση της ατμοσφαιρικής ρύπανσης που επηρεάζει την υγεία. «Το να μπορούμε να συλλέξουμε αυτά τα δεδομένα και να τα επεξεργαστούμε και να τα χρησιμοποιήσουμε για τη χάραξη πολιτικής είναι πολύ σημαντικό», λέει.
Όσον αφορά τη δημόσια υγεία, λέει ο Nsoesie, η εστίαση θα πρέπει να είναι «στην αντιμετώπιση των βαθύτερων αιτιών των ασθενειών και των ανισοτήτων στην υγεία, αντί να διορθωθούν απλώς τα συμπτώματα». Θα ήταν καλύτερο, κατά την άποψή της, να αξιοποιήσουμε την τεχνολογία AI για να απαντήσουμε σε ερωτήσεις σχετικά με το γιατί έχουμε «ιδιαίτερους πληθυσμούς με υψηλότερα ποσοστά διαβήτη ή καρκίνου» αντί να σχεδιάσουμε μια εφαρμογή που στοχεύει άτομα με αυτές τις παθήσεις. Οι ιδανικές λύσεις, προσθέτει, απαιτούν τη συζήτηση με τους ασθενείς και τους κλινικούς γιατρούς που τους εξυπηρετούν για να μάθουν τι πραγματικά χρειάζονται και να αφήσουν τη συμβολή τους να καθοδηγήσει τη διαδικασία ανάπτυξης. Οι προγραμματιστές εφαρμογών, λέει ο Nsoesie, συνήθως δεν κάνουν αυτήν την έρευνα ούτε ζητούν σχόλια.
«Αυτό είναι απλώς πιο αποτελεσματικό», καταλήγει. «Αλλά απαιτεί να δίνετε προτεραιότητα στους ανθρώπους και όχι στα χρήματα».