Αυτή είναι η δεύτερη ανάρτηση μιας σειράς δύο μερών σχετικά με τα βασικά στοιχεία του PrivacyCon για οργανισμούς υγειονομικής περίθαλψης. Ο πρώτος Θέση επικεντρώνεται σε ζητήματα απορρήτου της υγειονομικής περίθαλψης.[1] Αυτή η ανάρτηση εστιάζει σε πληροφορίες και εκτιμήσεις σχετικά με τη χρήση της Τεχνητής Νοημοσύνης («AI») στην υγειονομική περίθαλψη. Στο τμήμα τεχνητής νοημοσύνης της εκδήλωσης, η Ομοσπονδιακή Επιτροπή Εμπορίου (“FTC”) κάλυψε: (1) θέματα προστασίας της ιδιωτικής ζωής. (2) ζητήματα για μεγάλα γλωσσικά μοντέλα («LLMs»). και (3) λειτουργικότητα AI.
Θέματα AI Privacy
ο πρώτη παρουσίαση εντός του τμήματος τόνισε μια μελέτη στην οποία συμμετείχαν περισσότεροι από 10.000 συμμετέχοντες και μέτρησε τις ανησυχίες τους σχετικά με τη διασταύρωση της τεχνητής νοημοσύνης και της ιδιωτικής ζωής.[2] Η μελέτη αποκάλυψε τέσσερα θέματα προστασίας της ιδιωτικής ζωής: (1) τα δεδομένα κινδυνεύουν (δυνατότητα κακής χρήσης). (2) τα δεδομένα είναι εξαιρετικά προσωπικά (μπορούν να χρησιμοποιηθούν για την ανάπτυξη προσωπικών γνώσεων, τον χειρισμό ή την επιρροή ανθρώπων)· (3) τα δεδομένα συλλέγονται συχνά χωρίς επίγνωση και ουσιαστική συγκατάθεση· και (4) ανησυχία για επιτήρηση και χρήση από την κυβέρνηση. Η παρουσίαση επικεντρώθηκε στον τρόπο αντιμετώπισης αυτών των θεμάτων (και μετριασμού των κινδύνων). Για παράδειγμα, η τεχνητή νοημοσύνη δεν μπορεί να λειτουργήσει χωρίς δεδομένα, ωστόσο ο όγκος των δεδομένων προσελκύει αναπόφευκτα τους παράγοντες απειλής. Οι προγραμματιστές και οι ενδιαφερόμενοι θα πρέπει να αναπτύξουν υπεύθυνα την τεχνητή νοημοσύνη και να την προσαρμόσουν στους κανονισμούς ασφαλείας. Η απόκτηση συγκατάθεσης και διαφάνειας του υποκειμένου των δεδομένων είναι κρίσιμες.
Θέματα απορρήτου, ασφάλειας και ασφάλειας για LLMs
ο δεύτερη παρουσίαση συζήτησε πώς οι πλατφόρμες LLM αρχίζουν να προσφέρουν plug-in οικοσυστήματα που επιτρέπουν την επέκταση εφαρμογών υπηρεσιών τρίτων.[3] Ενώ οι εφαρμογές υπηρεσιών τρίτων ενισχύουν τη λειτουργικότητα των LLM, όπως το ChatGPT, η ασφάλεια, το απόρρητο και η ασφάλεια είναι ζητήματα που θα πρέπει να αντιμετωπιστούν. Λόγω ασάφειων και ανακρίβειων μεταξύ των γλωσσών κωδικοποίησης των εφαρμογών τρίτων και των πλατφορμών LLM, αυτές οι υπηρεσίες AI προσφέρονται στο κοινό για χρήση χωρίς να αντιμετωπίζονται συστημικά ζητήματα απορρήτου, ασφάλειας και ασφάλειας.
Η μελέτη δημιούργησε ένα πλαίσιο για να δει πώς τα ενδιαφερόμενα μέρη της πλατφόρμας LLM, χρήστες και εφαρμογές, μπορούν να εφαρμόσουν αντίπαλες ενέργειες και να επιτεθούν ο ένας στον άλλο. Τα ευρήματα της μελέτης περιέγραψαν ότι οι επιθέσεις μπορούν να συμβούν με: (1) αεροπειρατεία του συστήματος κατευθύνοντας το LLM να συμπεριφέρεται με έναν συγκεκριμένο τρόπο. (2) πειρατεία της εφαρμογής τρίτων. ή (3) συλλογή των δεδομένων χρήστη που συλλέγονται από το LLM. Το βασικό στοιχείο από αυτήν την παρουσίαση είναι ότι οι προγραμματιστές πλατφορμών LLM πρέπει να δώσουν έμφαση και να επικεντρωθούν στην ασφάλεια, το απόρρητο και την ασφάλεια κατά τη δημιουργία αυτών των πλατφορμών για να βελτιώσουν την εμπειρία του χρήστη. Επιπλέον, μόλις θεσπιστούν ισχυρές πολιτικές ασφάλειας, οι πλατφόρμες LLM θα πρέπει να δηλώνουν και να επιβάλλουν με σαφήνεια αυτές τις κατευθυντήριες γραμμές.
Λειτουργικότητα AI
ο τελευταία παρουσίαση επικεντρώνεται στη λειτουργικότητα της τεχνητής νοημοσύνης.[4] Διεξήχθη μια μελέτη για ένα εργαλείο τεχνολογίας AI που χρησίμευσε ως παράδειγμα της πλάνης της λειτουργικότητας της τεχνητής νοημοσύνης. Η πλάνη της λειτουργικότητας της τεχνητής νοημοσύνης είναι μια ψυχολογική βάση που οδηγεί τα άτομα να εμπιστεύονται την τεχνολογία τεχνητής νοημοσύνης στην ονομαστική τους αξία υπό την υπόθεση ότι η τεχνητή νοημοσύνη λειτουργεί, παραβλέποντας την έλλειψη επικύρωσης δεδομένων. Οι καταναλωτές τείνουν να υποθέτουν ότι η λειτουργικότητα της τεχνητής νοημοσύνης και η έξοδος δεδομένων είναι σωστά, ενώ μπορεί να μην είναι. Όταν η τεχνητή νοημοσύνη χρησιμοποιείται στην υγειονομική περίθαλψη, αυτό μπορεί να οδηγήσει σε εσφαλμένη διάγνωση και παρερμηνεία. Επομένως, κατά την ανάπτυξη της τεχνολογίας AI, είναι σημαντικό να παρέχετε δεδομένα επικύρωσης για να διασφαλιστεί ότι η τεχνητή νοημοσύνη παρέχει ακριβή αποτελέσματα. Στον κλάδο της υγειονομικής περίθαλψης υπάρχουν πρότυπα για την επικύρωση δεδομένων που δεν έχουν ακόμη εφαρμοστεί στην τεχνητή νοημοσύνη. Η τεχνητή νοημοσύνη δεν θα πρέπει να εξαιρείται από το ίδιο επίπεδο ανάλυσης επικύρωσης για να καθοριστεί εάν το εργαλείο φτάνει στην κατηγορία κλινικού βαθμού. Αυτή η μελέτη υπογραμμίζει τη σημασία του πρόσφατου Κανόνας διαφάνειας (HT-1) που βοηθά στη διευκόλυνση των δεδομένων επικύρωσης και της διαφάνειας.[5]
Η μελέτη έδειξε ότι χωρίς υποκείμενα δεδομένα διαφάνειας και επικύρωσης, οι χρήστες αγωνίζονται να αξιολογήσουν τα αποτελέσματα που παρέχει η τεχνολογία AI. Συνολικά, είναι σημαντικό να επικυρωθεί η τεχνολογία AI για τη σωστή ταξινόμηση και κατηγοριοποίησή της, επιτρέποντας στους χρήστες να κρίνουν ποια αξία θα αποδώσουν στα αποτελέσματα της τεχνητής νοημοσύνης.
Καθώς η ανάπτυξη και η ανάπτυξη της τεχνητής νοημοσύνης μεγαλώνει, οι οργανισμοί υγειονομικής περίθαλψης πρέπει να είναι προετοιμασμένοι. Η ηγεσία του οργανισμού υγειονομικής περίθαλψης θα πρέπει να δημιουργήσει επιτροπές και ομάδες εργασίας για την επίβλεψη της διακυβέρνησης και της συμμόρφωσης με την τεχνητή νοημοσύνη και την αντιμετώπιση των μυριάδων ζητημάτων που προκύπτουν από τη χρήση της τεχνητής νοημοσύνης σε ένα περιβάλλον υγειονομικής περίθαλψης. Αυτή η επίβλεψη μπορεί να βοηθήσει στην αντιμετώπιση των περίπλοκων προκλήσεων και ηθικών κριτηρίων που περιβάλλουν τη χρήση της τεχνητής νοημοσύνης στην υγειονομική περίθαλψη και να διευκολύνει την υπεύθυνη ανάπτυξη τεχνητής νοημοσύνης με γνώμονα το απόρρητο, διατηρώντας παράλληλα τα ηθικά ζητήματα στην πρώτη γραμμή. Το τμήμα AI του PrivacyCon της FTC βοήθησε στην ευαισθητοποίηση σχετικά με ορισμένα από αυτά τα ζητήματα, υπενθυμίζοντας τη σημασία της διαφάνειας, της συναίνεσης, της επικύρωσης και της ασφάλειας. Συνολικά, οι προτάσεις παρουσίασης υπογραμμίζουν τις πολύπλευρες προκλήσεις και τις εκτιμήσεις που προκύπτουν με την ενσωμάτωση των τεχνολογιών τεχνητής νοημοσύνης στην υγειονομική περίθαλψη.
ΥΠΟΣΗΜΕΙΩΣΕΙΣ
[1] Carolyn Metnick και Carolyn Young, SheppardMullin Healthcare Law Blog, Healthcare Highlights από το PrivacyCon της FTC 2024 (5 Απριλίου 2024).
[2] Aaron Sedley, Allison Woodruff, Celestina Cornejo, Ellie S. Jin, Kurt Thomas, Lisa Hayes, Patrick G. Kelley και Yongwei Yang, “Θα υπάρξει λιγότερη ιδιωτικότητα φυσικά”: Το πώς και γιατί οι άνθρωποι σε 10 χώρες περιμένουν AI θα επηρεάσει ιδιωτικότητα στο μέλλον.
[3] Franziska Roesner, Tadayoshi Kohno και Umar Iqbal, LLM Platform Security: Εφαρμογή ενός πλαισίου συστηματικής αξιολόγησης στις προσθήκες ChatGPT του OpenAI.
[4] Batul A. Yawer, Julie Liss και Visar Berisha, Scientific Reports, Αξιοπιστία και εγκυρότητα ενός ευρέως διαθέσιμου εργαλείου AI για την αξιολόγηση του άγχους με βάση την ομιλία (2023).
[5] Το Υπουργείο Υγείας και Ανθρωπίνων Υπηρεσιών των ΗΠΑ, το HHS οριστικοποιεί τον κανόνα για την προώθηση της διαλειτουργικότητας πληροφορικής και της διαφάνειας αλγορίθμων υγείας (13 Δεκεμβρίου 2023). Δείτε επίσης Carolyn Metnick και Michael Sutton, Sheppard Mullin’s Eye on Privacy Blog, Out in the Open: Ο νέος κανόνας διαφάνειας της τεχνητής νοημοσύνης του HHS (21 Μαρ. 2024).