Τα τελευταία χρόνια παρατηρείται αυξανόμενη ανησυχία μεταξύ των υπευθύνων χάραξης πολιτικής και του κοινού σχετικά με το «εξηγησιμότητα” των συστημάτων τεχνητής νοημοσύνης. Καθώς η τεχνητή νοημοσύνη γίνεται πιο προηγμένη και εφαρμόζεται σε τομείς όπως η υγειονομική περίθαλψη, οι προσλήψεις και η ποινική δικαιοσύνη, ορισμένοι ζητούν αυτά τα συστήματα να είναι πιο διαφανή και ερμηνεύσιμα. Ο φόβος είναι ότι η φύση του «μαύρου κουτιού» των σύγχρονων μοντέλων μηχανικής μάθησης τα καθιστά ακαταλόγιστα και δυνητικά επικίνδυνα.
Ενώ η επιθυμία για επεξήγηση της τεχνητής νοημοσύνης είναι κατανοητή, η σημασία της συχνά υπερεκτιμάται. Ο ίδιος ο όρος είναι κακώς ορισμένος— ποια ακριβώς κριτήρια καθιστούν ένα σύστημα εξηγήσιμο παραμένει ασαφές. Το πιο σημαντικό, η έλλειψη επεξήγησης δεν καθιστά απαραίτητα ένα σύστημα τεχνητής νοημοσύνης αναξιόπιστο ή ανασφαλές.
Είναι αλήθεια ότι ακόμη και οι δημιουργοί προηγμένων μοντέλων βαθιάς μάθησης δεν μπορούν να διατυπώσουν πλήρως πώς αυτά τα μοντέλα μετατρέπουν τις εισροές σε εκροές. Οι περιπλοκές ενός νευρωνικού δικτύου που εκπαιδεύονται σε εκατομμύρια παραδείγματα είναι απλώς πολύ περίπλοκες για να τις κατανοήσει πλήρως ο ανθρώπινος νους. Αλλά το ίδιο θα μπορούσαμε να πούμε για αμέτρητες άλλες τεχνολογίες που χρησιμοποιούμε καθημερινά.
Δεν κατανοούμε πλήρως τις κβαντομηχανικές αλληλεπιδράσεις στις οποίες βασίζονται οι διαδικασίες χημικής παραγωγής ή η κατασκευή ημιαγωγών. Και όμως αυτό δεν μας εμποδίζει να επωφεληθούμε από τα φαρμακευτικά προϊόντα και τα μικροτσίπ που παράγονται χρησιμοποιώντας αυτή τη μερική γνώση. Αυτό που μας ενδιαφέρει είναι τα αποτελέσματα να επιτύχουν τους στόχους τους και να είναι αξιόπιστα.
Όταν πρόκειται για συστήματα τεχνητής νοημοσύνης υψηλού πονταρίσματος, θα πρέπει να επικεντρωθούμε πρώτα και κύρια στη δοκιμή τους για να επικυρώσουμε την απόδοσή τους και να διασφαλίσουμε ότι συμπεριφέρονται όπως προβλέπεται. Η διερεύνηση ενός αλγόριθμου ποινικής καταδίκης για να κατανοήσει ακριβώς πώς συνδυάζει εκατοντάδες χαρακτηριστικά είναι λιγότερο σημαντική από την αξιολόγηση της εμπειρικής του ακρίβειας στην πρόβλεψη των ποσοστών υποτροπής μεταξύ πρώην μειονεκτημάτων.
Ένα αναδυόμενο πεδίο ονομάζεται Ερμηνευσιμότητα AI στοχεύει να ανοίξει σε κάποιο βαθμό το μαύρο κουτί της βαθιάς μάθησης. Η έρευνα σε αυτόν τον τομέα έχει αποδώσει τεχνικές για τον εντοπισμό ποια χαρακτηριστικά εισόδου είναι πιο σημαντικά στον προσδιορισμό των προβλέψεων ενός μοντέλου και για τον χαρακτηρισμό του τρόπου με τον οποίο οι πληροφορίες ρέουν μέσα από τα στρώματα ενός τεχνητού νευρωνικού δικτύου. Με την πάροδο του χρόνου, θα αποκτήσουμε μια σαφέστερη εικόνα του τρόπου με τον οποίο αυτά τα μοντέλα επεξεργάζονται δεδομένα για να φτάσουν σε αποτελέσματα.
Ωστόσο, δεν πρέπει να περιμένουμε τα συστήματα AI να είναι ποτέ πλήρως εξηγήσιμα με τον τρόπο που μπορεί να είναι μια απλή εξίσωση ή ένα δέντρο αποφάσεων. Τα πιο ισχυρά μοντέλα θα συνεπάγονται πιθανώς πάντα κάποιο επίπεδο μη μειωμένης πολυπλοκότητας. Και αυτό είναι εντάξει. Μεγάλο μέρος της ανθρώπινης γνώσης είναι σιωπηρός και δύσκολο να εκφραστεί – ένας γκραν μάστερ του σκακιού δεν μπορεί να εξηγήσει πλήρως τη στρατηγική του διαίσθηση και ένας επιδέξιος ζωγράφος δεν μπορεί να διατυπώσει πλήρως την πηγή έμπνευσής του. Αυτό που έχει σημασία είναι ότι τα τελικά αποτελέσματα των προσπαθειών τους εκτιμώνται από τους ίδιους και τους άλλους.
Πράγματι, πρέπει να προσέχουμε να μην φετιχοποιούμε την επεξήγηση εις βάρος άλλων προτεραιοτήτων. Μια τεχνητή νοημοσύνη που μπορεί να ερμηνευτεί εύκολα από έναν άνθρωπο δεν είναι απαραίτητα πιο στιβαρή ή αξιόπιστη από ένα μοντέλο μαύρου κουτιού. Μπορεί ακόμη και να υπάρξουν αντισταθμίσεις μεταξύ απόδοσης και επεξήγησης. Ο Μάικλ Τζόρνταν μπορεί να μην είναι σε θέση να εξηγήσει τις περίπλοκες λεπτομέρειες για το πώς οι μύες, τα νεύρα και τα οστά του συντονίστηκαν για να εκτελέσουν ένα slam dunk από τη γραμμή των ελεύθερων βολών. Ωστόσο, μπόρεσε να εκτελέσει αυτό το εντυπωσιακό κατόρθωμα ανεξάρτητα.
Τελικά, ένα σύστημα τεχνητής νοημοσύνης θα πρέπει να αξιολογηθεί με βάση τον αντίκτυπό του στον πραγματικό κόσμο. Ένα μοντέλο πρόσληψης που είναι αδιαφανές αλλά πιο ακριβές στην πρόβλεψη της απόδοσης των εργαζομένων είναι προτιμότερο από ένα διαφανές μοντέλο βασισμένο σε κανόνες που συνιστά τεμπέληδες εργαζόμενους. Αξίζει να αναπτυχθεί ένας αλγόριθμος ανίχνευσης όγκου που δεν μπορεί να εξηγηθεί, αλλά συλλαμβάνει τους καρκίνους πιο αξιόπιστα από τους γιατρούς. Θα πρέπει να προσπαθήσουμε να κάνουμε τα συστήματα τεχνητής νοημοσύνης ερμηνεύσιμα όπου είναι δυνατόν, αλλά όχι με το κόστος των οφελών που προσφέρουν.
Φυσικά, αυτό δεν σημαίνει ότι η τεχνητή νοημοσύνη θα πρέπει να είναι ακαταλόγιστη. Οι προγραμματιστές θα πρέπει να δοκιμάζουν εκτενώς τα συστήματα τεχνητής νοημοσύνης, να επικυρώνουν την απόδοσή τους στον πραγματικό κόσμο και να προσπαθούν να τα ευθυγραμμίσουν με τις ανθρώπινες αξίες, ειδικά πριν τα απελευθερώσουν στον ευρύτερο κόσμο. Αλλά δεν πρέπει να αφήσουμε τις αφηρημένες έννοιες της επεξηγηματικότητας να αποσπούν την προσοχή, πόσο μάλλον να αποτελούν εμπόδιο, για να συνειδητοποιήσουμε τις τεράστιες δυνατότητες της τεχνητής νοημοσύνης να βελτιώσουμε τη ζωή μας.
Με τις κατάλληλες προφυλάξεις που λαμβάνονται, ακόμη και ένα μοντέλο μαύρου κουτιού μπορεί να είναι ένα ισχυρό εργαλείο για τα καλά. Τελικά, σημασία έχει το αποτέλεσμα και όχι το αν μπορεί να εξηγηθεί η διαδικασία που έδωσε το αποτέλεσμα.