Μια πιο ηθική κοινωνία μπορεί να οικοδομηθεί αν επανεξετάσουμε τον τρόπο που σχεδιάζουμε την τεχνολογία και την Τεχνητή Νοημοσύνη.
Οι Τρεις Νόμοι της Ρομποτικής, που δηλώνουν ότι ένα ρομπότ δεν μπορεί να βλάψει ή να επιτρέψει σε έναν άνθρωπο να βλάψει, πρέπει να υπακούει στις εντολές που δίνουν τα ανθρώπινα όντα και πρέπει να προστατεύει την ύπαρξή του, ορίστηκαν από τον Isaac Asimov πριν από 80 χρόνια, πολύ πριν από την Τεχνητή Η ευφυΐα έγινε πραγματικότητα. Παρόλα αυτά, εξακολουθούν να είναι σε θέση να απεικονίσουν πώς οι άνθρωποι έχουν αντιμετωπίσει τις ηθικές προκλήσεις της τεχνολογίας προστατεύοντας τους χρήστες.
Οι ηθικές προκλήσεις που σχετίζονται με την τεχνολογία δεν αφορούν εγγενώς την ίδια την τεχνολογία, αλλά είναι μάλλον ένα κοινωνικό πρόβλημα. Η τεχνολογία, επομένως, και ειδικότερα η Τεχνητή Νοημοσύνη, θα μπορούσε να χρησιμοποιηθεί για να ενδυναμώσει τους χρήστες και να μας βοηθήσει να οικοδομήσουμε μια πιο ηθική κοινωνία.
Αυτή η προσέγγιση, που παρουσιάζεται στο άρθρο, «Ηθικός ιδεαλισμός, τεχνολογία και πρακτική: ένα μανιφέστο», θα μας βοηθήσει να χρησιμοποιήσουμε την τεχνολογία για τη βελτίωση της κοινωνίας.
Είναι η Τεχνητή Νοημοσύνη στόχος;
Από καιρό υπήρχε ο φόβος ότι οι άνθρωποι θα κατάφερναν να κάνουν μηχανές τόσο έξυπνες που θα κατέληγαν να επαναστατήσουν εναντίον των δημιουργών τους. Ωστόσο, από τις πρώτες μέρες των τεχνολογιών υπολογιστών και δεδομένων στη δεκαετία του 1960, αυτό δεν αποτελούσε κεντρική ανησυχία.
«Υπήρχε η πεποίθηση ότι, επειδή τα δεδομένα ήταν αντικειμενικά και επιστημονικά, οι πληροφορίες που θα προέκυπταν θα ήταν αληθινές και υψηλής ποιότητας. Προέκυψε από έναν αλγόριθμο με τον ίδιο τρόπο που προκύπτει κάτι από έναν μαθηματικό υπολογισμό. Η Τεχνητή Νοημοσύνη ήταν αντικειμενική και επομένως μας βοήθησε να εξαλείψουμε την ανθρώπινη προκατάληψη», εξήγησε η Joan Casas-Roma, ερευνήτρια στο Ανοικτό Πανεπιστήμιο της Καταλονίας και συγγραφέας της μελέτης.
Αυτό δεν συνέβη και οι επιστήμονες συνειδητοποίησαν σύντομα ότι τα δεδομένα και οι αλγόριθμοι αναπαράγουν την κοσμοθεωρία του ατόμου που χρησιμοποιούσε τα δεδομένα ή σχεδίαζε το σύστημα. Αυτό σήμαινε ότι η τεχνολογία δεν εξαλείφει τις ανθρώπινες προκαταλήψεις, αλλά απλώς τις μετέφερε σε ένα νέο μέσο.
«Με την πάροδο του χρόνου, μάθαμε ότι η Τεχνητή Νοημοσύνη δεν είναι απαραίτητα αντικειμενική και, ως εκ τούτου, οι αποφάσεις της μπορεί να είναι πολύ προκατειλημμένες. Οι αποφάσεις διαιώνισαν τις ανισότητες, αντί να τις διορθώσουν», εξήγησε ο Casas-Roma.
Όταν έγινε αντιληπτό ότι η Τεχνητή Νοημοσύνη δεν ήταν αντικειμενική, έγιναν ενέργειες για τον περιορισμό των επιβλαβών συνεπειών της. «Το ηθικό ζήτημα της Τεχνητής Νοημοσύνης προέκυψε από την ανάγκη να κατασκευαστεί μια ασπίδα έτσι ώστε οι ανεπιθύμητες επιπτώσεις της τεχνολογίας στους χρήστες να μην συνεχίσουν να διαιωνίζονται. Ήταν απαραίτητο να γίνει αυτό», είπε ο Casas-Roma.
Αντιδρώντας με αυτόν τον τρόπο, η σχέση μεταξύ τεχνολογίας και ηθικής μπορεί να διερευνηθεί σε μεγάλο βαθμό και ρίχνει φως στο πώς η τεχνολογία μπορεί να οδηγήσει την κοινωνία προς ένα πιο ηθικό μέλλον.
Η σχέση ηθικής και τεχνολογίας
Η ΕΕ στοχεύει επί του παρόντος να κινηθεί προς μια κοινωνία με μεγαλύτερη περιεκτικότητα, πιο ολοκληρωμένη και πιο συνεργατική. Για να επιτευχθεί αυτό, η τεχνολογία και η τεχνητή νοημοσύνη μπορεί να αποτελούν σημαντικά εμπόδια, αλλά εξίσου έχουν τη δυνατότητα να είναι πολύ χρήσιμες.
«Ανάλογα με το πώς σχεδιάζεται η αλληλεπίδραση των ανθρώπων με την Τεχνητή Νοημοσύνη, θα μπορούσε να προωθηθεί μια πιο συνεργατική κοινωνία», δήλωσε ο Casas-Roma.
Τα τελευταία χρόνια, η διαδικτυακή εκπαίδευση έχει απογειωθεί μαζικά. Ψηφιακή μάθηση Τα εργαλεία έχουν πολλά πλεονεκτήματα, αλλά μπορούν επίσης να αφήσουν τους χρήστες να νιώθουν απομονωμένοι.
«Η τεχνολογία θα μπορούσε να ενθαρρύνει μια μεγαλύτερη αίσθηση συνεργασίας και να δημιουργήσει μια μεγαλύτερη αίσθηση κοινότητας. Για παράδειγμα, αντί να υπάρχει ένα σύστημα που διορθώνει αυτόματα μόνο ασκήσεις, το σύστημα θα μπορούσε επίσης να στείλει ένα μήνυμα σε έναν άλλο συμμαθητή που έχει λύσει το πρόβλημα για να διευκολύνει τους μαθητές να βοηθήσουν ο ένας τον άλλον. Είναι μόνο μια ιδέα για να κατανοήσουμε πώς μπορεί να σχεδιαστεί η τεχνολογία για να μας βοηθήσει να αλληλεπιδρούμε με τρόπο που προάγει την κοινότητα και τη συνεργασία».
Η Casas-Roma πιστεύει ότι μια ηθική ιδεαλιστική προοπτική στην τεχνολογία μπορεί να δημιουργήσει νέες ευκαιρίες για την επίτευξη ηθικών οφελών για τους χρήστες και την κοινωνία στο σύνολό της. Αυτή η προσέγγιση θα πρέπει να έχει τα ακόλουθα χαρακτηριστικά.
- Επεκτατική: Η τεχνολογία θα πρέπει να σχεδιαστεί ώστε να επιτρέπει στους χρήστες της να ανθίζουν.
- Ιδεαλιστής: Ο τελικός στόχος πρέπει να είναι το πώς η τεχνολογία μπορεί να κάνει τα πράγματα καλύτερα.
- Ενεργοποίηση: Οι δυνατότητες που δημιουργεί η τεχνολογία πρέπει να ενισχύσουν την ηθική ανάπτυξη των χρηστών και των κοινωνιών.
- Μεταβλητό: Το τρέχον κοινωνικό, πολιτικό και οικονομικό τοπίο θα μπορούσε να αναδιαμορφωθεί για να επιτρέψει την πρόοδο προς μια διαφορετική ιδανική κατάσταση πραγμάτων. και
- Βασισμένη σε αρχές: Η τεχνολογία και η τεχνητή νοημοσύνη θα πρέπει να θεωρούνται ως ευκαιρία για την προώθηση συμπεριφορών, αλληλεπιδράσεων και πρακτικών που ευθυγραμμίζονται με ορισμένες επιθυμητές ηθικές αρχές.
«Δεν είναι τόσο θέμα δεδομένων ή αλγορίθμων. Είναι θέμα να ξανασκεφτούμε πώς αλληλεπιδρούμε και πώς θα θέλαμε να αλληλεπιδράσουμε, τι επιτρέπουμε μέσω μιας τεχνολογίας που επιβάλλεται ως μέσο», κατέληξε η Joan Casas-Roma.
«Αυτή η ιδέα δεν είναι τόσο μια πρόταση που αφορά τη δύναμη της τεχνολογίας, αλλά μάλλον τον τρόπο σκέψης πίσω από όποιον σχεδιάζει την τεχνολογία. Είναι ένα κάλεσμα για μια αλλαγή παραδείγματος, μια αλλαγή νοοτροπίας. Τα ηθικά αποτελέσματα της τεχνολογίας δεν είναι ένα τεχνολογικό πρόβλημα, αλλά μάλλον ένα κοινωνικό πρόβλημα. Θέτουν το πρόβλημα του πώς αλληλεπιδρούμε μεταξύ μας και με το περιβάλλον μας μέσω της τεχνολογίας».