Μετα
4 ώρες πριν
Από τον Stefano Fratta, Global Engagement Director, Meta Privacy Policy
Για χρόνια, εργαζόμαστε σκληρά για να δημιουργήσουμε την επόμενη γενιά λειτουργιών AI σε όλη την οικογένεια εφαρμογών και συσκευών μας. Και φέτος, σκοπεύουμε να επεκτείνουμε την τεχνητή νοημοσύνη στο Meta – τη συλλογή μας από παραγωγικές δυνατότητες και εμπειρίες τεχνητής νοημοσύνης μαζί με τα μοντέλα που τις τροφοδοτούν – στους ανθρώπους στην Ευρώπη.
Το AI στο Meta είναι ήδη διαθέσιμο σε άλλα μέρη του κόσμου. Αυτό περιλαμβάνει Είδος μικρής καμήλας – το υπερσύγχρονο μοντέλο ανοιχτού κώδικα μεγάλης γλώσσας – και ο βοηθός Meta AI – ο πιο έξυπνος βοηθός AI που μπορείτε να χρησιμοποιήσετε δωρεάν. Για να εξυπηρετηθούν σωστά οι ευρωπαϊκές μας κοινότητες, τα μοντέλα που τροφοδοτούν την τεχνητή νοημοσύνη στο Meta πρέπει να εκπαιδεύονται σε σχετικές πληροφορίες που αντικατοπτρίζουν τις διαφορετικές γλώσσες, τη γεωγραφία και τις πολιτιστικές αναφορές των ανθρώπων στην Ευρώπη που θα τα χρησιμοποιήσουν. Για να το κάνουμε αυτό, θέλουμε να εκπαιδεύσουμε τα μεγάλα γλωσσικά μας μοντέλα που ενισχύουν τις λειτουργίες AI χρησιμοποιώντας το περιεχόμενο που οι άνθρωποι στην ΕΕ έχουν επιλέξει να μοιραστούν δημόσια στα προϊόντα και τις υπηρεσίες της Meta.
Εάν δεν εκπαιδεύσουμε τα μοντέλα μας στο δημόσιο περιεχόμενο που μοιράζονται οι Ευρωπαίοι στις υπηρεσίες μας και σε άλλα, όπως δημόσιες αναρτήσεις ή σχόλια, τότε τα μοντέλα και οι λειτουργίες τεχνητής νοημοσύνης που διαθέτουν δεν θα κατανοούν με ακρίβεια σημαντικές τοπικές γλώσσες, πολιτισμούς ή μοντέρνα θέματα. μεσα ΚΟΙΝΩΝΙΚΗΣ ΔΙΚΤΥΩΣΗΣ. Πιστεύουμε ότι οι Ευρωπαίοι θα υπηρετηθούν άσχημα από μοντέλα τεχνητής νοημοσύνης που δεν ενημερώνονται από την πλούσια πολιτιστική, κοινωνική και ιστορική συνεισφορά της Ευρώπης.
Η Meta δεν είναι η πρώτη εταιρεία που το κάνει αυτό – ακολουθούμε το παράδειγμα που έθεσαν άλλοι, συμπεριλαμβανομένης της Google και OpenAI, και οι δύο έχουν ήδη χρησιμοποιήσει δεδομένα από ευρωπαίους χρήστες για την εκπαίδευση της τεχνητής νοημοσύνης. Η προσέγγισή μας είναι πιο διαφανής και προσφέρει ευκολότερους ελέγχους από ό,τι πολλοί από τους ομολόγους μας του κλάδου που ήδη εκπαιδεύουν τα μοντέλα τους σε παρόμοιες διαθέσιμες στο κοινό πληροφορίες.
Δεσμευόμαστε να αναπτύσσουμε την τεχνητή νοημοσύνη με υπευθυνότητα και διαφάνεια
Η δημιουργία αυτής της τεχνολογίας συνεπάγεται την ευθύνη ανάπτυξης βέλτιστων πρακτικών και πολιτικών που συμμορφώνονται με τους τοπικούς νόμους και κανονισμούς. Σύμφωνα με αυτή τη δέσμευση, βρισκόμαστε σε διαβούλευση με την κύρια ρυθμιστική αρχή απορρήτου μας στην ΕΕ, την Ιρλανδική Επιτροπή Προστασίας Δεδομένων, και έχουμε ενσωματώσει τα σχόλιά τους μέχρι σήμερα για να διασφαλίσουμε ότι ο τρόπος με τον οποίο εκπαιδεύουμε την τεχνητή νοημοσύνη στη Meta συμμορφώνεται με τους νόμους περί απορρήτου της ΕΕ. Συνεχίζουμε επίσης να εργαζόμαστε με ειδικούς, όπως ακαδημαϊκούς και υποστηρικτές των καταναλωτών, για να διασφαλίσουμε ότι αυτό που κατασκευάζουμε ακολουθεί τις βέλτιστες πρακτικές.
Θέλουμε να είμαστε διαφανείς με τους ανθρώπους, ώστε να γνωρίζουν τα δικαιώματά τους και τους ελέγχους που έχουν στη διάθεσή τους. Γι’ αυτό, από τις 22 Μαΐου, έχουμε στείλει περισσότερες από δύο δισεκατομμύρια ειδοποιήσεις εντός εφαρμογής και email σε άτομα στην Ευρώπη για να εξηγήσουμε τι κάνουμε. Αυτές οι ειδοποιήσεις περιέχουν έναν σύνδεσμο προς μια φόρμα ένστασης που δίνει στους χρήστες την ευκαιρία να αντιταχθούν στη χρήση των δεδομένων τους στις προσπάθειές μας για μοντελοποίηση τεχνητής νοημοσύνης.
Κατά την ανάπτυξη των ειδοποιήσεών μας, εξετάσαμε την προσέγγιση των ομολόγων μας στον κλάδο, καθώς και τις προηγούμενες ειδοποιήσεις ενημέρωσης πολιτικής. Ως αποτέλεσμα, κάναμε τη φόρμα μας πιο εύκολη στην εύρεση, ανάγνωση και χρήση από εκείνες που προσφέρουν άλλες εταιρείες που προσφέρουν τεχνητή νοημοσύνη στην ΕΕ: είναι προσβάσιμη με μόλις τρία κλικ και απαιτεί λιγότερα πεδία για να συμπληρωθούν. Για να βοηθήσουμε περαιτέρω την κατανόηση, το σχεδιάσαμε επίσης ώστε να είναι πιο προσιτό σε άτομα με χαμηλότερη ηλικία ανάγνωσης, παρόλο που δεν εκπαιδεύουμε τα μοντέλα μας Llama σε περιεχόμενο από λογαριασμούς Ευρωπαίων κάτω των 18 ετών.
Τιμούμε όλες τις ευρωπαϊκές αντιρρήσεις. Εάν υποβληθεί ένα έντυπο ένστασης πριν από την έναρξη της εκπαίδευσης στο Llama, τότε τα δεδομένα αυτού του ατόμου δεν θα χρησιμοποιηθούν για την εκπαίδευση αυτών των μοντέλων, είτε στον τρέχοντα κύκλο εκπαίδευσης είτε στο μέλλον.
Για να είμαστε σαφείς, στόχος μας είναι να δημιουργήσουμε χρήσιμες λειτουργίες με βάση τις πληροφορίες που έχουν επιλέξει να μοιραστούν δημόσια άτομα άνω των 18 στην Ευρώπη στα προϊόντα και τις υπηρεσίες της Meta, όπως δημόσιες αναρτήσεις, δημόσια σχόλια ή δημόσιες φωτογραφίες και υπότιτλους τους. Τα μοντέλα μπορεί να εκπαιδεύονται σε δημοσίως κοινοποιημένες αναρτήσεις ανθρώπων, αλλά δεν είναι μια βάση δεδομένων με τις πληροφορίες κάθε ατόμου ούτε έχει σχεδιαστεί για την αναγνώριση οποιουδήποτε ατόμου. Αντίθετα, αυτά τα μοντέλα χτίζονται εξετάζοντας τις πληροφορίες των ανθρώπων για τον εντοπισμό μοτίβων, όπως η κατανόηση των καθομιλουμένων φράσεων ή των τοπικών αναφορών, όχι για την αναγνώριση ενός συγκεκριμένου ατόμου ή των πληροφοριών του.
Οπως και είπαμε, δεν χρησιμοποιούμε προσωπικά μηνύματα ανθρώπων με φίλους και συγγενείς για να εκπαιδεύσουμε τα συστήματά μας AI. Στο μέλλον, αναμένουμε να χρησιμοποιήσουμε άλλο περιεχόμενο, όπως αλληλεπιδράσεις με λειτουργίες τεχνητής νοημοσύνης ή συνομιλίες με μια επιχείρηση που χρησιμοποιεί τεχνητή νοημοσύνη στο Meta AI.
Όπως πολλοί αντίστοιχοι του κλάδου που έχουν έρθει πριν από εμάς στην εκπαίδευση μεγάλων γλωσσικών μοντέλων χρησιμοποιώντας δεδομένα Ευρωπαίων, για να κάνουμε αυτή τη δουλειά στην ΕΕ, θα βασιστούμε σε μια νομική βάση «Νόμιμων Συμφερόντων» για να συμμορφωθούμε με τον Γενικό Κανονισμό Προστασίας Δεδομένων της ΕΕ (GDPR). ). Πιστεύουμε ότι αυτή η νομική βάση είναι η πιο κατάλληλη ισορροπία για την επεξεργασία δημόσιων δεδομένων στην κλίμακα που απαιτείται για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης, με σεβασμό των δικαιωμάτων των ανθρώπων.
Νιώθουμε ευθύνη να δημιουργήσουμε τεχνητή νοημοσύνη που δεν επιβάλλεται στους Ευρωπαίους αλλά στην πραγματικότητα έχει κατασκευαστεί για αυτούς. Για να το κάνουμε αυτό σεβόμενοι τις επιλογές των ευρωπαίων χρηστών, πιστεύουμε ότι το σωστό είναι να τους ενημερώσουμε για τα σχέδιά μας και να τους δώσουμε την επιλογή να μας πουν εάν δεν θέλουν να συμμετάσχουν. Και πιστεύουμε ότι ο καλύτερος τρόπος για να επιτευχθεί αυτή η ισορροπία είναι οι εταιρείες να είναι διαφανείς σχετικά με τις πληροφορίες που χρησιμοποιούν οι AI τους παρέχοντας στους χρήστες εμφανή στοιχεία ελέγχου για να εξαιρεθούν από αυτές τις χρήσεις, εάν αυτό είναι η προτίμησή τους. Αυτό ακριβώς κάναμε.
Η Ευρώπη βρίσκεται σε ένα σταυροδρόμι
Καθώς η Ευρώπη βρίσκεται στο κατώφλι της επόμενης σημαντικής τεχνολογικής εξέλιξης της κοινωνίας, ορισμένοι ακτιβιστές υποστηρίζουν ακραίες προσεγγίσεις στα δεδομένα και την τεχνητή νοημοσύνη. Ας είμαστε ξεκάθαροι: αυτές οι θέσεις δεν αντικατοπτρίζουν το ευρωπαϊκό δίκαιο και ισοδυναμούν με ένα επιχείρημα ότι οι Ευρωπαίοι δεν πρέπει να έχουν πρόσβαση – ή να εξυπηρετούνται σωστά από – τεχνητή νοημοσύνη που έχει ο υπόλοιπος κόσμος. Διαφωνούμε βαθύτατα με αυτό το αποτέλεσμα.
Ως μία από τις περιοχές με τη μεγαλύτερη επιρροή στον κόσμο, η Ευρώπη έχει τη δυνατότητα να είναι ανταγωνιστικός ηγέτης στην καινοτομία τεχνητής νοημοσύνης. Ωστόσο, παραμένουν ερωτήματα: θα έχουν οι Ευρωπαίοι ίση πρόσβαση στην πρωτοποριακή τεχνητή νοημοσύνη; Οι εμπειρίες AI θα αντικατοπτρίζουν τον πολιτισμό, το χιούμορ και την ιστορία μας; Ή μήπως η Ευρώπη θέλει να παρακολουθεί καθώς ο υπόλοιπος κόσμος επωφελείται από την πραγματικά καινοτόμο τεχνολογία που χτίζει την κοινότητα και οδηγεί στην ανάπτυξη;
Η τεχνητή νοημοσύνη είναι το επόμενο σύνορο στην καινοτομία. Ζούμε σε μια από τις πιο συναρπαστικές τεχνολογικές στιγμές μιας γενιάς, όπου οι ανακαλύψεις συμβαίνουν μπροστά στα μάτια μας και οι δυνατότητες είναι ατελείωτες. Και στο Meta, θέλουμε οι Ευρωπαίοι να είναι μέρος του.