ΕΝΑ Η startup ισχυρίζεται ότι μπορεί να βοηθήσει στην προστασία εκατομμυρίων ανθρώπων από την απώλεια χρημάτων ενισχυμένη με τεχνητή νοημοσύνη ρομποτικές κάμερες.
Η αυγή της προσβάσιμης γενετικής τεχνητής νοημοσύνης έχει αυξήσει τον φόβο απατεώνες εξαπατώντας τα θύματα να δώσουν τις προσωπικές τους πληροφορίες δημιουργώντας βαθιές πλαστές ή αναπαράγοντας τις φωνές ανθρώπων με σκοπό να εξαπατήσουν.
ΟΙΚΙΑΚΕΣ ΟΙΚΟΝΟΜΙΚΕΣ: Η ΕΝΑΛΛΑΚΤΙΚΗ ΣΤΗΝ ΥΠΟΘΗΚΗ ΜΕ ΤΑ ΥΨΗΛΑ ΕΠΙΤΟΚΙΑ
Η Pindrop, μια startup αφιερωμένη στον έλεγχο ταυτότητας φωνής, ισχυρίζεται ότι διαθέτει την τεχνογνωσία και την τεχνολογία για να επαληθεύσει την ταυτότητα ενός χρήστη και να αλλάξει τους πελάτες σε περιεχόμενο που δημιουργείται από προγράμματα AI. Vijay Balasubramaniyan, Διευθύνων Σύμβουλος της Pindrop, εμφανίστηκε ενώπιον του Κογκρέσου την Τετάρτη για να μιλήσει για την απειλή των deepfakes και τα προστατευτικά κάγκελα που έπρεπε να εφαρμόσει το Κογκρέσο για την καταπολέμησή τους. Ενώ πολλοί από τους συμμετέχοντες στο πάνελ επικεντρώθηκαν στην «υπερπληροφορία» ή στην πολιτική παραπληροφόρηση, ο Μπαλασουμπραμανιάν τόνισε τις άμεσες επιζήμιες συνέπειες των deepfakes.
«Βασικά, το θέμα ήταν ότι τα deepfakes σπάνε το εμπόριο επειδή οι επιχειρήσεις δεν μπορούν να εμπιστευτούν ποιος βρίσκεται στην άλλη άκρη», είπε ο Balasubramaniyan. Washington Examiner. “Είναι άνθρωπος ή μηχανή; Τα Deepfakes σπάνε πληροφορίες γιατί δεν μπορείς να εμπιστευτείς αν ήταν Sen. [Chuck] Ο Σούμερ λέει κάτι ή ο Τομ Χανκς πουλάει διαφημίσεις οδοντιατρικών προγραμμάτων ή όχι. Και μετά τα deepfakes διακόπτουν κάθε επικοινωνία γιατί αν είμαι παππούς και γιαγιά και δεν ξέρω αν είναι τα εγγόνια μου, δεν ξέρω ποιον να εμπιστευτώ».
Η Pindrop ιδρύθηκε το 2015 από τους Balasubramaniyan, Ahamad Mustaque και Paul Judge σε μια προσπάθεια προσαρμογής του Ph.D του 2011 του CEO. ΠΤΥΧΙΑΚΗ ΕΡΓΑΣΙΑ σε ένα προϊόν με δυνατότητα δράσης. Ο Balasubramaniyan ολοκλήρωσε το μεταπτυχιακό του έργο στο Ινστιτούτο Τεχνολογίας της Τζόρτζια, όπου επικεντρώθηκε στον εντοπισμό χαρακτηριστικών στις φωνητικές κλήσεις που θα μπορούσαν να επαληθεύσουν την ταυτότητα ενός χρήστη. Ο Διευθύνων Σύμβουλος ανακάλυψε πολλά χαρακτηριστικά ήχου που μπορούν να βοηθήσουν στη δημιουργία ενός «δακτυλικού αποτυπώματος» φωνής που μπορεί να αναγνωρίσει αν είναι αληθινό. Για παράδειγμα, μπορεί να καθορίσει εάν μια κλήση προέρχεται από το τηλέφωνο ενός συγκεκριμένου χρήστη ή μπορεί να αναγνωρίσει στοιχεία στον ήχο που μπορούν να αναπαραχθούν μόνο από το “σχήμα ολόκληρου του φωνητικού σας σωλήνα”, είπε ο Διευθύνων Σύμβουλος.
Η εκκίνηση βρίσκεται στα πρώτα της χρόνια, αλλά έχει συνεργασίες με πολλές εταιρείες μεγάλης τεχνολογίας, συμπεριλαμβανομένων των Google Cloud και Amazon Web Services, είπε η εταιρεία. Η Pindrop δεν ήθελε να πει πόσους χρήστες είχε, αλλά ισχυρίζεται ότι συνεργάζεται με οκτώ από τις 10 κορυφαίες τράπεζες και πιστωτικές ενώσεις στις Ηνωμένες Πολιτείες, 14 από τις 20 κορυφαίες ασφαλιστικές εταιρείες και τρεις από τις πέντε κορυφαίες χρηματιστηριακές εταιρείες. Το λογισμικό της Pindrop έχει επίσης αναλύσει περισσότερες από 5,3 δισεκατομμύρια κλήσεις και έχει αποτρέψει απώλειες 2,3 δισεκατομμυρίων δολαρίων από απάτη, δήλωσε εκπρόσωπος στο Washington Examiner.
Το Pindrop χρησιμοποιείται μόνο από εμπορικές εταιρείες, αλλά ο Balasubramaniyan είπε ότι μίλησε με πολλά μέλη του Κογκρέσου σχετικά με την κυβέρνηση που χρησιμοποιεί τις υπηρεσίες του.
Η τεχνητή νοημοσύνη είναι ένα πεδίο που αλλάζει γρήγορα, γεγονός που καθιστά δύσκολο για τους «ελεγκτές δεδομένων» της τεχνητής νοημοσύνης να συμβαδίσουν. Ο Pindrop λέει ότι είναι ενημερωμένο αρκετά καλά. Όταν η Microsoft κυκλοφόρησε το μοντέλο μεγάλης γλώσσας VALL-E, το Pindrop ισχυρίστηκε μπορούσε να αναγνωρίσει το λογισμικό στο 99% των περιπτώσεων.
Η απάτη που βασίζεται σε Deepfake είναι ένα μακροχρόνιο πρόβλημα. Η τεχνολογία εξετάστηκε ενώπιον του Κογκρέσου το καλοκαίρι, όταν η Επιτροπή Δικαιοσύνης της Γερουσίας φιλοξενείται ακρόαση για την τεχνητή νοημοσύνη και τα ανθρώπινα δικαιώματα. Η Jennifer Destefano εμφανίστηκε ενώπιον της επιτροπής, όπου είπε την ιστορία για το πώς της απέσπασαν σχεδόν 50.000 δολάρια από απατεώνες χρησιμοποιώντας έναν φωνητικό κλώνο της κόρης της που δημιουργήθηκε από AI.
«Δεν ήταν μόνο η φωνή της, ήταν τα κλάματά της, ήταν οι λυγμοί της», Ντεστέφνο είπε στο Κογκρέσο. Η μητέρα παραλίγο να δεχτεί την κλήση μέχρι που ο σύζυγός της της είπε ότι η κόρη τους ήταν ασφαλής και μαζί του.
ΚΑΝΤΕ ΚΛΙΚ ΕΔΩ ΓΙΑ ΝΑ ΔΙΑΒΑΣΕΤΕ ΠΕΡΙΣΣΟΤΕΡΑ ΑΠΟ ΤΟΝ ΕΞΕΤΑΣΤΗ ΤΗΣ ΟΥΑΣΙΝΓΚΤΟΝ
Οι ηλικιωμένοι έχουν στοχοποιηθεί ειδικά με deepfakes. Γερουσιαστής Mike Braun (R-IN) έστειλε επιστολή προς την Ομοσπονδιακή Επιτροπή Εμπορίου τον Μάιο, προειδοποιώντας για κλώνους φωνής και chatbot που επιτρέπουν στους απατεώνες να ξεγελούν ηλικιωμένους πολίτες ώστε να νομίζουν ότι μιλούν με συγγενή ή στενό φίλο. «Σε μια περίπτωση, ένας απατεώνας χρησιμοποίησε αυτή την προσέγγιση για να πείσει ένα ηλικιωμένο ζευγάρι ότι ο απατεώνας ήταν εγγονός τους που χρειαζόταν απεγνωσμένα χρήματα για να βγάλει εγγύηση και το ζευγάρι σχεδόν έχασε 9.400 δολάρια προτού ένας υπάλληλος της τράπεζας τους ειδοποιήσει για πιθανή απάτη», αναφέρει η επιστολή. ανάγνωση.
Οι επιχειρήσεις έχουν επίσης αναφέρει ότι χτυπήθηκαν από ψεύτικες φωνές, με το 37% των παγκόσμιων εταιρειών αναφοράς ότι χτυπήθηκαν με απόπειρες πρόσβασης στις ιστοσελίδες τους με πλαστές φωνές, σύμφωνα με έρευνα της υπηρεσίας επαλήθευσης ταυτότητας Regula.