«Οι τάσεις δεν επιβραδύνονται», είπε ο Shehan.
Την Τετάρτη, μια ακρόαση υψηλού προφίλ θα αναδείξει το θέμα καθώς οι CEOs των εταιρειών τεχνολογίας Meta, X, TikTok, Snap και Discord καταθέτουν ενώπιον της Επιτροπής Δικαιοσύνης της Γερουσίας σχετικά με τις αντίστοιχες προσπάθειές τους να καταπολεμήσουν το υλικό σεξουαλικής κακοποίησης παιδιών, γνωστό ως CSAM.
Αλλά η αποδοκιμασία του προβλήματος μπορεί να αποδειχθεί ευκολότερη από την επίλυσή του. Η διάχυτη φύση του διαδικτύου, τα νομικά ερωτήματα σχετικά με την ελευθερία του λόγου και την ευθύνη των εταιρειών τεχνολογίας και το γεγονός ότι το 90 τοις εκατό των αναφερόμενων CSAM μεταφορτώνονται από άτομα εκτός των Ηνωμένων Πολιτειών περιπλέκουν τις προσπάθειες περιορισμού του.
Οι γερουσιαστές συγκαλούν την ακρόαση καθώς προσπαθούν να δημιουργήσουν υποστήριξη για μια σειρά νομοσχεδίων που αποσκοπούν στην επέκταση της προστασίας για τα παιδιά στο Διαδίκτυο, συμπεριλαμβανομένων ένα μέτρο που θα επέτρεπε στα θύματα σεξουαλικής κακοποίησης παιδιών να μηνύσουν πλατφόρμες που διευκολύνουν την εκμετάλλευση. Ωστόσο, οι προτάσεις αντιμετώπισαν απώθηση από τους λομπίστες τεχνολογίας και ορισμένες ομάδες ψηφιακών δικαιωμάτων, οι οποίοι υποστηρίζουν ότι θα υπονόμευαν την προστασία της ιδιωτικής ζωής και θα αναγκάσουν τις πλατφόρμες να καταργήσουν ακούσια τις νόμιμες αναρτήσεις. Άλλα μέτρα επικεντρώνονται στο να δοθούν στους εισαγγελείς περισσότερα εργαλεία για να κυνηγήσουν αυτούς που διαδίδουν το CSAM.
Η πρόληψη της σεξουαλικής εκμετάλλευσης των παιδιών είναι ένα από τα σπάνια ζητήματα με τη δυνατότητα να ενώσει Ρεπουμπλικάνους και Δημοκρατικούς. Ωστόσο, με τα χρόνια, η τεχνολογία έχει ξεπεράσει τις προσπάθειες ρύθμισης. Από γυμνές φωτογραφίες εφήβων που κυκλοφόρησαν χωρίς τη συγκατάθεσή τους μέχρι γραφικά βίντεο μικρών παιδιών που δέχονται σεξουαλική επίθεση, η έκρηξη έχει τροφοδοτηθεί από την ολοένα ευρύτερη παγκόσμια διαθεσιμότητα smartphones, συσκευών παρακολούθησης, εργαλείων ιδιωτικών μηνυμάτων και μη εποπτευόμενων διαδικτυακών φόρουμ.
«Το CSAM έχει αλλάξει με τα χρόνια, όπου κάποτε παρήχθη και ανταλλάσσονταν σε μυστικά διαδικτυακά rings», είπε η Carrie Goldberg, δικηγόρος που ειδικεύεται στα σεξουαλικά εγκλήματα. «Τώρα τα περισσότερα παιδιά έχουν εργαλεία στην παλάμη των χεριών τους – δηλαδή τα δικά τους τηλέφωνα – για να τα παράγουν μόνα τους».
Όλο και περισσότερο, οι διαδικτυακοί θηρευτές το εκμεταλλεύονται αυτό υποδυόμενοι ως ερωτευμένοι συνομήλικοι σε ένα κοινωνικό δίκτυο ή εφαρμογή ανταλλαγής μηνυμάτων για να δελεάσουν τους εφήβους να στείλουν συμβιβασμούς φωτογραφίες ή βίντεο του εαυτού τους. Στη συνέχεια, τα χρησιμοποιούν ως μόχλευση για να απαιτήσουν περισσότερα παραστατικά βίντεο ή χρήματα, μια μορφή εκβιασμού που είναι γνωστή ως «εκβιασμός».
Το ανθρώπινο κόστος μπορεί να είναι σοβαρό, με ορισμένα θύματα να απάγονται, να εξαναγκάζονται σε σεξουαλική δουλεία ή να αυτοκτονούν. Πολλοί άλλοι, είπε ο Γκόλντμπεργκ, έχουν συναισθηματικά σημάδια ή ζουν με φόβο μήπως οι εικόνες ή τα βίντεό τους εκτεθούν σε φίλους, γονείς και στον ευρύτερο κόσμο. Ιδιαίτερα με προγράμματα εκβιασμού, που συχνά στοχεύουν έφηβους αγόρια, έχουν συνδεθεί τουλάχιστον μια ντουζίνα αυτοκτονίεςείπε το NCMEC πέρυσι.
Οι αναφορές για δελεασμό στο διαδίκτυο, συμπεριλαμβανομένης της εξαγοράς, αυξήθηκαν από 80.000 το 2022 σε 186.000 το 2023, είπε ο Shehan του NCMEC, το οποίο λειτουργεί ως γραφείο συμψηφισμού για αναφορές διαδικτυακών CSAM από όλο τον κόσμο. Ένας αυξανόμενος αριθμός διαπράττονται από αρπακτικά σε χώρες της Δυτικής Αφρικής, σημείωσε, συμπεριλαμβανομένης της Ακτής του Ελεφαντοστού και της Νιγηρίας, η τελευταία από τις οποίες αποτελεί εδώ και καιρό εστία για διαδικτυακές απάτες.
Παρόλο που ο δελεασμός αυξάνεται, η πλειονότητα του CSAM εξακολουθεί να παράγεται από κακοποιούς που έχουν «νόμιμη πρόσβαση στα παιδιά», είπε ο Shehan, συμπεριλαμβανομένων «γονέων και κηδεμόνων, συγγενών, μπέιμπι σίτερ και γειτόνων». Ενώ περισσότερο από το 90 τοις εκατό του CSAM που αναφέρεται στο NCMEC μεταφορτώνεται σε χώρες εκτός των Ηνωμένων Πολιτειών, η συντριπτική πλειονότητά του βρίσκεται και αναφέρεται από διαδικτυακές πλατφόρμες που εδρεύουν στις ΗΠΑ, συμπεριλαμβανομένων των Facebook και Instagram της Meta, Google, Snapchat, Discord και Τικ Τοκ.
«Σε παγκόσμιο επίπεδο, δεν υπάρχουν αρκετοί ανακριτές για να κάνουν αυτό το έργο», είπε ο Σεχάν, περιορίζοντας τη δυνατότητα εντοπισμού και δίωξης των δραστών, ειδικά στο εξωτερικό. Ταυτόχρονα, «πολλοί θα υποστήριζαν ότι δεν μπορούμε απλώς να σταματήσουμε την έξοδο μας από αυτά τα ζητήματα. Είναι επίσης στις εταιρείες τεχνολογίας που μπορούν καλύτερα να εντοπίσουν, να αφαιρέσουν και να αποτρέψουν τους κακούς ηθοποιούς από το να βρίσκονται σε αυτές τις πλατφόρμες».
Αυτές οι εταιρείες αντιμετώπισαν αυξανόμενες πιέσεις τα τελευταία χρόνια για να αντιμετωπίσουν το πρόβλημα, είτε με προληπτική παρακολούθηση για CSAM είτε αλλάζοντας τον σχεδιασμό των προϊόντων που ευνοούν ιδιαίτερα το πρόβλημα. Τον Νοέμβριο, μια πλατφόρμα με έδρα τις ΗΠΑ, ονόματι Omegle, είχε γίνει διαβόητη ως κόμβος για παιδεραστές έκλεισε εν μέσω μιας σειράς αγωγών, συμπεριλαμβανομένων ορισμένων που κατατέθηκαν από την εταιρεία του Goldberg. Το μότο της εφαρμογής – “Μίλα με αγνώστους!” — δεν βοήθησε την περίπτωσή του.
Η ακρόαση της Τετάρτης στη Γερουσία θα ελέγξει εάν οι νομοθέτες μπορούν να μετατρέψουν τη δικομματική συμφωνία ότι το CSAM είναι πρόβλημα σε ουσιαστική νομοθεσία, δήλωσε η Μαίρη Άννα Φρανκς, καθηγήτρια στη Νομική Σχολή του Πανεπιστημίου Τζορτζ Ουάσιγκτον και πρόεδρος της Πρωτοβουλίας για τα Πολιτικά Δικαιώματα του Κυβερνοχώρου.
«Κανείς δεν είναι πραγματικά εκεί έξω που να υποστηρίζει τα δικαιώματα της Πρώτης Τροποποίησης των σεξουαλικών αρπακτικών», είπε. Η δυσκολία έγκειται στη δημιουργία νόμων που θα ανάγκαζαν τις εταιρείες τεχνολογίας να αστυνομεύουν πιο προληπτικά τις πλατφόρμες τους χωρίς να καταψύχουν ένα πολύ ευρύτερο φάσμα νόμιμων διαδικτυακών εκφράσεων.
Στη δεκαετία του 1990, καθώς οι Αμερικανοί άρχισαν να συνδέονται στο διαδίκτυο μέσω μόντεμ μέσω τηλεφώνου, το Κογκρέσο κινήθηκε για να ποινικοποιήσει τη μετάδοση διαδικτυακής πορνογραφίας σε παιδιά με τον νόμο περί ευπρέπειας των επικοινωνιών. Ωστόσο, το Ανώτατο Δικαστήριο κατέρριψε μεγάλο μέρος του νόμου ένα χρόνο αργότερα, αποφασίζοντας ότι οι υπερβολικά ευρείες απαγορεύσεις του θα σαρώσουν τον νομικά προστατευμένο λόγο. Κατά ειρωνικό τρόπο, η πιο διαρκής κληρονομιά της πράξης ήταν αυτό που έγινε γνωστό ως Section 230, το οποίο παρείχε στους ιστότοπους και τις διαδικτυακές πλατφόρμες ευρεία προστασία από την αστική ευθύνη για περιεχόμενο που δημοσιεύουν οι χρήστες τους.
Ένας νόμος του 2008 ανέθεσε στο Υπουργείο Δικαιοσύνης την αντιμετώπιση του CSAM και απαιτούσε από τις πλατφόρμες του Διαδικτύου να αναφέρουν τυχόν γνωστά περιστατικά στο NCMEC. Αλλά α Έκθεση 2022 από το Γραφείο Λογοδοσίας της Κυβέρνησης διαπίστωσε ότι πολλές από τις απαιτήσεις του νόμου δεν είχαν εκπληρωθεί με συνέπεια. Και ενώ ο νόμος απαιτεί από τις πλατφόρμες διαδικτύου που εδρεύουν στις ΗΠΑ να αναφέρουν το CSAM όταν το βρίσκουν, δεν απαιτεί από αυτές να το αναζητήσουν εξαρχής.
Το αποτέλεσμα, είπε ο Shehan του NCMEC, είναι ότι οι εταιρείες που κάνουν τα περισσότερα για την παρακολούθηση του CSAM βγαίνουν με τις χειρότερες Αναφορές που δείχνουν περισσότερα παραδείγματα CSAM στις πλατφόρμες τους από άλλα.
“Υπάρχουν ορισμένες εταιρείες όπως η Meta που κάνουν τα πάνω και πέρα για να βεβαιωθούν ότι δεν υπάρχουν τμήματα του δικτύου τους όπου συμβαίνει αυτό το είδος δραστηριότητας”, είπε. «Αλλά υπάρχουν κάποιες άλλες τεράστιες εταιρείες που έχουν πολύ μικρότερους αριθμούς και αυτό οφείλεται στο ότι επιλέγουν να μην κοιτάξουν».
Η Meta ανέφερε μακράν τον μεγαλύτερο αριθμό αρχείων CSAM στις πλατφόρμες της το 2022, το πιο πρόσφατο έτος για το οποίο υπάρχουν διαθέσιμα δεδομένα για συγκεκριμένες εταιρείες, με περισσότερες από 21 εκατομμύρια αναφορές μόνο στο Facebook. Η Google ανέφερε 2,2 εκατομμύρια, το Snapchat 550.000, το TikTok 290.000 και το Discord 170.000. Το Twitter, το οποίο έκτοτε μετονομάστηκε σε Χ, ανέφερε κάτι λιγότερο από 100.000.
Η Apple, η οποία έχει περισσότερες από 2 δισεκατομμύρια συσκευές σε ενεργή χρήση σε όλο τον κόσμο, ανέφερε μόλις 234 περιστατικά CSAM. Ούτε η Google ούτε η Apple κλήθηκαν να καταθέσουν στην ακρόαση της περασμένης εβδομάδας.
«Εταιρείες όπως η Apple επέλεξαν να μην κάνουν προληπτική σάρωση για αυτό το είδος περιεχομένου», είπε ο Shehan. «Έχουν ουσιαστικά δημιουργήσει ένα ασφαλές καταφύγιο που τους κρατά σε έναν πολύ, πολύ μικρό αριθμό αναφορών στο CyberTipline σε τακτική βάση».
Το 2022, η Apple ακύρωσε μια προσπάθεια να ξεκινήσει τη σάρωση για CSAM στους λογαριασμούς iCloud Photos των χρηστών μετά από αντιδράσεις από τους υποστηρικτές της ιδιωτικής ζωής. Ζητήθηκε σχόλιο, η εταιρεία αναφέρθηκε σε μια δήλωση του Αυγούστου 2023 στην οποία είπε ότι το CSAM είναι «απεχθές», αλλά ότι η σάρωση του iCloud «θα είχε σοβαρές ανεπιθύμητες συνέπειες για τους χρήστες μας». Για παράδειγμα, είπε η Apple, θα μπορούσε να δημιουργήσει μια «ολισθηρή κλίση» σε άλλα είδη επεμβατικής επιτήρησης.
Ακόμη και όταν αναφέρεται το CSAM, το NCMEC δεν έχει την εξουσία να ερευνήσει ή να διώξει τους δράστες. Αντίθετα, λειτουργεί ως γραφείο συμψηφισμού, διαβιβάζοντας αναφορές στις αρμόδιες υπηρεσίες επιβολής του νόμου. Ο τρόπος με τον οποίο παρακολουθούν μπορεί να διαφέρει πολύ μεταξύ των δικαιοδοσιών, είπε ο Shehan.
Στο Κογκρέσο, έχει αναπτυχθεί δυναμική για την ενίσχυση της προστασίας της παιδικής ασφάλειας στο διαδίκτυο, αλλά δεν έχει ακόμη μεταφραστεί σε σημαντικούς νέους νόμους. Ενώ η Επιτροπή Δικαιοσύνης της Γερουσίας έχει προώθησε κάποιες προτάσεις με ομόφωνη υποστήριξη, έκτοτε μαραζώνουν στη Γερουσία χωρίς σαφές χρονοδιάγραμμα για τους υποστηρικτές να τους φέρουν στο βήμα.
Ο γερουσιαστής Dick Durbin (D-Ill.), ο οποίος προεδρεύει της επιτροπής που διεξήγαγε την ακρόαση, είπε σε μια συνέντευξη ότι ο αρχηγός της πλειοψηφίας στη Γερουσία Charles E. Schumer (DN.Y.) δεν έχει ακόμη δεσμευτεί να φέρει τα νομοσχέδια σε ψηφοφορία. Ακόμα κι αν ο Schumer το έκανε, το πακέτο θα πρέπει να κερδίσει σημαντική έλξη στο Σώμα, όπου πολλά βασικά μέτρα δεν έχουν ακόμη εισαχθεί.
Αναμένεται κάθε προσπάθεια να εξαφανιστεί η ασπίδα ευθύνης των τεχνολογικών πλατφορμών είναι α νόμος του 2018 που ονομάζεται SESTA-FOSTA, το οποίο απέσυρε τις προστασίες της Ενότητας 230 για τη διευκόλυνση περιεχομένου που περιλαμβάνει σεξουαλική εμπορία. Οι επικριτές λένε ότι ο νόμος οδήγησε τις εταιρείες να καταπολεμήσουν πολλές άλλες νομικές μορφές σεξουαλικού περιεχομένου, βλάπτοντας τελικά τις εργαζόμενες του σεξ τόσο πολύ ή περισσότερο από όσο τις βοήθησε.
Ο Durbin είπε ότι η ακρόαση αφορά τελικά την υποχρέωση των εταιρειών να λογοδοτήσουν για τον τρόπο με τον οποίο οι πλατφόρμες τους μπορούν να εκθέσουν τα παιδιά σε βλάβη.
«Δεν υπάρχουν ήρωες σε αυτή τη συνομιλία από ό,τι με αφορά», είπε για τις εταιρείες μάρτυρες σε μια συνέντευξη. «Όλοι παίρνουν συνειδητές αποφάσεις με γνώμονα το κέρδος που δεν προστατεύουν τα παιδιά ούτε θέτουν ασφάλεια στη διαδικασία».
Ο Goldberg είπε ότι συγκεκριμένοι τύποι λειτουργιών σε διαδικτυακές εφαρμογές είναι ιδιαίτερα ελκυστικοί για τα παιδιά αρπακτικών. Συγκεκριμένα, είπε, τα αρπακτικά συρρέουν σε εφαρμογές που προσελκύουν πολλά παιδιά, δίνουν σε ενήλικες ξένους έναν τρόπο να επικοινωνήσουν μαζί τους και επιτρέπουν την πρόσβαση στην κάμερα και την ιδιωτική επικοινωνία μεταξύ των χρηστών.
Υποστήριξε ότι πολλές εταιρείες γνωρίζουν ότι τα σχέδια των εφαρμογών τους διευκολύνουν την κακοποίηση παιδιών, αλλά «αρνούνται να το διορθώσουν» λόγω νόμων που περιορίζουν την ευθύνη τους. «Ο μόνος τρόπος για να πιέσουμε τις εταιρείες να επισκευάσουν τα προϊόντα τους είναι να τις υποχρεώσουμε να πληρώσουν για τις ζημιές τους», είπε.
Οι πολιτικοί που ξεγελούν τους CEO της τεχνολογίας δεν θα βοηθήσουν αν δεν υποστηριχθεί από νόμους που αλλάζουν τα κίνητρα που αντιμετωπίζουν οι εταιρείες τους, συμφώνησε ο Franks.
«Θέλετε να φέρετε σε δύσκολη θέση αυτές τις εταιρείες. Θέλετε να επισημάνετε όλα αυτά τα τρομερά πράγματα που ήρθαν στο φως», είπε. «Αλλά δεν αλλάζετε πραγματικά την υποκείμενη δομή».