ΑρχικήSecurityΕγκληματίες δημιουργούν νέες σεξουαλικές εικόνες παιδιών μέσω AI - Αξιοποιούν προηγούμενο υλικό...

Εγκληματίες δημιουργούν νέες σεξουαλικές εικόνες παιδιών μέσω AI – Αξιοποιούν προηγούμενο υλικό θυμάτων

Σεξουαλικοί θηρευτές που δραστηριοποιούνται στο dark web χρησιμοποιούν την τεχνητή νοημοσύνη (AI) για να δημιουργήσουν σεξουαλικές εικόνες παιδιών, αξιοποιώντας υλικό που έχει διαρρεύσει στο παρελθόν.

σεξουαλικές εικόνες παιδιών AI

Ομάδες ασφάλειας, που ασχολούνται με την προστασία των παιδιών, έχουν εντοπίσει συνομιλίες των κακοποιών σχετικά με τη δημιουργία νέων εικόνων που βασίζονται σε παλαιότερο υλικό σεξουαλικής κακοποίησης παιδιών (CSAM). Αυτοί οι κακοποιοί έχουν εμμονή με τα παιδιά-θύματα που αναφέρονται ως «stars» στις κοινότητες των “αρπακτικών”, λόγω της δημοτικότητας των εικόνων τους.

«Οι κοινότητες των ανθρώπων που εμπορεύονται αυτό το υλικό ενθουσιάζονται με μεμονωμένα παιδιά», δήλωσε η Sarah Gardner, διευθύνουσα σύμβουλος της Heat Initiative, μιας μη κερδοσκοπικής οργάνωσης που επικεντρώνεται στην προστασία των παιδιών. «Θέλουν περισσότερο περιεχόμενο από αυτά τα παιδιά, κάτι που τους επέτρεψε τώρα το AI».

Αυτά τα παιδιά μπορεί τώρα να είναι ενήλικες, αλλά εξαιτίας της τεχνητής νοημοσύνης, δημιουργούνται νέες εικόνες τους και περισσότεροι άνθρωποι μπορεί να βλέπουν τώρα σεξουαλικό περιεχόμενο που τους απεικονίζει ως παιδιά. Φοβούνται ότι οι εικόνες τους που κυκλοφορούν στο Διαδίκτυο ή στις κοινότητες των εγκληματιών θα μπορούσαν να απειλήσουν τις ζωές και τις καριέρες τους.

Δείτε επίσης: Το Twitch επιτρέπει το φιλτράρισμα και θάμπωμα σεξουαλικού περιεχομένου

Η Megan, ένα θύμα CSAM, λέει ότι η δυνατότητα χρήσης AI για τη δημιουργία εικόνων της έχει γίνει μια ολοένα και πιο αγχωτική προοπτική τους τελευταίους 12 μήνες, αν και η δική της κακοποίηση συνέβη πριν από μια δεκαετία.

«Η τεχνητή νοημοσύνη δίνει στους δράστες την ευκαιρία να δημιουργήσουν ακόμη περισσότερες καταστάσεις της κακοποίησής μου για να τροφοδοτήσουν τις δικές τους φαντασιώσεις και τις δικές τους εκδοχές», είπε. «Ο τρόπος με τον οποίο θα μπορούσαν να χειριστούν τις εικόνες μου με τεχνητή νοημοσύνη θα μπορούσε να δώσει την εσφαλμένη εντύπωση ότι δεν ήταν επιβλαβής ή ότι απολάμβανα την κατάχρηση».

Δεδομένου ότι αυτό το υλικό κυκλοφορεί κυρίως στο dark web, υπάρχει μια ανωνυμία και οι ομάδες ασφάλειας παιδιών έχουν λίγα μέσα για να ζητήσουν την αφαίρεση αυτών των εικόνων ή να αναφέρουν τους χρήστες στις αρχές επιβολής του νόμου.

Οι ομάδες έχουν ζητήσει νομοθεσία που υπερβαίνει την ποινικοποίηση για να αποτρέψει την παραγωγή σεξουαλικού περιεχομένου παιδιών από AI και άλλα. Ωστόσο, είναι απαισιόδοξοι και φοβούνται ότι δεν μπορούν να γίνουν πολλά για να επιβληθούν οι απαγορεύσεις στη δημιουργία νέων σεξουαλικών εικόνων παιδιών. Επιπλέον, οι κρυπτογραφημένες υπηρεσίες ανταλλαγής μηνυμάτων, που τώρα συχνά είναι προεπιλεγμένες επιλογές, επιτρέπουν στους σεξουαλικούς θηρευτές να ανταλλάσσουν περιεχόμενο.

Δημιουργία νέου CSAM και αναβίωση του παλιού σεξουαλικού περιεχομένου με AI

Το Guardian έχει δει πολλά αποσπάσματα από αυτές τις σκοτεινές συνομιλίες. Τα μέλη του φόρουμ ενθαρρύνονται να δημιουργούν νέες σεξουαλικές εικόνες με AI για να τις μοιράζονται με τους υπόλοιπους. Πολλοί είπαν ότι ενθουσιάστηκαν με την προοπτική νέου υλικού, ενώ άλλοι είπαν ότι δεν τους ενδιέφερε γιατί δεν απεικονίζουν πραγματική κακοποίηση παιδιών.

Δείτε επίσης: Taylor Swift: Ακατάλληλες AI-generated φωτογραφίες διαδόθηκαν στα social media

Ένα μήνυμα από τον Νοέμβριο του 2023 έλεγε: «Θα μπορούσατε να χρησιμοποιήσετε το AI για να αναδημιουργήσει τις όμορφες εικόνες των πρώην CP stars [child porn] [όνομα θύματος] και [όνομα θύματος] και να τις βάλετε σε ορισμένες σκηνές – όπως το [διασκευασμένο όνομα θύματος] με μια παραδοσιακή καθολική στολή μαθήτριας στο Δημοτικό Σχολείο και [διασκευασμένο όνομα θύματος] με στολή cheerleader στο Γυμνάσιο

Σε μια άλλη συνομιλία στο chat room, οι σεξουαλικοί θηρευτές συζήτησαν, επίσης, τη χρήση τεχνητής νοημοσύνης για την ψηφιακή ανακατασκευή δημοφιλούς υλικού εκμετάλλευσης παιδιών, που ήταν δεκαετίες πριν και ήταν χαμηλής ποιότητας.

«Ουάου, είσαι φοβερός», έγραψε ένα μέλος σε ένα άλλο τον Ιανουάριο. “Εκτιμώ την προσπάθειά σας, να συνεχίσετε να αναβαθμίζετε τα κλασικά βίντεο“.

Στο παρελθόν, έχουν χρησιμοποιηθεί λογισμικά επεξεργασίας φωτογραφιών για αντίστοιχους σκοπούς, αλλά το AI δίνει νέες ευκαιρίες στους εγκληματίες για τη δημιουργία πιο ρεαλιστικών σεξουαλικών εικόνων (κακοποίησης) παιδιών.

Μεγάλο μέρος αυτής της δραστηριότητας επικεντρώνεται στα λεγόμενα «stars».

«Με τον ίδιο τρόπο που υπάρχουν διασημότητες στο Χόλιγουντ, σε αυτές τις διαδικτυακές κοινότητες, υπάρχει μια κατάταξη που μοιάζει με διασημότητες για μερικά από τα αγαπημένα θύματα», δήλωσε ο Jacques Marcoux, διευθυντής έρευνας και ανάλυσης στο Καναδικό Κέντρο Προστασίας Παιδιού. «Αυτές οι ομάδες παραβατών τους γνωρίζουν όλους και τους καταγράφουν».

«Οι δράστες εξαντλούν τελικά όλο το υλικό ενός συγκεκριμένου θύματος», είπε ο Marcoux. «Έτσι μπορούν να βγάλουν μια εικόνα ενός θύματος που τους αρέσει, και μπορούν να κάνουν αυτό το θύμα να κάνει διαφορετικές στάσεις ή να κάνει διαφορετικά πράγματα».

Τα δεδομένα επιβεβαιώνουν το φαινόμενο της ενασχόλησης των εγκληματιών με τους «stars». Σε μια αξιολόγηση του 2020 στο Εθνικό Κέντρο για τα Εξαφανισμένα και Εκμεταλλευόμενα Παιδιά, η Meta ανέφερε ότι μόλις έξι βίντεο αντιστοιχούσαν στο μισό του συνόλου του υλικού σεξουαλικής κακοποίησης παιδιών που κοινοποιήθηκε και αναδημοσιεύτηκε στο Facebook και το Instagram.

Δείτε επίσης: Deepfake & Sextortion: Απατεώνες δημιουργούν ακατάλληλο περιεχόμενο χρησιμοποιώντας τα social media σας

Οι πραγματικές διασημότητες του Χόλιγουντ είναι επίσης πιθανοί στόχοι θυματοποίησης. Βρέθηκαν συνομιλίες που μιλούσαν για το ενδεχόμενο δημιουργίας ακατάλληλου υλικού παιδιών διασημοτήτων, συμπεριλαμβανομένων εφήβων ειδώλων από τη δεκαετία του 1990 που είναι τώρα ενήλικες.

Πώς εξαπλώνεται το AI-generated υλικό σεξουαλικής κακοποίησης παιδιών;

Η χρήση της τεχνητής νοημοσύνης από τους σεξουαλικούς θηρευτές έγινε διαδεδομένη στα τέλη του 2022. Την ίδια χρονιά, κυκλοφόρησε η βάση δεδομένων LAION-5B, η οποία περιέχει περισσότερες από 5 δισεκατομμύρια εικόνες και μπορεί να χρησιμοποιηθεί από τον καθένα για την εκπαίδευση μοντέλων τεχνητής νοημοσύνης.

Ωστόσο, μια έκθεση του Πανεπιστημίου Στάνφορντ αποκάλυψε ότι εκατοντάδες σεξουαλικές εικόνες παιδιών είχαν συμπεριληφθεί στη βάση LAION-5B και τώρα χρησιμοποιούνται για την εκπαίδευση δημοφιλών μοντέλων δημιουργίας εικόνων AI, για τη δημιουργία CSAM.

«Το σώμα μου δεν θα είναι ποτέ ξανά δικό μου και αυτό είναι κάτι το οποίο πολλοί επιζώντες πρέπει να αντιμετωπίσουν», είπαν άτομα που είχαν υποστεί σεξουαλική κακοποίηση ως παιδιά και τώρα οι εικόνες αναδημιουργούνται μέσω AI.

Οι ειδικοί λένε ότι έχουν δει μια στροφή προς κρυπτογραφημένες υπηρεσίες ιδιωτικών μηνυμάτων όπως το WhatsApp, το Signal και το Telegram για τη διάδοση και πρόσβαση στο CSAM. Ωστόσο, μεγάλο μέρος του CSAM εξακολουθεί να μοιράζεται εκτός των mainstream καναλιών στον σκοτεινό ιστό. Σε μια έκθεση του Οκτωβρίου 2023, το Internet Watch Foundation (IWF) λέει ότι βρήκε περισσότερες από 20.000 σεξουαλικές εικόνες παιδιών που δημιουργήθηκαν από AI και δημοσιεύτηκαν σε ένα μόνο φόρουμ.

Ορισμένοι σεξουαλικοί θηρευτές πιστεύουν λανθασμένα ότι η προβολή CSAM που δημιουργείται από AI μπορεί να είναι πιο ηθική από το υλικό της «πραγματικής ζωής», είπαν οι ειδικοί.

«Μία από τις ανησυχίες μας είναι η ικανότητά τους να δικαιολογούν τη συμπεριφορά τους, επειδή αυτές είναι κατά κάποιον τρόπο εικόνες ενός εγκλήματος χωρίς θύματα που δεν συνεπάγεται βλάβη στον πραγματικό κόσμο. Μερικοί από τους ανθρώπους που μας τηλεφωνούν προβάλλουν ένα επιχείρημα για να ελαχιστοποιήσουν τη βαρύτητα αυτού που κάνουν».

σεξουαλικές εικόνες παιδιών AI

Πώς θα περιοριστούν οι σεξουαλικές εικόνες παιδιών που δημιουργούνται από AI;

Σε πολλές χώρες, συμπεριλαμβανομένων των ΗΠΑ και του Ηνωμένου Βασιλείου, νόμοι δεκαετιών ήδη ποινικοποιούν κάθε CSAM που δημιουργείται με χρήση τεχνητής νοημοσύνης. Επίσης, οι πορνογραφικές απεικονίσεις της Taylor Swift που έγιναν από το AI και κυκλοφόρησαν στις αρχές του τρέχοντος έτους οδήγησαν στη θέσπιση νομοθεσίας στις ΗΠΑ που θα ρυθμίζει τέτοιου είδους deepfakes.

Δείτε επίσης: Google SafeSearch: Σύντομα θα θολώνει τις ακατάλληλες εικόνες από προεπιλογή

Οι ειδικοί στην ασφάλεια των παιδιών και στην τεχνολογία ήταν απαισιόδοξοι σχετικά με το κατά πόσο είναι δυνατόν να αποτραπεί η παραγωγή και η διανομή CSAM που δημιουργείται από AI. Τονίζουν ότι μεγάλο μέρος της παραγωγής περνά απαρατήρητο από τις αρχές.

Πώς μπορούν οι γονείς να προστατεύσουν τα παιδιά τους από τέτοιες απειλές;

  • Οι γονείς και οι κηδεμόνες μπορούν να προστατεύσουν τα παιδιά τους από τέτοιες απειλές εκπαιδεύοντάς τα για την ασφαλή χρήση του διαδικτύου. Είναι σημαντικό να τους εξηγήσουν τους κινδύνους που υπάρχουν και να τους διδάξουν πώς να αναγνωρίζουν ύποπτες συμπεριφορές και περιεχόμενο.
  • Η χρήση λογισμικού γονικού ελέγχου μπορεί να βοηθήσει στην παρακολούθηση της διαδικτυακής δραστηριότητας των παιδιών και να μπλοκάρει την πρόσβαση σε ακατάλληλες ιστοσελίδες. Αυτά τα εργαλεία μπορούν να παρέχουν ειδοποιήσεις για ύποπτες δραστηριότητες και να βοηθήσουν τους γονείς να διατηρήσουν τον έλεγχο.
  • Η ανοιχτή και ειλικρινής επικοινωνία είναι κρίσιμη. Οι γονείς πρέπει να δημιουργήσουν ένα περιβάλλον όπου τα παιδιά αισθάνονται άνετα να μιλήσουν για τις διαδικτυακές τους εμπειρίες και να αναφέρουν οποιαδήποτε ανησυχητική επαφή ή περιεχόμενο.
  • Η εκπαίδευση των παιδιών για την προστασία της ιδιωτικότητάς τους είναι επίσης σημαντική. Πρέπει να μάθουν να μην μοιράζονται προσωπικές πληροφορίες, φωτογραφίες ή βίντεο με αγνώστους και να κατανοήσουν τις συνέπειες της διάδοσης τέτοιου υλικού.
  • Οι γονείς πρέπει να είναι ενήμεροι για τις τελευταίες τεχνολογικές εξελίξεις και τις νέες απειλές που μπορεί να προκύψουν. Η συνεχής ενημέρωση και η συμμετοχή σε σεμινάρια ή ομάδες υποστήριξης μπορεί να τους βοηθήσει να παραμείνουν προετοιμασμένοι.

Πηγή: www.theguardian.com

Digital Fortress
Digital Fortresshttps://secnews.gr
Pursue Your Dreams & Live!
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS