ΑρχικήSecurityΕικόνες παιδιών έχουν χρησιμοποιηθεί κρυφά για εκπαίδευση AI εργαλείων

Εικόνες παιδιών έχουν χρησιμοποιηθεί κρυφά για εκπαίδευση AI εργαλείων

Μια νέα έκθεση του μη κυβερνητικού οργανισμού Human Rights Watch λέει ότι πάνω από 170 εικόνες και προσωπικά στοιχεία παιδιών από τη Βραζιλία έχουν συλλεχθεί, χωρίς τη γνώση ή τη συγκατάθεσή τους, και έχουν χρησιμοποιηθεί για την εκπαίδευση εργαλείων AI.

Εικόνες παιδιών εκπαίδευση AI

Οι εικόνες έχουν συλλεχθεί από περιεχόμενο που δημοσιεύτηκε μόλις το 2023, αλλά υπάρχουν και πολύ πιο παλιές, από τα μέσα της δεκαετίας του 1990. Εκείνη την εποχή, κανένας δεν θα μπορούσε να φανταστεί ότι το περιεχόμενό του θα μπορούσε να χρησιμοποιηθεί για την εκπαίδευση τεχνητής νοημοσύνης. Το Human Rights Watch ισχυρίζεται ότι τα προσωπικά στοιχεία αυτών των παιδιών, μαζί με συνδέσμους προς φωτογραφίες τους, συμπεριλήφθηκαν στο LAION-5B, ένα σύνολο δεδομένων που χρησιμοποιείται ευρέως από AI startups για την εκπαίδευση των εργαλείων τους.

Δείτε επίσης: Ε.Ε.: Η Microsoft κατηγορείται για συλλογή δεδομένων παιδιών

«Το απόρρητό τους παραβιάζεται όταν η φωτογραφία τους συλλέγεται και σαρώνεται σε αυτά τα σύνολα δεδομένων. Και στη συνέχεια αυτά τα εργαλεία AI εκπαιδεύονται σε αυτά τα δεδομένα και επομένως μπορούν να δημιουργήσουν ρεαλιστικές εικόνες των παιδιών», λέει η Hye Jung Han, ερευνήτρια για τα δικαιώματα των παιδιών στο Human Rights Watch. «Η τεχνολογία έχει αναπτυχθεί με τέτοιο τρόπο ώστε κάθε παιδί που έχει οποιαδήποτε φωτογραφία ή βίντεο στο Διαδίκτυο βρίσκεται τώρα σε κίνδυνο επειδή οποιοσδήποτε κακόβουλος χρήστης θα μπορούσε να τραβήξει αυτή τη φωτογραφία και στη συνέχεια να χρησιμοποιήσει αυτά τα εργαλεία για να τα χειριστεί όπως θέλει».

Το James Webb βρήκε γαλαξία πιο φωτεινό από τα αστέρια του

SecNewsTV 27 Σεπτεμβρίου 2024, 16:44 16:44

Το LAION-5B έχει χρησιμοποιηθεί για την εκπαίδευση πολλών μοντέλων τεχνητής νοημοσύνης, συμπεριλαμβανομένου του εργαλείου δημιουργίας εικόνων Stable Diffusion της Stability AI. Το σύνολο δεδομένων LAION-5B  είναι ανοιχτά προσβάσιμο και περιλαμβάνει πλέον περισσότερα από 5,85 δισεκατομμύρια ζεύγη εικόνων και captions.

Οι εικόνες παιδιών, που βρήκαν οι ερευνητές, προέρχονταν από mommy blogs και άλλα προσωπικά ιστολόγια, maternity και parenting blogs, καθώς και στιγμιότυπα από βίντεο YouTube με λίγες προβολές, που φαινομενικά ανέβηκαν για κοινή χρήση με την οικογένεια και τους φίλους.

Ο εκπρόσωπος του LAION, Nate Tyler, λέει ότι η οργάνωση έχει ήδη αναλάβει δράση. «Το LAION-5B καταργήθηκε ως απάντηση σε μια αναφορά του Stanford που βρήκε συνδέσμους που υποδεικνύουν παράνομο περιεχόμενο στον δημόσιο ιστό», λέει, προσθέτοντας ότι ο οργανισμός συνεργάζεται επί του παρόντος με το «Internet Watch Foundation, το Canadian Center for Child Protection, το Stanford και το Human Rights Watch για να αφαιρέσουν όλες τις γνωστές αναφορές σε παράνομο περιεχόμενο».

Τον Δεκέμβριο, ερευνητές στο Πανεπιστήμιο του Stanford ανακάλυψαν ότι τα δεδομένα εκπαίδευσης AI που συνέλεξε το LAION-5B, περιείχαν υλικό σεξουαλικής κακοποίησης παιδιών.

Δείτε επίσης: Ε.Ε: Έρευνα στη Meta για αρνητικές συνέπειες των Instagram, Facebook σε παιδιά

Το πρόβλημα των deepfakes αυξάνεται ακόμη και μεταξύ των μαθητών στα σχολεία των ΗΠΑ, όπου χρησιμοποιούνται για να εκφοβίσουν συμμαθητές, ειδικά κορίτσια. Οι φωτογραφίες παιδιών μπορούν να χρησιμοποιηθούν για τη δημιουργία CSAM, αλλά η βάση δεδομένων θα μπορούσε να αποκαλύψει και δυνητικά ευαίσθητες πληροφορίες, όπως τοποθεσίες ή ιατρικά δεδομένα.

«Τα παιδιά δεν πρέπει να ζουν με το φόβο ότι οι φωτογραφίες τους μπορεί να κλαπούν και να χρησιμοποιηθούν εναντίον τους», λέει η Hye.

Η LAION επιβεβαίωσε στο Human Rights Watch ότι οι εικόνες που εντόπισαν οι ερευνητές υπήρχαν και συμφώνησε να τις αφαιρέσει. Αλλά η Hye ανησυχεί ότι αυτό που κατάφερε να βρει είναι μόνο η αρχή. Ήταν ένα «μικρό κομμάτι» των δεδομένων που εξέταζε η ομάδα της, λέει — λιγότερο από το 0,0001% όλων των δεδομένων στο LAION-5B.

Εικόνες παιδιών έχουν χρησιμοποιηθεί κρυφά για εκπαίδευση AI εργαλείων

Πέρυσι, μια γερμανική διαφημιστική καμπάνια χρησιμοποίησε deepfake περιεχόμενο που δημιουργήθηκε από AI, για να προειδοποιήσει τους γονείς για τους κινδύνους δημοσίευσης φωτογραφιών των παιδιών στο διαδίκτυο. Αλλά αυτό δεν αντιμετωπίζει το θέμα των εικόνων που έχουν ήδη δημοσιευθεί.

Η Hye λέει ότι η ευθύνη για την προστασία των παιδιών από αυτό το είδος κακοποίησης βαραίνει κυρίως τις κυβερνήσεις και τις ρυθμιστικές αρχές.

«Νομίζω ότι τα παιδιά και οι γονείς τους δεν πρέπει να αναλαμβάνουν την ευθύνη για την προστασία των παιδιών από μια τεχνολογία, από την οποία είναι αδύνατο να προστατευθούν», λέει η Hye. «Δεν φταίνε αυτοί».

Δείτε επίσης: Ηνωμένο Βασίλειο: Απαγόρευση smartphone σε παιδιά κάτω των 16 ετών;

Προστασία παιδιών

Δυστυχώς, δεδομένου ότι δεν υπάρχουν αποτελεσματικά μέτρα προστασίας, οι γονείς θα πρέπει να αναλάβουν δράση για να προστατεύσουν τις εικόνες των παιδιών τους, αποφεύγοντας να τις δημοσιεύουν σε κοινωνικά δίκτυα και άλλες δημόσιες πλατφόρμες.

Επιπλέον, χρησιμοποιώντας ρυθμίσεις απορρήτου στις πλατφόρμες κοινωνικής δικτύωσης, οι γονείς μπορούν να περιορίσουν ποιος μπορεί να δει και να κατεβάσει τις φωτογραφίες των παιδιών τους. Είναι σημαντικό να ελέγχουν τακτικά αυτές τις ρυθμίσεις και να τις προσαρμόζουν ανάλογα.

Εξαιρετικά σημαντική είναι και η ενημέρωση των παιδιών για τους κινδύνους της δημοσίευσης προσωπικών φωτογραφιών στο διαδίκτυο. Η εκπαίδευση των παιδιών σχετικά με την ασφάλεια στο διαδίκτυο μπορεί να τα βοηθήσει να κατανοήσουν τη σημασία της προστασίας της ιδιωτικής τους ζωής.

Τέλος, είναι καλή πρακτική να αποφεύγουν τη χρήση εφαρμογών και εργαλείων που ζητούν πρόσβαση στις φωτογραφίες και τα αρχεία των συσκευών χωρίς σαφή λόγο. Οι γονείς πρέπει να διαβάζουν προσεκτικά τους όρους χρήσης και τις πολιτικές απορρήτου πριν επιτρέψουν την πρόσβαση.

Πηγή: www.wired.com

Digital Fortress
Digital Fortresshttps://www.secnews.gr
Pursue Your Dreams & Live!
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS