ΑρχικήSecurityApple: Κατηγορείται από την NSPCC ότι υστερεί στην αντιμετώπιση της παιδικής σεξουαλικής...

Apple: Κατηγορείται από την NSPCC ότι υστερεί στην αντιμετώπιση της παιδικής σεξουαλικής κακοποίησης

Η NSPCC κατηγορεί την Apple ότι αποτυγχάνει να παρακολουθεί αποτελεσματικά τις πλατφόρμες της και να εντοπίζει εικόνες και βίντεο παιδικής σεξουαλικής κακοποίησης, σύμφωνα με ειδικούς στην ασφάλεια των παιδιών.

apple

Αυτό εγείρει σοβαρές ανησυχίες για τον τρόπο με τον οποίο η εταιρεία διαχειρίζεται την αυξανόμενη ποσότητα αυτού του υλικού, το οποίο επηρεάζεται και από την τεχνητή νοημοσύνη.

Η Εθνική Εταιρεία για την Πρόληψη της Βίας κατά των Παιδιών (NSPCC) στο Ηνωμένο Βασίλειο κατηγορεί την Apple για σοβαρή υποτίμηση της έκτασης του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM) στα προϊόντα της. Σύμφωνα με αστυνομικά στοιχεία που έχει στη διάθεσή της η NSPCC, μέσα σε ένα μόλις έτος, αρπακτικά χρησιμοποίησαν τις υπηρεσίες iCloud, iMessage και Facetime της Apple για να αποθηκεύουν και να διακινούν CSAM σε περισσότερες περιπτώσεις στην Αγγλία και την Ουαλία από όσες ανέφερε η εταιρεία συνολικά για όλες τις άλλες χώρες.

Διαβάστε επίσης: Apple: Προειδοποιεί εκατομμύρια χρήστες iPhone—Σταματήστε να χρησιμοποιείτε το Google Chrome

Σύμφωνα με δεδομένα που συγκεντρώθηκαν μέσω αιτημάτων ελευθερίας πληροφοριών και κοινοποιήθηκαν αποκλειστικά στον Guardian, η παιδική φιλανθρωπική οργάνωση διαπίστωσε ότι η Apple συνδέεται με 337 καταγεγραμμένα περιστατικά εικόνων παιδικής κακοποίησης από τον Απρίλιο 2022 έως τον Μάρτιο 2023 στην Αγγλία και την Ουαλία. Το 2023, η Apple υπέβαλε μόλις 267 αναφορές για ύποπτο CSAM στις πλατφόρμες της παγκοσμίως, στο Εθνικό Κέντρο για Εξαφανισμένα & Εκμεταλλευόμενα Παιδιά (NCMEC). Αντίθετα, άλλες μεγάλες τεχνολογικές εταιρείες, όπως η Google, ανέφεραν πάνω από 1,47 εκατομμύρια περιπτώσεις, και η Meta, ανέφερε περισσότερα από 30,6 εκατομμύρια, σύμφωνα με την ετήσια έκθεση του NCMEC.

Όλες οι τεχνολογικές εταιρείες με έδρα στις ΗΠΑ υποχρεούνται να αναφέρουν όλες τις περιπτώσεις CSAM που εντοπίζουν στις πλατφόρμες τους στο NCMEC. Ο οργανισμός αυτός, με έδρα τη Βιρτζίνια, λειτουργεί ως κέντρο διαχείρισης για αναφορές παιδικής κακοποίησης από όλο τον κόσμο, τις οποίες παρακολουθεί και προωθεί στις αρμόδιες αρχές επιβολής του νόμου. Η υπηρεσία iMessage της Apple είναι κρυπτογραφημένη, που σημαίνει ότι δεν μπορεί να δει το περιεχόμενο των μηνυμάτων των χρηστών της. Ωστόσο, το ίδιο ισχύει και για το WhatsApp της Meta, το οποίο υπέβαλε περίπου 1,4 εκατομμύρια αναφορές για ύποπτο CSAM στο NCMEC το 2023.

«Υπάρχει μια ανησυχητική διαφορά μεταξύ του αριθμού των εγκλημάτων παιδικής κακοποίησης που συμβαίνουν στις υπηρεσίες της Apple στο Ηνωμένο Βασίλειο και του σχεδόν αμελητέου αριθμού παγκόσμιων αναφορών περιεχομένου κακοποίησης που υποβάλλονται στις αρχές», δήλωσε ο Richard Collard, επικεφαλής ηλεκτρονικής πολιτικής για την ασφάλεια των παιδιών στο NSPCC. «Η Apple υστερεί σημαντικά σε σύγκριση με πολλούς από τους ανταγωνιστές της στην αντιμετώπιση της σεξουαλικής κακοποίησης παιδιών, τη στιγμή που όλες οι τεχνολογικές εταιρείες θα πρέπει να επενδύουν στην ασφάλεια και να προετοιμάζονται για την επικείμενη εφαρμογή του Νόμου για την Ασφάλεια στο Διαδίκτυο στο Ηνωμένο Βασίλειο».

Η Apple αρνήθηκε να σχολιάσει και παρέπεμψε τη Guardian σε δηλώσεις του περασμένου Αυγούστου. Εκεί είχε αναφέρει ότι αποφάσισε να μην προχωρήσει με το πρόγραμμα σάρωσης φωτογραφιών iCloud για CSAM. Αντίθετα, επέλεξε μια προσέγγιση που δίνει προτεραιότητα στην ασφάλεια και το απόρρητο των χρηστών της.

Δείτε ακόμη: Η Apple δεν αποθήκευε διαγραμμένες φωτογραφίες iOS στο iCloud

Στα τέλη του 2022, η Apple αποφάσισε να εγκαταλείψει τα σχέδια για την κυκλοφορία του εργαλείου σάρωσης φωτογραφιών iCloud. Το εργαλείο, γνωστό ως neuralMatch, θα σάρωνε εικόνες πριν αυτές μεταφορτωθούν στον αποθηκευτικό χώρο του iCloud, συγκρίνοντάς τις με μια βάση δεδομένων γνωστών εικόνων παιδικής κακοποίησης μέσω δακτυλικών αποτυπωμάτων.

Ωστόσο, οι αντιδράσεις από ομάδες ψηφιακών δικαιωμάτων ήταν πολλές καθώς υπάρχει ανησυχία, ότι κάτι τέτοιο θα μπορούσε να παραβιάσει την ιδιωτικότητα και την ασφάλεια των χρηστών iCloud. Αντίθετα, οι υποστηρικτές της προστασίας των παιδιών καταδίκασαν την απόσυρση της λειτουργίας.

«Η Apple δεν εντοπίζει CSAM σε μεγάλη κλίμακα στα περισσότερα περιβάλλοντά της,» δήλωσε η Sarah Gardner, διευθύνουσα σύμβουλος της Heat Initiative, μιας μη κερδοσκοπικής οργάνωσης με έδρα το Λος Άντζελες που επικεντρώνεται στην προστασία των παιδιών. «Παρέχουν ανεπαρκείς πληροφορίες και δεν έχουν επενδύσει σε ομάδες εμπιστοσύνης και ασφάλειας για να διαχειριστούν αυτή την κατάσταση.»

Η ανακοίνωση της Apple τον Ιούνιο για την κυκλοφορία της νέας AI λειτουργίας, Apple Intelligence, προκάλεσε ανησυχίες στους ειδικούς σχετικά με την ασφάλεια των παιδιών. «Η προσπάθεια της Apple να αναπτύξει το AI είναι ανησυχητική, καθώς το υλικό κακοποίησης παιδιών που δημιουργείται από AI θέτει σε κίνδυνο τα παιδιά και επηρεάζει την ικανότητα της αστυνομίας να προστατεύει τα νεαρά θύματα, ιδιαίτερα επειδή η Apple έχει αποφύγει την ενσωμάτωση τεχνολογίας για την προστασία των παιδιών», δήλωσε ο Collard. Η Apple υποστηρίζει ότι το σύστημα AI, το οποίο αναπτύχθηκε σε συνεργασία με το OpenAI, θα προσαρμόσει τις εμπειρίες των χρηστών, θα αυτοματοποιήσει εργασίες και θα ενισχύσει την προστασία της ιδιωτικότητας των χρηστών.

Apple NSPCC

Το 2023, το NCMEC έλαβε πάνω από 4.700 αναφορές για CSAM που δημιουργήθηκε μέσω τεχνητής νοημοσύνης, και προβλέπει αύξηση αυτών των αναφορών στο μέλλον. Δεδομένου ότι τα AI μοντέλα που δημιουργούν CSAM έχουν εκπαιδευτεί με εικόνες «πραγματικής» παιδικής κακοποίησης, οι εικόνες που παράγονται από AI συνεισφέρουν επίσης στη θυματοποίηση των παιδιών. Τον Ιούνιο, αναφέρθηκε ότι παιδόφιλοι χρησιμοποιούν AI για να δημιουργήσουν νέες εικόνες των θυμάτων τους.

Διαβάστε περισσότερα: Το iCloud αναβαθμίζεται ριζικά στο iOS 18

«Η εταιρεία δραστηριοποιείται σε έναν τομέα που γνωρίζουμε ότι μπορεί να αποδειχθεί εξαιρετικά επικίνδυνος για τα παιδιά και δεν διαθέτει το απαραίτητο ιστορικό για να τον διαχειριστεί», δήλωσε η Gardner. «Η Apple είναι μια μαύρη τρύπα».

Πηγή: theguardian

SecNews
SecNewshttps://www.secnews.gr
In a world without fences and walls, who need Gates and Windows
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS