ΑρχικήYoutubeΠρώην ερευνητής OpenAI: Η ασφάλεια δεν είναι προτεραιότητα των εταιρειών AI

Πρώην ερευνητής OpenAI: Η ασφάλεια δεν είναι προτεραιότητα των εταιρειών AI

Ένας πρώην εργαζόμενος στην OpenAI, λέει ότι παραιτήθηκε από την εταιρεία αφού συνειδητοποίησε ότι έβαζε την ασφάλεια σε δεύτερη μοίρα, για να έχει μεγαλύτερο κέρδος.

Δείτε επίσης: OpenAI: Το νέο CriticGPT ελέγχει για λάθη του ChatGPT

Ο πρώην υπάλληλος, William Saunders, κατηγόρησε την OpenAI ότι «έχει δώσει προτεραιότητα στη διάθεση νεότερων, πιο λαμπερών προϊόντων», όπως ακριβώς η κατασκευάστρια εταιρεία του Τιτανικού, White Star Line, η οποία έβαλε την αισθητική πάνω από την ασφάλεια των επιβατών.

OpenAI ασφάλεια

Τα σχόλιά του υπογραμμίζουν τις αυξανόμενες ανησυχίες για εταιρείες όπως η OpenAI που αναπτύσσουν συστήματα AI που είναι ικανά να αντικαταστήσουν τις ικανότητες των ανθρώπων, μια ιδέα που ονομάζεται τεχνητή γενική νοημοσύνη (AG) – κάτι που επί του παρόντος παραμένει εντελώς θεωρητικό, αλλά αποτελεί πηγή μεγάλου ενδιαφέροντος για στελέχη όπως ο Sam Altman της OpenAI.

Έχουμε ήδη δει αρκετούς άλλους πρώην υπαλλήλους να βγαίνουν και να κατηγορούν τους ανωτέρους τους, ότι κλείνουν τα μάτια σε αυτές τις ανησυχίες και καταπνίγουν τις προσπάθειες εποπτείας.

Η δέσμευση της OpenAI για την ασφάλεια είναι επίσης σαθρή όσον αφορά τη συνεχώς μεταβαλλόμενη εταιρική δομή της. Νωρίτερα φέτος, ο Διευθύνων Σύμβουλος του OpenAI, Sam Altman, ανακοίνωσε ότι διέλυε την ομάδα Superalignment με γνώμονα την ασφάλεια – της οποίας ήταν κάποτε μέρος ο Saunders – και τοποθετούσε τον εαυτό του στο τιμόνι. Εκείνη την εποχή, η εταιρεία είπε ότι δημιουργούσε μια νέα «επιτροπή ασφάλειας και προστασίας».

Δείτε ακόμα: Paul Nakasone: Ο πρώην επικεφαλής της NSA στο διοικητικό συμβούλιο της OpenAI

Ο αρχηγός της πλέον διαλυμένης ομάδας, ο πρώην επικεφαλής επιστήμονας Ilya Sutskever, ανακοίνωσε τον περασμένο μήνα ότι ξεκινά μια νέα εταιρεία με την ονομασία Safe Superintelligence Inc, η οποία σύμφωνα με τον ίδιο θα έχει «μία εστίαση, ένα στόχο και ένα προϊόν.

Οι κριτικοί έχουν επισημάνει εδώ και καιρό ότι παρά τον ισχυρισμό της OpenAI από την αρχή ότι προσπαθούσε να υλοποιήσει το AGI με έναν ασφαλή τρόπο, η εταιρεία έπαιξε χαλαρά με τους κανόνες και έδωσε προτεραιότητα στην κυκλοφορία νέων λαμπερών chatbot, σημαντικών κύκλων χρηματοδότησης και συνεργασιών δισεκατομμυρίων δολαρίων με τεχνολογικούς γίγαντες όπως η Microsoft.

Για τον Saunders, αυτές οι ανησυχίες ήταν αρκετός λόγος για να παραιτηθεί.

Δείτε επίσης: Apple: Φαίνεται να μην πληρώνει την OpenAI για να χρησιμοποιήσει το ChatGPT στο iOS 18

Φυσικά, παραμένει ασαφές εάν κάποιος από αυτούς τους κινδύνους θα αποδειχθεί δικαιολογημένος. Σε τελική ανάλυση, απέχουμε ακόμα πολύ από μια πραγματική τεχνητή νοημοσύνη που μπορεί να ξεπεράσει έναν άνθρωπο και οι ειδικοί έχουν επισημάνει ότι η τεχνολογία μπορεί να μην καταλήξει πουθενά.

Πηγή: futurism

Absenta Mia
Absenta Miahttps://www.secnews.gr
Being your self, in a world that constantly tries to change you, is your greater achievement
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS