ΑρχικήSecurityOpenAI: Δημιουργία Επιτροπής Ασφαλείας και εκπαίδευση νέου AI μοντέλου

OpenAI: Δημιουργία Επιτροπής Ασφαλείας και εκπαίδευση νέου AI μοντέλου

Η OpenAI ανακοίνωσε ότι δημιούργησε μια νέα Επιτροπή Ασφαλείας καθώς και ότι έχει αρχίσει να εκπαιδεύει το νέο AI μοντέλο της.

OpenAI Επιτροπή Ασφαλείας AI μοντέλο

Η OpenAI ανακοίνωσε ότι δημιούργησε μια Επιτροπή Ασφαλείας (Safety and Security Committee), στην οποία συμμετέχουν ανώτερα στελέχη της εταιρείας.

Το προηγούμενο εποπτικό συμβούλιο είχε διαλυθεί στα μέσα Μαΐου. Η νέα επιτροπή θα είναι υπεύθυνη για τη διατύπωση συστάσεων προς το συμβούλιο της OpenAIσχετικά με κρίσιμες αποφάσεις ασφάλειας για έργα και λειτουργίες της εταιρείας“, σύμφωνα με την ανακοίνωση.

Η προηγούμενη ομάδα επικεντρωνόταν στους μακροπρόθεσμους κινδύνους της τεχνητής νοημοσύνης. Πριν από αυτό, και οι δύο ηγέτες της ομάδας, Ilya Sutskever και Jan Leike, ανακοίνωσαν την αποχώρησή τους από τη startup.

Δείτε επίσης: Scarlett Johansson: Η OpenAI μιμήθηκε τη φωνή της (χωρίς άδεια);

Η ασφάλεια της τεχνητής νοημοσύνης βρίσκεται στο επίκεντρο των συζητήσεων το τελευταίο διάστημα, καθώς τα τεράστια μοντέλα που υποστηρίζουν εφαρμογές όπως το ChatGPT γίνονται πιο προηγμένα.

Ο Bret Taylor, ο Adam D’Angelo, η Nicole Seligman, που είναι όλοι στο διοικητικό συμβούλιο της OpenAI, συμμετέχουν στη νέα επιτροπή ασφαλείας της OpenAI, δίπλα στον Altman.

Θα μπορούσαμε να υποθέσουμε ότι ένας από τους κύριους στόχους της νέας ομάδας εποπτείας είναι να διασφαλίσει ότι οι διαδικασίες ανάπτυξης και εκπαίδευσης των νέων μοντέλων της OpenAI είναι διαφανείς και σύμφωνες με τις ηθικές και νομικές κατευθυντήριες γραμμές.

Δείτε επίσης: OpenAI: Κυκλοφορεί το νέο AI μοντέλο GPT-4o σε όλους τους χρήστες

Η ομάδα εποπτείας μπορεί να στοχεύει, επίσης, στην ενίσχυση της ασφάλειας των μοντέλων, διασφαλίζοντας ότι οι νέες τεχνολογίες δεν θα χρησιμοποιηθούν για κακόβουλους σκοπούς και ότι οι κίνδυνοι που σχετίζονται με την τεχνητή νοημοσύνη θα ελαχιστοποιηθούν.

Ένας άλλος σημαντικός στόχος θα πρέπει να είναι η βελτίωση της απόδοσης και της ακρίβειας των μοντέλων, μέσω της συνεχούς παρακολούθησης και ανατροφοδότησης κατά τη διάρκεια της εκπαίδευσης και της ανάπτυξης.

Τέλος, η Επιτροπή Ασφαλείας έχει ως στόχο να ενισχύσει την εμπιστοσύνη του κοινού στην OpenAI, μέσω της διαφάνειας και της υπευθυνότητας στις δράσεις και τις αποφάσεις της, διασφαλίζοντας ότι οι τεχνολογίες που αναπτύσσονται είναι προς όφελος της κοινωνίας.

Τις επόμενες 90 ημέρες, η επιτροπή ασφαλείας θα αξιολογήσει τις διαδικασίες και τις διασφαλίσεις της OpenAI και θα μοιραστεί τις συστάσεις της με το διοικητικό συμβούλιο. Η OpenAI θα παράσχει ενημέρωση σχετικά με τις συστάσεις που έχει υιοθετήσει σε μεταγενέστερη ημερομηνία.

Δείτε επίσης: OpenAI: Θα επιτρέπει τη δημιουργία πορνογραφίας μέσω AI;

Επιπλέον, η εταιρεία, της οποίας CEO είναι ο Sam Altman, ανακοίνωσε ότι έχει αρχίσει να εκπαιδεύει το νέο της AI model, ή next frontier model, όπως το ονόμασε.

Η OpenAI ανέφερε ότι “τα συστήματα που θα προκύψουν θα μας φέρουν στο επόμενο επίπεδο δυνατοτήτων στην πορεία μας προς το AGI (artificial general intelligence)“. Το AGI αναφέρεται στην τεχνητή νοημοσύνη που είναι εξίσου έξυπνη ή πιο έξυπνη από τους ανθρώπους.

Πηγή: www.cnbc.com

Digital Fortress
Digital Fortresshttps://secnews.gr
Pursue Your Dreams & Live!
spot_img

Εγγραφή στο Newsletter

* indicates required

FOLLOW US

LIVE NEWS