OpenAI forma un comitato di sicurezza e inizia ad addestrare l’ultimo modello di intelligenza artificiale

La società tecnologica OpenAI ha annunciato di aver formato un comitato per la sicurezza e la protezione e di aver iniziato la formazione di un nuovo modello di intelligenza artificiale (AI) per sostituire il sistema GPT-4 che è alla base del suo chatbot ChatGPT.

La startup di San Francisco ha dichiarato martedì che il comitato consiglierà il suo consiglio di amministrazione su “rischi e decisioni critici per la sicurezza” nei suoi progetti e operazioni.

Il comitato per la sicurezza è stato creato in un momento in cui in azienda si discuteva sulla sicurezza dell’intelligenza artificiale, cosa che è stata portata alla ribalta dopo che il ricercatore Jan Leike si è dimesso e ha criticato OpenAI per aver lasciato che la sicurezza “compromettesse con prodotti brillanti”.

Anche il co-fondatore e capo scienziato di OpenAI Ilya Sutskevers si è dimesso e la società aveva precedentemente sciolto un team concentrato sui rischi dell’IA.

OpenAI afferma di aver “recentemente iniziato la formazione del suo modello di prossima frontiera” e che i suoi modelli di intelligenza artificiale sono leader del settore in termini di capacità e sicurezza.

I modelli di intelligenza artificiale sono sistemi predittivi addestrati su vasti set di dati per generare testo, immagini, video e conversazioni di tipo umano su richiesta.

Il primo compito del comitato appena formato sarà quello di valutare e sviluppare ulteriormente i processi e le garanzie di OpenAI e fornire raccomandazioni al consiglio entro 90 giorni.

cristiano mbappe

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *