La società tecnologica OpenAI ha annunciato di aver formato un comitato per la sicurezza e la protezione e di aver iniziato la formazione di un nuovo modello di intelligenza artificiale (AI) per sostituire il sistema GPT-4 che è alla base del suo chatbot ChatGPT.
La startup di San Francisco ha dichiarato martedì che il comitato consiglierà il suo consiglio di amministrazione su “rischi e decisioni critici per la sicurezza” nei suoi progetti e operazioni.
Il comitato per la sicurezza è stato creato in un momento in cui in azienda si discuteva sulla sicurezza dell’intelligenza artificiale, cosa che è stata portata alla ribalta dopo che il ricercatore Jan Leike si è dimesso e ha criticato OpenAI per aver lasciato che la sicurezza “compromettesse con prodotti brillanti”.
Anche il co-fondatore e capo scienziato di OpenAI Ilya Sutskevers si è dimesso e la società aveva precedentemente sciolto un team concentrato sui rischi dell’IA.
OpenAI afferma di aver “recentemente iniziato la formazione del suo modello di prossima frontiera” e che i suoi modelli di intelligenza artificiale sono leader del settore in termini di capacità e sicurezza.
I modelli di intelligenza artificiale sono sistemi predittivi addestrati su vasti set di dati per generare testo, immagini, video e conversazioni di tipo umano su richiesta.
Il primo compito del comitato appena formato sarà quello di valutare e sviluppare ulteriormente i processi e le garanzie di OpenAI e fornire raccomandazioni al consiglio entro 90 giorni.