OpenAI ha annunciato importanti modifiche alle sue pratiche di sicurezza, tra cui l'istituzione di un nuovo comitato di supervisione indipendente. Questa mossa è accompagnata da un cambiamento notevole: l'amministratore delegato Sam Altman non fa più parte del comitato per la sicurezza, un allontanamento dalla struttura precedente.
Il Comitato per la sicurezza e la protezione (SSC), di recente creazione, sarà presieduto da Zico Kolter, direttore del Dipartimento di apprendimento automatico della Carnegie Mellon University. Altri membri chiave sono Adam D'Angelo, CEO di Quora, Paul Nakasone, generale in pensione dell'esercito statunitense, e Nicole Seligman, ex EVP e General Counsel di Sony Corporation.
Il nuovo comitato sostituisce il precedente comitato per la sicurezza, fondato nel giugno 2024 e di cui Altman era membro. Il comitato originario aveva il compito di formulare raccomandazioni sulle decisioni critiche in materia di sicurezza per i progetti e le operazioni di OpenAI.
I compiti del CSD vanno ora oltre le raccomandazioni. Sarà autorizzato a monitorare le valutazioni di sicurezza per la pubblicazione di modelli importanti e a supervisionare l'introduzione di modelli. Di particolare importanza è il fatto che il comitato sarà autorizzato a ritardare il rilascio di un modello fino a quando non saranno stati affrontati adeguatamente i problemi di sicurezza.
Questa riorganizzazione segue un periodo di revisione dell'impegno di OpenAI per la sicurezza dell'IA. In passato l'azienda è stata criticata per aver sciolto il suo team di super-allineamento e per aver lasciato l'azienda a personale chiave focalizzato sulla sicurezza. Il licenziamento di Altman dal comitato per la sicurezza sembra essere un tentativo di risolvere le preoccupazioni sui potenziali conflitti di interesse nella supervisione della sicurezza dell'azienda.
L'ultima iniziativa di OpenAI in materia di sicurezza comprende anche piani per migliorare le misure di sicurezza, aumentare la trasparenza del proprio lavoro e collaborare con organizzazioni esterne. L'azienda ha già stipulato accordi con gli istituti per la sicurezza dell'IA degli Stati Uniti e del Regno Unito per ricercare insieme i rischi emergenti per la sicurezza dell'IA e sviluppare standard per un'IA affidabile.