Nouveau comité de sécurité OpenAI avec plus de pouvoirs et sans Sam Altman

OpenAI a annoncé des changements importants dans ses pratiques de sécurité, notamment la création d'un nouveau comité de surveillance indépendant. Cette mesure s'accompagne d'un changement notable : le CEO Sam Altman ne fait plus partie du comité de sécurité, ce qui constitue un changement par rapport à la structure précédente.

Le comité de sécurité et de sûreté (SSC) nouvellement créé sera présidé par Zico Kolter, directeur du département d'apprentissage automatique de l'université Carnegie Mellon. D'autres membres importants sont Adam D'Angelo, CEO de Quora, Paul Nakasone, général à la retraite de l'armée américaine, et Nicole Seligman, ancienne EVP et conseillère générale de Sony Corporation.
Le nouveau comité remplace l'ancien comité de sécurité, créé en juin 2024 et dont Altman faisait partie. Le comité initial avait pour mission de formuler des recommandations sur les décisions critiques en matière de sécurité pour les projets et les opérations OpenAI.

Les tâches du SSC vont désormais au-delà des recommandations. Il aura le pouvoir de superviser les évaluations de sécurité pour la publication de modèles importants et de superviser l'introduction de modèles. Il sera particulièrement important que le comité ait le pouvoir de retarder une publication jusqu'à ce que les problèmes de sécurité aient été dûment pris en compte.

Cette restructuration fait suite à une phase d'examen de l'engagement d'OpenAI en matière de sécurité de l'IA. L'entreprise a été critiquée par le passé pour avoir dissous son équipe de super-alignement et pour avoir vu des membres clés de son personnel spécialisés dans la sécurité quitter l'entreprise. Le licenciement d'Altman du comité de sécurité semble être une tentative pour répondre aux préoccupations concernant les conflits d'intérêts potentiels dans la supervision de la sécurité de l'entreprise.

La récente initiative de sécurité d'OpenAI comprend également des plans visant à améliorer les mesures de sécurité, à accroître la transparence de son travail et à collaborer avec des organisations externes. L'entreprise a déjà conclu des accords avec les instituts de sécurité de l'IA des États-Unis et du Royaume-Uni afin d'étudier ensemble les risques émergents en matière de sécurité de l'IA et de développer des normes pour une IA de confiance.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *