Neuer OpenAI-Sicherheitsausschuss mit mehr Befugnissen und ohne Sam Altman

OpenAI hat wichtige Änderungen seiner Sicherheitspraktiken angekündigt, darunter die Einrichtung eines neuen unabhängigen Aufsichtsgremiums. Dieser Schritt geht mit einer bemerkenswerten Änderung einher: CEO Sam Altman ist nicht mehr Teil des Sicherheitsausschusses, was eine Abkehr von der bisherigen Struktur darstellt.

Den Vorsitz des neu geschaffenen Safety and Security Committee (SSC) übernimmt Zico Kolter, Direktor der Abteilung für maschinelles Lernen an der Carnegie Mellon University. Weitere wichtige Mitglieder sind Adam D’Angelo, CEO von Quora, Paul Nakasone, pensionierter General der US-Armee, und Nicole Seligman, ehemalige EVP und General Counsel der Sony Corporation.
Das neue Komitee ersetzt das bisherige Sicherheitskomitee, das im Juni 2024 gegründet wurde und dem auch Altman angehörte. Das ursprüngliche Komitee hatte die Aufgabe, Empfehlungen zu kritischen Sicherheitsentscheidungen für OpenAI-Projekte und -Operationen abzugeben.

Die Aufgaben des SSC gehen nun über Empfehlungen hinaus. Es wird befugt sein, Sicherheitsbewertungen für die Veröffentlichung wichtiger Modelle zu überwachen und die Einführung von Modellen zu beaufsichtigen. Von besonderer Bedeutung ist, dass der Ausschuss befugt sein wird, eine Veröffentlichung zu verzögern, bis Sicherheitsbedenken angemessen berücksichtigt wurden.

Diese Umstrukturierung folgt auf eine Phase der Überprüfung des Engagements von OpenAI für die Sicherheit von KI. Das Unternehmen wurde in der Vergangenheit dafür kritisiert, dass es sein Superalignment-Team aufgelöst hat und wichtige Mitarbeiter mit Schwerpunkt Sicherheit das Unternehmen verlassen haben. Die Entlassung von Altman aus dem Sicherheitsausschuss scheint ein Versuch zu sein, Bedenken hinsichtlich potenzieller Interessenkonflikte bei der Sicherheitsaufsicht des Unternehmens auszuräumen.

Die jüngste Sicherheitsinitiative von OpenAI umfasst auch Pläne zur Verbesserung der Sicherheitsmaßnahmen, zur Erhöhung der Transparenz ihrer Arbeit und zur Zusammenarbeit mit externen Organisationen. Das Unternehmen hat bereits Vereinbarungen mit den KI-Sicherheitsinstituten der USA und Großbritanniens getroffen, um gemeinsam aufkommende KI-Sicherheitsrisiken zu erforschen und Standards für vertrauenswürdige KI zu entwickeln.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert