Die Sicherheitsverantwortlichen von OpenAI haben das Unternehmen aufgrund von Differenzen über die Priorisierung von “glänzenden Produkten” im Vergleich zur Sicherheit verlassen, so ein hochrangiger Forscher. Jan Leike, der die Bemühungen zur Steuerung leistungsstarker KI-Tools bei OpenAI leitete, gab seine Kündigung bekannt, nachdem Uneinigkeiten über die Investition von Zeit und Ressourcen in diese Bemühungen bestanden. Er betonte, dass in den letzten Jahren die Sicherheitskultur und -prozesse im Vergleich zu Produkten im Hintergrund standen.
OpenAI war führend im Wettlauf um die Entwicklung fortschrittlicher KI-Modelle und hat Milliarden von Dollar gesammelt, um Technologien zu entwickeln, die Text, Sprache und Bilder verstehen können. Die jüngsten Fortschritte haben jedoch Bedenken hervorgerufen, insbesondere im Hinblick auf potenzielle Risiken, wenn KI-Tools außer Kontrolle geraten. Leike verließ das Unternehmen zusammen mit einem Mitbegründer, was dazu führte, dass das Sicherheitsteam von OpenAI aufgelöst wurde und die verbleibenden Mitglieder ihre Forschungen auf andere Teams verteilten.
Die Diskrepanzen innerhalb von OpenAI verdeutlichen die Spannung zwischen dem Streben nach technologischer Führung und der Verpflichtung, sicherzustellen, dass KI den Menschen insgesamt zugutekommt. Die Gründung des Superalignment-Teams war ein Schritt, um Bedenken hinsichtlich der potenziell negativen Auswirkungen von KI zu begegnen. Dennoch äußerte Leike Besorgnis darüber, dass der Sicherheit und den gesellschaftlichen Auswirkungen von leistungsstarken Modellen nicht genügend Aufmerksamkeit geschenkt wurde. Der Zugang zu Rechenressourcen für das Superalignment-Team stellte sich als Herausforderung heraus, was die Forschung beeinträchtigte und deren Fortschritt behinderte.