„
Zwölf ehemalige Mitarbeiter von OpenAI haben einen Bundesrichter um Erlaubnis gebeten, sich in Elon Musks Klage gegen Sam Altman und das Unternehmen einzuschalten. Der Harvard-Rechtsprofessor Lawrence Lessig reichte heute im Namen der ehemaligen Mitarbeiter eine Stellungnahme ein, in der sie OpenAI beschuldigen, seine gemeinnützigen Wurzeln aufgegeben und die Mission verraten zu haben, die sie ursprünglich zu der Organisation hingezogen hatte.
Elon Musk verklagt OpenAI, CEO Sam Altman und andere, weil sie seiner Meinung nach die gemeinnützige Mission verraten haben, die er mitbegründet hat, als OpenAI 2015 gegründet wurde. Diese Woche hat OpenAI seinerseits Elon Musk verklagt, weil er angeblich ununterbrochen versucht hat, das Geschäft des Unternehmens zu bremsen, um seinen eigenen Vorteil zu erlangen. Die Klage besagt, dass Musk „unlautere Taktiken“ gegen OpenAI angewendet hat, um die Kontrolle über die KI-Technologie zu erlangen.
Die amicus, oder „Freund des Gerichts“, Stellungnahme, die am Freitag vor einem Bundesgericht in Kalifornien eingereicht wurde, enthält einige hitzige Sprache und Anschuldigungen. Insbesondere erklärte der ehemalige OpenAI-Forscher Todor Markov, der jetzt als Forscher bei Anthropic arbeitet, in einer dreiseitigen Erklärung, dass OpenAI-CEO Sam Altman „eine Person von geringer Integrität war, die den Mitarbeitern direkt über das Ausmaß seines Wissens und seiner Beteiligung an den Praktiken von OpenAI gelogen hatte, die ausscheidende Mitarbeiter zwangen, lebenslange Geheimhaltungsvereinbarungen zu unterzeichnen.“ Markov fuhr fort zu sagen, dass Altman daher höchstwahrscheinlich auch den Mitarbeitern über andere wichtige Themen wie die Aufrichtigkeit von OpenAIs Verpflichtung zu seinem Charter gelogen hat, der versprach, sicherzustellen, dass die künstliche allgemeine Intelligenz (AGI) zum Nutzen aller eingesetzt wird und die Vermeidung von Anwendungen, die der Menschheit schaden und Macht konzentrieren. Er verpflichtete sich, die Forschung zur Sicherheit von AGI zu priorisieren und einen gefährlichen Wettlauf zur AGI zu vermeiden, der zu Abkürzungen führen könnte.
„Mir wurde klar, dass der Charter als Ablenkungsmanöver verwendet wurde, um idealistisches Talent anzuziehen und zu halten, ohne eine echte Kontrolle über das Wachstum von OpenAI und seine Bestrebungen zur AGI zu bieten“, sagte Markov in der Erklärung. Er sagte auch, dass die öffentliche Ankündigung von OpenAI, eine vollständige Umstrukturierung in eine vollständig gewinnorientierte Gesellschaft zu verfolgen, im Widerspruch zu den Kernverpflichtungen seines Charters steht, „hat mich nur weiter überzeugt, dass der Charter und die Mission von OpenAI die ganze Zeit als Fassade benutzt wurden, um seine Belegschaft und die Öffentlichkeit zu manipulieren.“
OpenAI, das bei seiner letzten Finanzierungsrunde mit 300 Milliarden Dollar bewertet wurde, äußerte sich nicht direkt zu den Anschuldigungen über Altman in der Stellungnahme. In einer Erklärung sagte das Unternehmen: „Unser Vorstand war sehr deutlich: Unsere gemeinnützige Organisation wird bestehen bleiben und unsere Mission wird dieselbe bleiben. Wir verwandeln unseren bestehenden gewinnorientierten Arm in eine Public Benefit Corporation – die gleiche Struktur wie andere KI-Labors wie Anthropic, wo einige dieser ehemaligen Mitarbeiter jetzt arbeiten – und xAI.“
Wenn die Richterin, die den Fall OpenAI/Musk überwacht, die amicus-Stellungnahme akzeptiert, wird sie Teil des Gerichtsakts und der Richter kann ihre Argumente berücksichtigen, wenn es darum geht, die nächsten Schlüsselthemen im Fall zu entscheiden.
Markov sagte Fortune am Freitag per Direktnachricht, dass er mehr zu verlieren als zu gewinnen habe, indem er sich an der Klage gegen seinen ehemaligen Arbeitgeber beteilige. „In Wirklichkeit stehe ich finanziell viel auf dem Spiel, wenn Elons Klage Erfolg hat. Ein großer Teil meiner Ersparnisse steckt in OpenAI-Aktien“, sagte er. „Daher kann sich alles, was den Wert dieser Aktien mindert, erheblich auf meine eigenen Finanzen auswirken.“
Die anderen ehemaligen OpenAI-Mitarbeiter in der Stellungnahme, von denen die meisten Titel im Zusammenhang mit KI-Sicherheits- und Ausrichtungsforschung und -politik hatten, sind Steven Adler, Rosemary Campbell, Neil Chowdhury, Jacob H. Hilton, Daniel Kokotajlo, Gretchen M. Krueger, Richard M.C. Ngo, Girish Sastry, William R. Saunders, Carrol L. Wainwright II und Jeffrey K. Wu.
Diese Geschichte wurde ursprünglich auf Fortune.com veröffentlicht.
„