Bleiben Sie informiert mit kostenlosen Updates
Melden Sie sich einfach für den KI-myFT Digest an – direkt in Ihren Posteingang geliefert.
OpenAI sagt, dass es Hinweise darauf gefunden hat, dass das chinesische KI-Startup DeepSeek die proprietären Modelle des US-Unternehmens verwendet hat, um seinen eigenen Open-Source-Konkurrenten zu trainieren, während Bedenken über einen möglichen Verstoß gegen das geistige Eigentum wachsen.
Der in San Francisco ansässige Hersteller von ChatGPT sagte der Financial Times, er habe einige Hinweise auf „Destillation“ gesehen, eine Technik, die von Entwicklern verwendet wird, um eine bessere Leistung bei kleineren Modellen zu erzielen, indem Ausgaben von größeren, leistungsfähigeren Modellen verwendet werden. Dies ermöglicht es ihnen, ähnliche Ergebnisse bei spezifischen Aufgaben zu einem deutlich geringeren Preis zu erzielen.
OpenAI lehnte es ab, weitere Details zu seinen Beweisen zu kommentieren. In seinen Nutzungsbedingungen heißt es, dass Benutzer keine der Dienste „kopieren“ oder „Ausgaben verwenden dürfen, um Modelle zu entwickeln, die mit OpenAI konkurrieren“.
Die Veröffentlichung des R1-Argumentationsmodells von DeepSeek hat die Märkte überrascht, ebenso wie Investoren und Technologieunternehmen im Silicon Valley, aufgrund seiner beeindruckenden Leistung bei kognitiven Aufgaben. Seine auf einem Schuhband gebauten Modelle haben hohe Platzierungen erreicht und vergleichbare Ergebnisse mit führenden US-Modellen erzielt. Die Aktien von Nvidia fielen am Montag um 17 Prozent, wodurch 589 Milliarden US-Dollar von ihrem Marktwert abgezogen wurden, aufgrund der Befürchtungen, dass große Investitionen in ihre teure KI-Hardware möglicherweise nicht erforderlich wären. Sie erholten sich am Dienstag um 9 Prozent zusammen mit anderen von der Nachricht betroffenen Technologieaktien.
Eine Person, die OpenAI nahesteht, sagte, dass Destillation in der Branche eine gängige Praxis sei und darauf hinwies, dass das Unternehmen Entwicklern eine Möglichkeit bietet, dies mit seiner eigenen Plattform zu tun, sagte aber: „Das Problem tritt auf, wenn Sie es tun, um Ihr eigenes Modell für Ihre eigenen Zwecke zu erstellen.“
Microsoft und OpenAI haben letzten Herbst Untersuchungen zu Konten durchgeführt, von denen angenommen wurde, dass sie zu DeepSeek gehören, die OpenAIs Application Programming Interface oder API verwendet haben, und ihren Zugriff aufgrund von Verdachtsfällen auf Destillation, die gegen die Nutzungsbedingungen verstoßen, blockiert, fügte eine andere Person mit direktem Wissen hinzu und wie zuerst von Bloomberg berichtet.
Microsoft lehnte eine Stellungnahme ab und OpenAI reagierte nicht sofort auf diese Details. DeepSeek reagierte nicht sofort auf eine Anfrage für einen Kommentar.
Zuvor sagte David Sacks, der KI- und Kryptozar von Präsident Donald Trump, dass „es möglich ist“, dass ein Diebstahl des geistigen Eigentums stattgefunden hat.
Empfohlen
„Es gibt eine Technik in der KI namens Destillation, … wenn ein Modell von einem anderen Modell lernt [und] das Wissen aus dem Elternmodell sozusagen herauszieht“, sagte Sacks am Dienstag gegenüber Fox News.
„Und es gibt substanzielle Beweise dafür, dass DeepSeek hier das Wissen aus den OpenAI-Modellen destilliert hat, und ich glaube nicht, dass OpenAI darüber sehr glücklich ist“, fügte Sacks hinzu, obwohl er keine Beweise vorlegte.
DeepSeek sagte, es habe nur 2.048 Nvidia H800-Grafikkarten verwendet und 5,6 Millionen US-Dollar ausgegeben, um sein V3-Modell mit 671 Milliarden Parametern zu trainieren, ein Bruchteil dessen, was OpenAI und Google für das Training vergleichbarer Modelle ausgegeben haben. Einige Experten wiesen darauf hin, wie das Modell Antworten generierte, die darauf hindeuteten, dass es auf Ausgaben von OpenAIs GPT-4 trainiert worden war, was gegen die Nutzungsbedingungen verstoßen würde.
Insidern zufolge ist es in der Realität gängige Praxis für KI-Labore, sowohl in China als auch in den USA, Ausgaben von führenden Unternehmen wie OpenAI zu verwenden, die auch in die Einstellung von Mitarbeitern investiert haben, um ihren Modellen beizubringen, wie sie menschlicher klingen. Das ist teuer und arbeitsintensiv, und es ist üblich, dass kleinere Akteure von ihrer Arbeit profitieren, sagen die Insider.
„Es ist eine sehr verbreitete Praxis für Start-ups und Wissenschaftler, Ausgaben von kommerziellen LLMs zu verwenden, die auf Menschen ausgerichtet sind, wie ChatGPT, um ein anderes Modell zu trainieren“, sagte Ritwik Gupta, Doktorand für KI an der University of California, Berkeley.
„Das bedeutet, dass Sie diesen Schritt des menschlichen Feedbacks kostenlos erhalten. Es überrascht mich nicht, dass DeepSeek angeblich dasselbe tun würde. Wenn sie es waren, könnte es schwierig sein, diese Praxis genau zu stoppen“, fügte er hinzu.
Die Praxis hebt auch die Schwierigkeit für führende Unternehmen in der KI hervor, ihren technischen Vorsprung zu verteidigen, wenn andere Gruppen auf ihren Modellen aufspringen können.
Chinesische Unternehmen haben schnell Lektionen von ihren US-Kollegen aufgenommen und Ansätze zur Maximierung ihrer begrenzten Anzahl von Chips innoviert, was es billiger macht, die Modelle zu trainieren und auszuführen.
„Wir wissen, dass in China ansässige Unternehmen – und andere – ständig versuchen, die Modelle führender US-KI-Unternehmen zu destillieren“, fügte OpenAI in einer Erklärung hinzu.
„Wir ergreifen Gegenmaßnahmen zum Schutz unseres geistigen Eigentums, einschließlich eines sorgfältigen Prozesses, welche Frontier-Fähigkeiten in veröffentlichte Modelle aufgenommen werden sollen, und glauben, dass es von entscheidender Bedeutung ist, dass wir eng mit der US-Regierung zusammenarbeiten, um die fähigsten Modelle vor Bemühungen von Gegnern und Wettbewerbern zu schützen, US-Technologie zu übernehmen.“
OpenAI kämpft derzeit mit Anschuldigungen wegen Urheberrechtsverletzungen von Zeitungen und Inhaltserstellern, einschließlich Klagen von der New York Times und prominenten Autoren, die dem Unternehmen vorwerfen, ihre Modelle auf ihren Artikeln und Büchern ohne Erlaubnis trainiert zu haben.