Amazon verstärkt Bemühungen, KI-Chips zu entwickeln, die mit Nvidia konkurrieren können.

Amazon steht kurz davor, seine neuesten künstlichen Intelligenz-Chips einzuführen, da die Big-Tech-Gruppe Renditen aus ihren milliardenschweren Halbleiterinvestitionen erzielen will und ihre Abhängigkeit vom Marktführer Nvidia reduzieren möchte.

Führungskräfte der Cloud-Computing-Division von Amazon investieren kräftig in maßgeschneiderte Chips in der Hoffnung, die Effizienz in ihren Dutzenden von Rechenzentren zu steigern und letztendlich ihre eigenen Kosten sowie die Kosten der Kunden von Amazon Web Services zu senken.

Die Bemühungen werden von Annapurna Labs vorangetrieben, einem in Austin ansässigen Chip-Start-up, das Amazon Anfang 2015 für 350 Millionen US-Dollar erworben hat. Die neuesten Arbeiten von Annapurna sollen nächsten Monat vorgestellt werden, wenn Amazon die weitreichende Verfügbarkeit von ‚Trainium 2‘ ankündigt, einem Teil einer Linie von KI-Chips, die auf das Training der größten Modelle abzielen.

Trainium 2 wird bereits von Anthropic getestet – dem Konkurrenten von OpenAI, der 4 Milliarden US-Dollar von Amazon erhalten hat – sowie von Databricks, Deutsche Telekom und den japanischen Unternehmen Ricoh und Stockmark.

Das Ziel von AWS und Annapurna ist es, Nvidia, eines der wertvollsten Unternehmen der Welt aufgrund seiner Dominanz auf dem KI-Prozessormarkt, herauszufordern.

„Wir möchten absolut der beste Ort sein, um Nvidia auszuführen“, sagte Dave Brown, Vice President für Rechen- und Netzwerkdienste bei AWS. „Aber gleichzeitig halten wir es für gesund, eine Alternative zu haben.“ Amazon sagte, dass ‚Inferentia‘, eine weitere ihrer spezialisierten KI-Chip-Linien, bereits um 40 Prozent günstiger ist, um Antworten aus KI-Modellen zu generieren.

„Der Preis für Cloud-Computing tendiert dazu, bei maschinellem Lernen und KI viel höher zu sein“, sagte Brown. „Wenn Sie 40 Prozent von 1000 US-Dollar sparen, wird dies Ihre Wahl nicht wirklich beeinflussen. Aber wenn Sie 40 Prozent bei zig Millionen Dollar sparen, macht es das schon.“

LESEN  Die größte Herausforderung des neu gestalteten Jaguars könnte sein Name sein.

Amazon erwartet nun bis 2024 rund 75 Milliarden US-Dollar an Investitionen in Sachanlagen, wobei der Großteil auf die Technologieinfrastruktur entfällt. Auf dem letzten Quartalsbericht des Unternehmens sagte CEO Andy Jassy, dass er erwartet, dass das Unternehmen auch 2025 noch mehr ausgeben wird.

Dies stellt einen Anstieg gegenüber 2023 dar, als es für das gesamte Jahr 48,4 Milliarden US-Dollar ausgab. Die größten Cloud-Anbieter, einschließlich Microsoft und Google, befinden sich alle in einem KI-Ausgabenrausch, der keine Anzeichen einer Abschwächung zeigt.

Amazon, Microsoft und Meta sind alle große Kunden von Nvidia, entwerfen jedoch auch ihre eigenen Rechenzentrumschips, um die Grundlagen für das zu schaffen, was sie hoffen, wird eine Welle des KI-Wachstums sein.

„Jeder der großen Cloud-Anbieter bewegt sich fieberhaft auf einen mehr vertikalen und, wenn möglich, homogenisierten und integrierten [Chip-Technologie]-Stack zu“, sagte Daniel Newman vom Futurum Group.

„Jeder von OpenAI bis Apple versucht, ihre eigenen Chips zu bauen“, bemerkte Newman, da sie „niedrigere Produktionskosten, höhere Margen, größere Verfügbarkeit und mehr Kontrolle“ suchen.

„Es geht nicht nur um den Chip, es geht um das gesamte System“, sagte Rami Sinno, Annapurnas Direktor für Technik und ein Veteran von SoftBank’s Arm und Intel.

Für die KI-Infrastruktur von Amazon bedeutet das, alles von Grund auf zu bauen, vom Siliziumwafer bis zu den Servergestellen, die in sie passen, alles unterstützt von Amazons proprietärer Software und Architektur. „Es ist wirklich schwer, das, was wir im großen Maßstab tun, zu tun. Nicht allzu viele Unternehmen können das“, sagte Sinno.

Nachdem sie mit einem Sicherheitschip für AWS namens Nitro begonnen hatten, hat Annapurna seitdem mehrere Generationen von Graviton entwickelt, ihren auf Arm basierenden zentralen Verarbeitungseinheiten, die eine energiesparende Alternative zu den traditionellen Server-Arbeitspferden von Intel oder AMD bieten.

LESEN  Shopify Aktie steigt aufgrund von Q3 Umsatz, E-Commerce Volumen übertrifft

„Der große Vorteil für AWS besteht darin, dass ihre Chips weniger Energie verbrauchen, und ihre Rechenzentren vielleicht etwas effizienter sein können“, was die Kosten senkt, sagte G Dan Hutcheson, Analyst bei TechInsights. Wenn Nvidias Grafikprozessoren leistungsstarke Allzweckwerkzeuge sind – in Automobilbegriffen wie ein Kombi oder Kombi – kann Amazon seine Chips für spezifische Aufgaben und Dienste optimieren, wie ein Kompakt- oder Schrägheckmodell, sagte er.

Bisher haben AWS und Annapurna jedoch kaum Nvidias Dominanz in der KI-Infrastruktur erschüttern können.

Nvidia verzeichnete im zweiten Geschäftsquartal 2024 einen Umsatz von 26,3 Milliarden US-Dollar für den Verkauf von KI-Rechenzentrumschips. Diese Zahl entspricht dem Betrag, den Amazon für seine gesamte AWS-Division im eigenen zweiten Geschäftsquartal bekannt gab – von dem nur ein relativ kleiner Teil den Kunden zugeschrieben werden kann, die KI-Workloads auf der Infrastruktur von Annapurna ausführen, so Hutcheson.

Was die Rohleistung der AWS-Chips im Vergleich zu denen von Nvidia betrifft, vermeidet Amazon direkte Vergleiche und reicht seine Chips nicht für unabhängige Leistungsbenchmarks ein.

„Benchmarks sind gut für diese erste Frage: ’sollte ich diesen Chip überhaupt in Betracht ziehen'“, sagte Patrick Moorhead, Chip-Berater bei Moor Insights & Strategy, aber der eigentliche Test besteht darin, wenn sie „in mehreren Gestellen zusammen als Flotte“ eingesetzt werden.

Moorhead sagte, er habe Vertrauen in Amazons Behauptungen eines 4-fachen Leistungsanstiegs zwischen Trainium 1 und Trainium 2, nachdem er das Unternehmen jahrelang geprüft habe. Aber die Leistungsdaten mögen weniger wichtig sein als einfach den Kunden mehr Auswahl zu bieten.

„Die Leute schätzen all die Innovationen, die Nvidia gebracht hat, aber niemand fühlt sich wohl dabei, dass Nvidia 90 Prozent Marktanteil hat“, fügte er hinzu. „Das kann nicht lange anhalten.“

LESEN  Tipps nach dem Budget für die Automobilindustrie