"
Hallo und herzlich willkommen bei Eye on AI. In dieser Ausgabe…keine Anzeichen für einen Stillstand bei KI auf dem Web Summit; Probleme bei der Arbeit an Amazons neuem Alexa durch weitere technische Probleme; ein allgemeines Robotermodell; Versuch, Trumps Ohr bezüglich KI-Politik zu erreichen.
Letzte Woche war ich auf dem Web Summit in Lissabon, wo KI überall präsent war. Es gab jedoch eine seltsame Diskrepanz zwischen der Stimmung auf der Konferenz, wo so viele Unternehmen KI-gestützte Produkte und Funktionen bewarben, und dem Tenor der KI-Nachrichten der letzten Woche—die sich größtenteils auf Berichte konzentrierten, dass die KI-Unternehmen, die Grundlagenmodelle entwickeln, sich abnehmende Erträge aus dem Bau immer größerer KI-Modelle verzeichneten, und wilden Spekulationen in einigen Bereichen, dass der KI-Hype-Zyklus kurz vor dem Ende stehe.
Ich moderierte eine Podiumsdiskussion auf der Hauptbühne darüber, ob die KI-Blase kurz vor dem Platzen steht, und hörte zwei sehr unterschiedliche, aber nicht diametral entgegengesetzte Ansichten. (Sie können es auf YouTube anschauen.) Bhavin Shah, der CEO von Moveworks, der einen KI-gestützten Service für große Unternehmen anbietet, der es den Mitarbeitern ermöglicht, ihre IT-Fragen automatisch beantwortet zu bekommen, argumentierte—wie man erwarten würde—dass die Blase nicht kurz vor dem Platzen steht, dass es nicht einmal klar ist, ob es überhaupt eine Blase gibt.
KI ist nicht wie Tulpenzwiebeln oder Kryptowährung
Sicher, sagte Shah, die Bewertungen einiger weniger Technologieunternehmen könnten zu hoch sein. Aber KI selbst sei etwas ganz anderes als beispielsweise Krypto oder das Metaverse oder die Tulpenmanie des 17. Jahrhunderts. Hier handelte es sich um eine Technologie, die einen realen Einfluss darauf hatte, wie die größten Unternehmen der Welt operierten—und sie war erst am Anfang. Er sagte, dass es erst jetzt, zwei Jahre nach dem Start von ChatGPT, viele Unternehmen gab, die KI-Anwendungsfälle fanden, die echten Mehrwert schaffen würden.
Statt besorgt zu sein, dass der Fortschritt bei KI möglicherweise stagniert, argumentierte Shah, dass Unternehmen immer noch alle möglichen, transformative Anwendungsfälle für die bereits vorhandene KI erforschen würden—und die transformative Wirkung der Technologie sei auf weitere Fortschritte in den Fähigkeiten der LLMs angewiesen. Tatsächlich sagte er, dass es viel zu viel Fokus darauf gebe, was die zugrunde liegenden LLMs könnten und viel zu wenig darauf, wie man Systeme und Workflows um LLMs und andere, unterschiedliche Arten von KI-Modellen herum aufbauen könne, die insgesamt einen signifikanten Return on Investment (ROI) für Unternehmen lieferten.
Die Idee, dass einige Leute gehabt haben könnten, dass einfach nur ein LLM auf ein Problem geworfen wird und magischerweise zu einem ROI führen würde, war immer naiv, argumentierte Shah. Stattdessen würde es immer eine Systemarchitektur und -entwicklung erfordern, um einen Prozess zu schaffen, in dem KI einen Mehrwert liefern könne.
Die Umwelt- und sozialen Kosten von KI sprechen für eine Verlangsamung
Unterdessen argumentierte Sarah Myers West, die Co-Geschäftsführerin des AI Now Institute, nicht so sehr, dass die KI-Blase kurz vor dem Platzen stehe—sondern dass es für uns alle vielleicht besser wäre, wenn sie das täte. West argumentierte, dass die Welt sich keine Technologie leisten könne, die den Energieverbrauch, den Datenhunger und die Probleme mit unbekannten Voreingenommenheiten habe, wie die heutigen generativen KI-Systeme. In diesem Zusammenhang könnte eine Verlangsamung des Fortschritts bei der KI an der Grenze keine schlechte Sache sein, da sie Unternehmen dazu zwingen könnte, Wege zu finden, KI sowohl energie- als auch dateneffizienter zu gestalten.
West war skeptisch, dass kleinere Modelle, die effizienter sind, notwendigerweise helfen würden. Sie sagte, sie könnten einfach zum Jevons-Paradoxon führen, dem wirtschaftlichen Phänomen, bei dem die Effizienz bei der Verwendung einer Ressource nur zu einer insgesamt höheren Verbrauch dieser Ressource führt.
Wie ich letzte Woche erwähnte, denke ich, dass für viele Unternehmen, die versuchen, angewandte KI-Lösungen für spezifische Branchenvertikale zu entwickeln, die Verlangsamung an der KI-Front des Modellentwicklungsfortschritts kaum von Bedeutung ist. Diese Unternehmen setzen größtenteils darauf, dass diese Teams die aktuelle KI-Technologie nutzen können, um Produkte zu entwickeln, die eine Marktanpassung finden werden. Oder zumindest sollten sie so bewertet werden. (Sicher, es gibt auch ein bisschen „KI-Zauberstaub“ in der Bewertung, aber diese Unternehmen werden hauptsächlich nach dem bewertet, was sie mit den heutigen KI-Modellen erschaffen können.)
Skalierungsgesetze sind für die Unternehmen mit Grundlagenmodellen wichtig
Aber für die Unternehmen, deren gesamtes Geschäft darin besteht, Grundlagenmodelle zu erstellen—OpenAI, Anthropic, Cohere und Mistral—sind ihre Bewertungen sehr stark darauf ausgerichtet, künstliche allgemeine Intelligenz (AGI) zu erreichen, ein einzelnes KI-System, das mindestens so fähig ist wie Menschen bei den meisten kognitiven Aufgaben. Für diese Unternehmen ist es wichtig, dass abnehmende Erträge aus der Skalierung von LLMs von Bedeutung sind.
Aber auch hier ist es wichtig zu beachten, dass, während die Erträge aus dem Training immer größerer KI-Modelle zu stagnieren scheinen, KI-Unternehmen gerade erst anfangen, die Erträge aus der Skalierung von „Testzeit-Computing“ zu betrachten (d.h. einem KI-Modell, das eine Art Suchprozess über mögliche Antworten durchläuft, mehr Zeit—oder mehr Rechenressourcen—zu geben, um diese Suche durchzuführen). Das ist es, was OpenAIs o1-Modell tut, und das ist wahrscheinlich auch das, was zukünftige Modelle aus anderen KI-Labors tun werden.
Außerdem haben die meisten dieser Frontier-Labore Forscher mit Expertise in anderen Varianten des tiefen Lernens beschäftigt und beschäftigen sie immer noch. Wenn der Fortschritt allein durch die Skalierung nachlässt, werden sie wahrscheinlich dazu ermutigt, einen Durchbruch mit einer etwas anderen Methode zu erreichen—Suche, Verstärkungslernen oder vielleicht sogar eine völlig andere, nicht-Transformer-Architektur.
Google DeepMind und Meta befinden sich hier auch in einem etwas anderen Lager, denn diese Unternehmen haben riesige Werbegeschäfte, die ihre KI-Bemühungen unterstützen. Ihre Bewertungen sind weniger direkt mit der Entwicklung von Frontier-KI verbunden—besonders wenn es so aussieht, als ob das gesamte Feld langsamer wird.
Es wäre eine andere Geschichte, wenn ein Labor Ergebnisse erzielte, die Meta oder Google nicht replizieren könnten—was einige Leute dachten, als OpenAI mit dem Debüt von ChatGPT voraus sprang. Aber seitdem ist es OpenAI nicht gelungen, einen Vorsprung von mehr als drei Monaten für die meisten neuen Fähigkeiten aufrechtzuerhalten.
Was Nvidia betrifft, seine GPUs werden sowohl für das Training als auch für die Inferenz (d.h. die Anwendung eines KI-Modells, nachdem es trainiert wurde) verwendet—aber es hat seine fortschrittlichsten Chips für das Training optimiert. Wenn die Skalierung während des Trainings keine Erträge mehr bringt, könnte Nvidia potenziell anfällig sein für einen Konkurrenten mit Chips, die besser für die Inferenz optimiert sind. (Für mehr über Nvidia, schauen Sie sich mein Feature über den CEO des Unternehmens, Jensen Huang, an, das mit der erstmaligen Liste der 100 mächtigsten Menschen im Geschäft von Fortune verbunden war.)
Damit kommen wir zu weiteren KI-Nachrichten.
Jeremy Kahn
[email protected]
@jeremyakahn
Korrektur, 15. November: Aufgrund fehlerhafter Informationen von Robin AI wurde die Ausgabe dieses Newsletters vom letzten Dienstag fälschlicherweise Michael Bloombergs Family Office Willets als Investor der „Serie B+“-Runde des Unternehmens identifiziert. Willets war kein Investor.
**Bevor wir zu den Nachrichten kommen: Wenn Sie mehr über die Zukunft von KI erfahren möchten und wie Ihr Unternehmen einen ROI aus der Technologie ziehen kann, dann begleiten Sie mich am 9.-10. Dezember in San Francisco bei Fortune Brainstorm AI. Wir werden über die Zukunft von Amazon Alexa von Rohit Prasad, dem Senior Vice President und Head Scientist für künstliche allgemeine Intelligenz des Unternehmens, erfahren; wir werden über die Zukunft der generativen KI-Suche bei Google von Liz Reid, der Vice President Search von Google, erfahren; und über die Form der KI der Zukunft von Christopher Young, dem Executive Vice President Business Development, Strategy und Ventures von Microsoft; und wir werden von dem ehemaligen San Francisco 49er Colin Kaepernick über sein Unternehmen Lumi und den Einfluss von KI auf die Schöpferwirtschaft hören. Sie können sich hier das Programm ansehen und sich zur Teilnahme bewerben. (Und denken Sie daran, wenn Sie den Code KAHN20 im Abschnitt „Zusätzliche Kommentare“ auf der Anmeldeseite eingeben, erhalten Sie 20% Rabatt auf den Ticketpreis—eine nette Belohnung für ein treuer Eye on AI-Leser!)
AI IN DEN NACHRICHTEN
Der Start eines neuen KI-gestützten Alexa von Amazon wird durch weitere technische Probleme beeinträchtigt. Mein Fortune-Kollege Jason Del Rey hat interne E-Mails von Amazon erhalten, aus denen hervorgeht, dass Mitarbeiter, die an der neuen Version von Amazon Alexa arbeiten, Manager darauf hingewiesen haben, dass das Produkt noch nicht bereit ist, eingeführt zu werden. Insbesondere zeigen E-Mails aus diesem Monat, dass Ingenieure befürchten, dass die Latenz—oder wie lange die neue Alexa benötigt, um Antworten zu generieren—das Produkt möglicherweise zu frustrierend für Benutzer machen könnte, um es zu genießen oder ein zusätzliches Abonnementgebühr zu zahlen, um es zu nutzen. Andere E-Mails deuten darauf hin, dass die neue Alexa möglicherweise nicht mit älteren Amazon Echo Smart Speakern kompatibel ist und dass Mitarbeiter befürchten, dass die neue Alexa nicht genügend „Fähigkeiten“—oder Aktionen, die ein Benutzer über den digitalen Sprachassistenten ausführen kann—bieten wird, um einen höheren Preis für das Produkt zu rechtfertigen. Sie können Jasons Geschichte hier lesen.
Anthropic arbeitet mit der US-Regierung zusammen, um zu testen, ob sein KI-Chatbot Nukleargeheimnisse preisgeben wird. Das geht aus einer Geschichte von Axios hervor, die das KI-Unternehmen zitiert, das sagt, es arbeite seit April mit der National Nuclear Security Administration des US-Energieministeriums zusammen, um seine Modelle Claude 3 Sonnet und Claude 3.5 Sonnet zu testen, um zu sehen, ob das Modell dazu gebracht werden kann, Antworten zu geben, die jemandem helfen könnten, eine Atombombe zu entwickeln oder vielleicht herauszufinden, wie man eine Atomanlage angreifen kann. Weder Anthropic noch die Regierung wollten offenlegen, was die Tests—die als geheim eingestuft sind—bisher ergeben haben. Aber Axios weist darauf hin, dass die Arbeit von Anthropic mit dem DOE an geheimen Projekten den Weg ebnen könnte, um mit anderen US-Sicherheitsbehörden zusammenzuarbeiten, und dass mehrere der Top-KI-Unternehmen in letzter Zeit Interesse daran hatten, Regierungsaufträge zu erhalten.
Nvidia kämpft damit, Überhitzungsprobleme mit Blackwell GPU-Racks zu überwinden. Unbenannte Nvidia-Mitarbeiter und Kunden sagten The Information, dass das Unternehmen Probleme hatte, große Racks seiner neuesten Blackwell-GPU vor Überhitzung zu bewahren. Das Unternehmen hat die Lieferanten mehrmals gebeten, die Racks, die 72 der leistungsstarken Chips beherbergen, neu zu gestalten, und das Problem könnte die Lieferung großer Mengen von GPU-Racks an einige Kunden verzögern, obwohl Michael Dell gesagt hat, dass sein Unternehmen einige der Racks an den von Nvidia unterstützten Cloud-Service-Anbieter CoreWeave geliefert hat. Blackwell wurde bereits von einem Designfehler getroffen, der die vollständige Produktion des Chips um ein Quartal verzögerte. Nvidia lehnte eine Stellungnahme zu dem Bericht ab.
Mitarbeiter von OpenAI äußern Bedenken hinsichtlich der Geschlechtervielfalt im Unternehmen. Mehrere Frauen bei OpenAI haben Bedenken hinsichtlich der Unternehmenskultur geäußert, nach den Abgängen des Chief Technology Officer Mira Murati und einer weiteren leitenden weiblichen Führungskraft, Lilian Weng, berichtete The Information. Ein intern von einer weiblichen Programmmanagerin für Forschung geteiltes Memo und von der Publikation gesehen forderte eine sichtbarere Beförderung von Frauen und nicht-binären Personen, die bereits bedeutende Beiträge leisteten. Das Memo hebt auch Herausforderungen bei der Rekrutierung und Bindung von weiblichen und nicht-binären technischen Talenten hervor, ein Problem, das durch Muratis Abgang und ihre anschließende Rekrutierung ehemaliger OpenAI-Mitarbeiter für ihr neues Startup verschärft wurde. OpenAI hat inzwischen einige Führungslücken mit männlichen Co-Leads besetzt, und seine Gesamtbelegschaft und Führung bleiben überwiegend männlich.
EYE ON AI FORSCHUNG
Ein Grundlagenmodell für Haushaltsroboter. Das Robotik-Software-Startup Physical Intelligence, das kürzlich 400 Millionen US-Dollar von Jeff Bezos, OpenAI und anderen erhalten hat, hat ein neues Grundlagenmodell für Robotik veröffentlicht. Ähnlich wie LLMs für Sprachaufgaben soll die Idee sein, KI-Modelle für Roboter zu erstellen, die es jedem Roboter ermöglichen, eine Vielzahl von grundlegenden Bewegungen und Aufgaben in jeder Umgebung auszuführen.
In der Vergangenheit mussten Roboter oft speziell für eine bestimmte Umgebung trainiert werden, in der sie operieren würden—entweder durch tatsächliche Erfahrung in dieser Umgebung oder durch das Lernen ihrer Software-Gehirne in einer simulierten virtuellen Umgebung, die der realen Umgebung, in die sie eingesetzt werden sollten, nahe kam. Der Roboter konnte in der Regel nur eine Aufgabe oder eine begrenzte Anzahl von Aufgaben in dieser spezifischen Umgebung ausführen. Und die Software, die den Roboter steuerte, funktionierte nur für ein bestimmtes Robotermodell.
Aber das neue Modell von Physical Intelligence—das es π0 (Pi-Zero) nennt—ermöglicht es verschiedenen Arten von Robotern, eine Vielzahl von Haushaltsaufgaben auszuführen—vom Ein- und Ausräumen einer Spülmaschine über das Wäsche falten bis zum Müll rausbringen und dem vorsichtigen Umgang mit Eiern. Darüber hinaus funktioniert das Modell über verschiedene Arten von Robotern hinweg. Physical Intelligence hat π0 trainiert, indem es einen riesigen Datensatz von acht verschiedenen Arten von Robotern erstellt hat, die eine Vielzahl von Aufgaben ausführen. Das neue Modell könnte dazu beitragen, die Adoption von Robotern zu beschleunigen, ja, in Haushalten, aber auch in Lagern, Fabriken, Restaurants und anderen Arbeitsumgebungen. Hier können Sie den Blog von Physical Intelligence sehen.
FORTUNE ÜBER KI
Wie Mark Zuckerberg Meta vollständig um Llama herum neu aufgebaut hat —von Sharon Goldman
Exkl