Anthropic hat gerade ein neues Modell namens Claude 3.7 Sonett veröffentlicht, und obwohl ich immer an den neuesten KI-Fähigkeiten interessiert bin, war es der neue „erweiterte“ Modus, der wirklich mein Auge anzog. Es erinnerte mich daran, wie OpenAI sein Modell o1 für ChatGPT erstmals vorgestellt hat. Es bot eine Möglichkeit, auf o1 zuzugreifen, ohne ein Fenster zu verlassen, indem man das ChatGPT 4o-Modell verwendet. Man konnte „/reason“ eingeben, und der AI-Chatbot würde o1 verwenden. Es ist jetzt überflüssig, obwohl es noch in der App funktioniert. Unabhängig davon, das tiefere, strukturiertere Denken, das beide versprachen, machte mich neugierig, wie sie sich gegeneinander behaupten würden.
Claude 3.7 Extended-Modus ist als hybrides Denkwerkzeug konzipiert, das den Benutzern die Möglichkeit bietet, zwischen schnellen, konversationellen Antworten und eingehenden, schrittweisen Problemlösungen zu wechseln. Es dauert eine Weile, um Ihre Eingabe zu analysieren, bevor es seine Antwort liefert. Das macht es ideal für Mathematik, Codierung und Logik. Sie können sogar das Gleichgewicht zwischen Geschwindigkeit und Tiefe feinabstimmen, indem Sie ihm eine Zeitgrenze für das Nachdenken über seine Antwort geben. Anthropic positioniert dies als Möglichkeit, KI für realitätsnahe Anwendungen nützlicher zu machen, die schichtweise, methodische Problemlösungen erfordern, anstatt nur oberflächliche Antworten.
Der Zugriff auf Claude 3.7 erfordert ein Abonnement von Claude Pro, also entschied ich mich dafür, die Demonstration im untenstehenden Video als meinen Test zu verwenden. Um den erweiterten Denkmodus herauszufordern, bat Anthropic die KI, das beliebte, vintage Wahrscheinlichkeitsrätsel namens Monty Hall Problem zu analysieren und zu erklären. Es ist eine irreführend knifflige Frage, die viele Leute ins Schwitzen bringt, auch solche, die sich für gut in Mathematik halten.
Die Einrichtung ist einfach: Sie sind in einer Spielshow und werden gebeten, eine von drei Türen zu wählen. Hinter einer verbirgt sich ein Auto, hinter den anderen Ziegen. Aus einer Laune heraus entschied sich Anthropic, statt Ziegen Krabben zu nehmen, aber das Prinzip bleibt dasselbe. Nachdem Sie Ihre Wahl getroffen haben, öffnet der Gastgeber, der weiß, was sich hinter jeder Tür verbirgt, eine der verbleibenden beiden, um eine Ziege (oder eine Krabbe) zu enthüllen. Jetzt haben Sie die Wahl: bei Ihrer ursprünglichen Wahl zu bleiben oder zur letzten ungeöffneten Tür zu wechseln. Die meisten Leute nehmen an, dass es keine Rolle spielt, aber gegenintuitiv gibt Ihnen das Wechseln tatsächlich eine 2/3 Gewinnchance, während das Festhalten an Ihrer ersten Wahl Sie nur mit einer Wahrscheinlichkeit von 1/3 zurücklässt.
Claude 3.7 Sonett mit erweitertem Denken – YouTube
Schau es dir an
Mit aktiviertem erweitertem Denken nahm Claude 3.7 einen gemessenen, fast akademischen Ansatz, um das Problem zu erklären. Anstatt einfach die richtige Antwort zu nennen, legte es sorgfältig die zugrunde liegende Logik in mehreren Schritten dar und betonte, warum sich die Wahrscheinlichkeiten ändern, nachdem der Gastgeber eine Krabbe enthüllt hat. Es erklärte nicht nur in trockenen mathematischen Begriffen. Claude durchlief hypothetische Szenarien, zeigte, wie sich die Wahrscheinlichkeiten über wiederholte Versuche hinweg entwickelten, was es viel einfacher machte zu verstehen, warum das Wechseln immer die bessere Wahl ist. Die Antwort war nicht überstürzt; es fühlte sich an, als würde ein Professor mich langsam und bedächtig durchgehen, um sicherzustellen, dass ich wirklich verstand, warum die gängige Intuition falsch war.
ChatGPT o1 bot eine ähnliche Auflösung und erklärte das Problem gut. Tatsächlich erklärte es es in mehreren Formen und Stilen. Neben der grundlegenden Wahrscheinlichkeit ging es auch auf Spieltheorie, narrative Ansichten, die psychologische Erfahrung und sogar eine wirtschaftliche Aufschlüsselung ein. Wenn überhaupt, war es etwas überwältigend.
Das ist jedoch nicht alles, was Claudes erweitertes Denken konnte. Wie Sie im Video sehen können, gelang es Claude sogar, das Monty Hall Problem in ein Spiel umzuwandeln, das Sie direkt im Fenster spielen konnten. Der Versuch, die gleiche Eingabe mit ChatGPT o1 zu machen, hatte nicht ganz denselben Effekt. Stattdessen schrieb ChatGPT ein HTML-Skript für eine Simulation des Problems, das ich speichern und in meinem Browser öffnen konnte. Es hat funktioniert, wie Sie unten sehen können, aber es erforderte ein paar zusätzliche Schritte.
Melden Sie sich an für aktuelle Nachrichten, Bewertungen, Meinungen, Top-Tech-Angebote und mehr.
(Bildnachweis: Anthropic)
Während es wahrscheinlich kleine Unterschiede in der Qualität je nach Art des Codes oder der Mathematik gibt, bieten sowohl Claudes erweitertes Denken als auch ChatGPTs o1-Modell solide, analytische Ansätze für logische Probleme. Ich sehe den Vorteil, die Zeit und Tiefe des Denkens anzupassen, das Claude bietet. ChatGPT nimmt nicht zu viel Zeit in Anspruch und produziert recht viel Inhalt aus seinem Nachdenken, es sei denn, man hat es wirklich eilig oder verlangt eine ungewöhnlich schwere Analyse.
Die Möglichkeit, das Problem als Simulation innerhalb des Chats darzustellen, ist weitaus bemerkenswerter. Dadurch wirkt Claude flexibler und leistungsstärker, auch wenn die tatsächliche Simulation wahrscheinlich sehr ähnlichen Code wie das von ChatGPT geschriebene HTML verwendet.