
In einem entscheidenden Moment für generative KI (Generative AI) hat Inception Labs offiziell Mercury 2 eingeführt, ein bahnbrechendes Sprachmodell, das die Art und Weise, wie Maschinen Text erzeugen, grundlegend neu konzipiert. Durch den Verzicht auf die branchenübliche autoregressive Architektur zugunsten einer diffusionsbasierten Parallelverarbeitung erreicht Mercury 2 einen beeindruckenden Durchsatz von über 1.000 Token pro Sekunde auf NVIDIA Blackwell GPUs. Diese Veröffentlichung markiert das erste Mal, dass ein Reasoning-fähiges Modell die „Latenzmauer“ durchbrochen hat, die Echtzeit-KI-Anwendungen lange Zeit eingeschränkt hat. Es bietet eine Lösung, die fünf- bis zehnmal schneller ist als die seiner nächsten Konkurrenten, während es die aktuellen Preismodelle deutlich unterbietet.
Seit Jahren wird die Landschaft der großen Sprachmodelle (Large Language Models, LLMs) von autoregressiven Transformern dominiert. Modelle wie GPT-4 und Claude erzeugen Text sequenziell, indem sie jeweils einen Token (ungefähr ein Wort oder ein Teil eines Wortes) nach dem anderen vorhersagen. Dieser serielle Prozess ist zwar effektiv, schafft aber ein unvermeidbares Tempolimit: Das Modell kann das Ende eines Satzes nicht generieren, bevor es den Anfang beendet hat. Da die Modelle immer größer und die Reasoning-Aufgaben komplexer geworden sind, hat sich dieser „Token-für-Token“-Ansatz zu einem Engpass für latenzkritische Anwendungen entwickelt.
Mercury 2 bricht mit diesem Paradigma durch die Nutzung einer Diffusionsarchitektur. Anstatt eine Antwort sequenziell zu „tippen“, agiert Mercury 2 eher wie ein Bildhauer, der eine Statue aus einem Marmorblock freilegt. Es beginnt mit einem verrauschten, groben Entwurf der gesamten Antwort und verfeinert alle Token gleichzeitig in parallelen Schritten. Dies ermöglicht es dem Modell, die Zukunft des Satzes zu „sehen“, während es den Anfang korrigiert. Dies ermöglicht eine globale Kohärenz und Selbstkorrektur, die sequenzielle Modelle ohne teures Backtracking nur schwer erreichen können.
Laut Inception Labs ermöglicht dieser architektonische Wandel Mercury 2 die Generierung komplexer Reasoning-Ausgaben mit einer End-to-End-Latenz von nur 1,7 Sekunden – ein Bruchteil der Zeit, die herkömmliche Modelle für ähnliche Aufgaben benötigen.
Die von Inception Labs veröffentlichten Leistungskennzahlen beschreiben ein Modell, das eine neue Kategorie der Effizienz besetzt. Beim Betrieb auf NVIDIA Blackwell Hardware erreicht Mercury 2 einen Durchsatz von ca. 1.009 Token pro Sekunde (TPS). Zum Vergleich: Führende geschwindigkeitsoptimierte autoregressive Modelle erreichen in der Regel Spitzenwerte zwischen 70 und 100 TPS.
Entscheidend ist, dass diese Geschwindigkeit anscheinend nicht auf Kosten der Reasoning-Fähigkeit geht. Beim AIME 2025-Benchmark, der fortgeschrittenes mathematisches Reasoning testet, erzielte Mercury 2 einen Wert von 91,1. Damit übertraf es kleinere, geschwindigkeitsfokussierte Modelle deutlich und konkurriert direkt mit viel größeren Frontier-Modellen.
Inception Labs hat Mercury 2 zudem als Preis-Disruptor positioniert. Das Modell kostet 0,25 $ pro Million Input-Token und 0,75 $ pro Million Output-Token. Diese Preisstrategie unterbietet die wichtigsten Wettbewerber erheblich und macht hochgeschwindigkeits- und Reasoning-grade KI für unternehmensweite Workloads mit hohem Volumen zugänglich.
Um das Ausmaß dieses Sprungs zu verstehen, ist es wichtig, Mercury 2 mit der aktuellen Generation „schneller“ Modelle wie Claude 4.5 Haiku und GPT-5 Mini zu vergleichen. Die Daten deuten darauf hin, dass Inception Labs eine Verbesserung des Durchsatzes um eine Größenordnung erreicht hat.
Tabelle 1: Leistungs- und Kostenvergleich
| Modellname | Architektur | Durchsatz (Token/Sek.) | Input-Kosten (pro 1 Mio.) | Output-Kosten (pro 1 Mio.) | AIME-Benchmark |
|---|---|---|---|---|---|
| Mercury 2 | Diffusion | ~1.009 | $0.25 | $0.75 | 91.1 |
| Claude 4.5 Haiku | Autoregressiv | ~89 | $1.00 | $5.00 | 39.0 |
| GPT-5 Mini | Autoregressiv | ~71 | N/A | N/A | 27.0 |
| Gemini 3 Flash | Autoregressiv | ~100 | $0.50 | $3.00 | N/A |
Hinweis: Benchmark-Ergebnisse und Geschwindigkeiten basieren auf von Inception Labs veröffentlichten Daten und unabhängigen frühen Benchmarks, die in technischen Berichten zitiert werden.
Die Auswirkungen von Mercury 2 gehen über reine Benchmarks hinaus. Die geringe Latenz des Modells wird den Einsatz von KI-Agenten revolutionieren. In komplexen Workflows, in denen eine KI planen, Werkzeuge verwenden und iterieren muss, verursachen herkömmliche Modelle oft Verzögerungen von mehreren Sekunden bei jedem Schritt, was zu trägen Benutzererfahrungen führt. Die Verarbeitungsfähigkeiten von Mercury 2 im Sub-Sekunden-Bereich ermöglichen „enge Schleifen“, in denen Agenten fast sofort denken, handeln und sich selbst korrigieren können.
Dies ist besonders relevant für Voice-KI, Coding-Assistenten und Echtzeitsuche, bei denen Benutzer nahezu augenblickliche Antworten erwarten. Ein von Mercury 2 betriebener Coding-Assistent könnte beispielsweise eine gesamte Codedatei in der Zeit refactoren, die ein Standardmodell benötigt, um die ersten paar Zeilen zu schreiben.
Inception Labs hat Mercury 2 ab sofort über eine OpenAI-kompatible API verfügbar gemacht, sodass Entwickler es mit minimalem Aufwand in bestehende Infrastrukturen integrieren können. Das Modell unterstützt ein Kontextfenster (Context Window) von 128k, Tool-Calling und strukturierte JSON-Ausgaben, wodurch sichergestellt wird, dass es den praktischen Anforderungen moderner Produktionsumgebungen entspricht.
Während die KI-Industrie weiterhin nach dem „nächsten großen Ding“ jenseits des Transformers sucht, liefert Mercury 2 ein überzeugendes Argument dafür, dass die Zukunft in der Diffusion liegen könnte. Durch die Lösung des Engpasses bei der Inferenzgeschwindigkeit hat Inception Labs nicht nur ein schnelleres Modell veröffentlicht, sondern potenziell die Erwartungshaltung für das, was Echtzeit-KI leisten kann, neu definiert.