
Nvidia hat den Nemotron 3 Super, ein Modell mit 120 Milliarden Parametern für autonome KI-Agenten, veröffentlicht und Pläne bekannt gegeben, in den nächsten fünf Jahren 26 Milliarden Dollar in die Open-Source-KI-Entwicklung zu investieren.
Offene KI-Modelle sind Modelle mit öffentlich verfügbaren Gewichtungen: Jeder Entwickler kann ein solches Modell herunterladen, es auf seiner eigenen Hardware ausführen und an seine Bedürfnisse anpassen, ohne auf einen Drittanbieterdienst angewiesen zu sein. Dies unterscheidet sie grundlegend von geschlossenen Lösungen wie GPT-4 oder Claude, die nur über eine API zugänglich sind.
Hinter diesem Schritt verbirgt sich ein spezifisches technisches Problem. Multiagentensysteme erzeugen um ein Vielfaches mehr Tokens als ein typischer Chat: Jeder Toolaufruf, jeder Denkschritt und jedes Kontextelement wird von Grund auf neu gesendet. Die Kosten steigen rasant, Modelle driften auseinander und die Agenten verlieren allmählich an Genauigkeit.
Architektur: drei Komponenten in einem
Dank seiner Mixture-of-Experts-Architektur (MoE) aktiviert das Modell jeweils nur 12 Milliarden seiner 120 Milliarden Parameter. Ein Kontextfenster von 1 Million Token ermöglicht es den Agenten, sich einen gesamten Quellcode – etwa 750.000 Wörter – zu merken, ohne dabei den roten Faden zu verlieren.
Nvidia hat drei Komponenten in einer einzigen Architektur kombiniert: Mamba-2-Schichten für die effiziente Verarbeitung langer Sequenzen, Transformer-Schichten für die präzise Informationsgewinnung und eine Latent MoE-Engine, die viermal so viele Spezialisten für den gleichen Rechenaufwand aktiviert.
Das Modell wurde von Anfang an im 4-Bit-NVFP4-Format trainiert. Üblicherweise wird zunächst mit hoher Präzision trainiert, anschließend komprimiert – oft auf Kosten der Qualität der Schlussfolgerungen. Nemotron 3 Super lernt hingegen von vornherein, unter Bedingungen niedriger Präzision zu arbeiten, anstatt sich nachträglich daran anzupassen.
Produktivität und Offenheit
Im Vergleich zum Vorgängermodell bietet das Modell eine mehr als fünffach höhere Durchsatzleistung. Nemotron 3 Super ist im Vergleich zu Konkurrenzprodukten 2,2-mal schneller als OpenAIs GPT-OSS 120B und 7,5-mal schneller als Alibabas Qwen3.5-122B. Die Gewichte sind auf Hugging Face veröffentlicht, und die Trainingsmethodik ist vollständig Open Source. Perplexity, Palantir, Cadence und Siemens integrieren das Modell bereits in ihre Arbeitsabläufe.
26 Milliarden Dollar und die Geopolitik der offenen KI
Laut dem Finanzbericht 2025 wird Nvidia in den nächsten fünf Jahren 26 Milliarden US-Dollar in die Entwicklung von Open-Source-Modellen investieren. Die Begründung liegt auf der Hand: Nvidia-Chips bleiben die Standardinfrastruktur für das Training von Modellen, und Lösungen, die für diese Architektur optimiert sind, binden die Kunden an das Ökosystem des Unternehmens.
Der Anteil chinesischer Open-Source-Modelle an der weltweiten Nutzung stieg von 1,2 % Ende 2024 auf rund 30 % Ende 2025. Alibabas Qwen überholte Metas Llama als meistgenutztes selbstgehostetes Modell. Während OpenAI, Anthropic und Google ihre besten Modelle hinter geschlossenen APIs verbergen, erweitern chinesische Labore aktiv das offene Ökosystem. Die Veröffentlichung des Nemotron 3 Super und Investitionen in Höhe von 26 Milliarden US-Dollar sind Nvidias Antwort auf diese Herausforderung.
Meinung der KI
Nvidia subventioniert faktisch die Konkurrenten seiner Hauptkunden – OpenAI, Anthropic und Google. Jeder Entwickler, der ein kostenloses, leistungsstarkes Modell erhält und es auf Hardware von Drittanbietern einsetzt, wird zu einem potenziellen Käufer von Nvidia-Chips. Das Unternehmen baut kein zweites Geschäftsfeld auf, sondern schafft die Grundlage für sein erstes.
