OpenAI setzt mit Cerebras auf neue KI-Chips
24.01.2026 - 12:42:12OpenAI investiert zehn Milliarden Euro in die Hardware des KI-Konkurrenten Cerebras. Die Partnerschaft soll die Abhängigkeit von Nvidia verringern und die Antwortzeiten für Millionen ChatGPT-Nutzer beschleunigen.
Der Deal, der Anfang Januar offiziell bekannt wurde, sichert dem KI-Pionier rund 750 Megawatt Rechenleistung speziell für KI-Inferenz. Dabei handelt es sich um den Betrieb trainierter Modelle im Live-Betrieb – nicht um deren Training. Branchenbeobachter werten dies als strategische Diversifizierung. OpenAI reduziert so seine totale Abhängigkeit vom GPU-Ökosystem des Marktführers Nvidia.
Der mehrjährige Vertrag bis 2028 ist einer der größten Einzelaufträge für KI-Chips außerhalb von Nvidia. Cerebras wird seine proprietären CS-3-Systeme bereitstellen, um OpenAIs wachsende Inferenz-Last zu bewältigen. Statt wie üblich viele kleine Chips aus Siliziumscheiben zu schneiden, nutzt Cerebras „Wafer-Scale“-Technologie. Dabei wird eine ganze Siliziumscheibe zu einem einzigen, riesigen Prozessor verarbeitet.
Diese Architektur eignet sich besonders für Aufgaben, die ultrageringe Latenzzeiten erfordern. Indem enorme Speicher- und Rechenkapazitäten auf einem Stück Silizium vereint werden, sollen Antworten deutlich schneller kommen als aus Clustern herkömmlicher GPUs. Für OpenAI ist das entscheidend: Die Plattform ChatGPT hat hundertmillionen wöchentliche Nutzer. Die Geschwindigkeit, mit der der KI-Text generiert wird – die „Time-to-Token“ –, ist zentral für die Nutzerbindung.
Warum 85% der Top-Supercomputer auf Linux setzen — und was das für Rechenzentren bedeutet. Wenn OpenAI Inferenz-Lasten auf spezialisierte Hardware wie Wafer-Scale-Prozessoren verlagert, laufen diese Systeme meist auf Linux-basierten Plattformen. Das kostenlose Linux-Startpaket zeigt Schritt für Schritt, wie Sie Ubuntu sicher parallel zu Windows installieren und so die Stabilität und Performance moderner Serverumgebungen selbst testen können. Kostenloses Linux-Startpaket herunterladen
Die ersten Systeme werden bereits in US-Rechenzentren installiert. Der Vollausbau soll 2026 erfolgen.
Der strategische Schwenk: Inferenz wird zum Schlachtfeld
Jahrelang drehte sich die Debatte um KI-Hardware fast ausschließlich um das Training von Modellen. 2026 verlagert sich der Fokus der Branche jedoch stark auf die Inferenz – den Betrieb.
Experten sehen im Deal ein Zeichen für einen reiferen Markt. Die Kosten für den Betrieb von Modellen werden zum größeren wirtschaftlichen Engpass als deren Training. Ein Dienst wie GPT-5 im großen Stil zu betreiben, verschlingt gewaltige Mengen an Strom. Indem OpenAI diese Aufgaben an Cerebras auslagert, kann das Unternehmen seine wertvollen Nvidia H100- und Blackwell-GPUs für das Training der nächsten Modell-Generation reservieren.
Diese Aufspaltung der Hardware – Nvidia fürs Training, alternative Chips für die Inferenz – könnte zum Standard für große Cloud-Anbieter werden. Sie erlaubt Kosteneffizienz und umgeht Lieferengpässe, die den Sektor seit dem KI-Boom plagen.
Nvidias Monopol gerät unter Druck
Die Partnerschaft wird als direkte Herausforderung für Nvidias beinahe absolute Marktherrschaft bei KI-Chips gewertet. Während Nvidia unangefochtener König des Trainings bleibt, ist der Inferenz-Markt fragmentierter und wettbewerbsintensiver.
Marktanalysen zeigen: OpenAIs Entscheidung macht Cerebras zum ernsthaften Mitbewerber im Hochleistungsrechnen. Für Cerebras kommt der Deal zur rechten Zeit. Das Unternehmen bereitet sich auf einen Börsengang (IPO) vor, der für 2026 erwartet wird.
Zudem entlastet die Vereinbarung die globale Halbleiter-Lieferkette. Die Kapazitäten für fortgeschrittenes Packaging – essenziell für Nvidias Chips – sind bei TSMC nach wie vor knapp. Cerebras‘ einzigartige Architektur mit anderen Fertigungsanforderungen umgeht einige dieser Produktionsengpässe.
Was bedeuten 750 Megawatt?
Die Dimensionen des Deals sind gewaltig. Die vertraglich gesicherten 750 Megawatt entsprechen in etwa dem Stromverbrauch von 600.000 durchschnittlichen US-Haushalten. Dieser immense Energiebedarf knüpft an größere Infrastruktur-Diskussionen an, wie das gerüchteumwitterte „Project Stargate“ – eine Supercomputer-Initiative von OpenAI mit globalen Partnern.
Während „Stargate“ auf künftige Trainingskapazitäten abzielt, löst der Cerebras-Deal das akute Problem, die aktuellen Nutzer zu bedienen. Er setzt auch Konkurrenten wie AMD und Intel unter Druck, ihre eigene Tauglichkeit für große Inferenz-Lasten unter Beweis zu stellen.
Finanzanalysten merken an: Nvidias Geschäftsmodell wird herausgefordert. Wenn OpenAI seine Flaggschiff-Produkte erfolgreich auf Cerebras-Hardware betreibt, beweist das, dass die KI-Ökonomie nicht zu 100 Prozent von Nvidias proprietärer Software-Plattform CUDA abhängig sein muss.
Ausblick: Eine Welle von Partnerschaften?
Die erfolgreiche Implementierung der Cerebras-Systeme könnte eine Welle ähnlicher Partnerschaften auslösen. Wenn die Technologie ihre Versprechen – niedrigere Latenz, bessere Energieeffizienz – einlöst, könnten andere KI-Labore und Unternehmenskunden folgen.
Die Branche wird 2026 genau beobachten, ob die theoretischen Vorteile der Wafer-Scale-Technologie zu spürbaren Verbesserungen für ChatGPT-Nutzer führen. Sollte das zehn Milliarden Euro schwere Wagnis erfolgreich sein, könnte es den Beginn eines diverseren, wettbewerbsintensiveren und spezialisierteren Hardware-Marktes für Künstliche Intelligenz markieren.
PS: Ihr alter PC läuft wieder wie neu – ohne teure Aufrüstung. Für Entwickler und IT-Interessierte, die lokale Test- oder Serverumgebungen nachbauen möchten, bietet Ubuntu oft mehr Stabilität und Performance als Windows. Holen Sie sich das kostenlose Linux-Startpaket mit Ubuntu-Vollversion, E-Mail-Ratgeber und Installationshilfe, um sofort loszulegen und ressourcenintensive Anwendungen effizienter zu betreiben. Jetzt Linux-Startpaket sichern


