Nvidia übernimmt das Chip‑Startup Groq für rund 20 Milliarden US‑Dollar in einem Lizenzgeschäft, das einen potenziellen Konkurrenten ausschaltet und gleichzeitig die KI‑Infrastruktur des Unternehmens ausbaut. Die Transaktion, die so strukturiert ist, dass sie einer strengen Aufsicht durch die Wettbewerbsbehörden entgeht, markiert Nvidias größten Deal und folgt einem ähnlichen Muster, das bereits drei Monate zuvor mit Enfabrica etabliert wurde.
Was passiert ist: Asset‑Übernahme
Nvidia erwirbt im Wesentlichen alle Vermögenswerte von Groq mit Ausnahme des Cloud‑Computing‑Geschäfts, auch wenn die Unternehmen das Konstrukt als „nicht‑exklusive Lizenzvereinbarung“ bezeichnen.
Groq‑CEO Jonathan Ross, ein ehemaliger Google‑Ingenieur, der an der Entwicklung der Tensor Processing Unit des Suchgiganten beteiligt war, wechselt zusammen mit Präsident Sunny Madra und weiteren Führungskräften zu Nvidia.
Der Deal wurde drei Monate nach einer Finanzierungsrunde abgeschlossen, in der Groq 750 Millionen US‑Dollar zu einer Bewertung von 6,9 Milliarden US‑Dollar von Investoren wie BlackRock, Samsung, Cisco und 1789 Capital einsammelte, wo Donald Trump Jr. als Partner fungiert. Das Startup wird weiterhin unabhängig unter CFO Simon Edwards agieren, der die Rolle des CEO übernimmt.
Die Transaktion spiegelt Nvidias Deal mit Enfabrica im September wider, bei dem das Unternehmen über 900 Millionen US‑Dollar zahlte, um den CEO und die Mitarbeitenden des Startups zu übernehmen und gleichzeitig dessen Technologie zu lizenzieren.
Beide Vereinbarungen nutzen Lizenzstrukturen statt klassischer Übernahmen und umgehen damit möglicherweise die kartellrechtliche Prüfung, die Nvidias 40‑Milliarden‑US‑Dollar‑Gebot für Arm Holdings im Jahr 2022 stoppte.
Auch lesen: AI Threats Push Governments Toward Blockchain Infrastructure In 2026, Experts Warn
Warum es wichtig ist: Marktdominanz
Groqs Language Processing Unit verwendet On‑Chip‑SRAM statt externem DRAM und ermöglicht damit nach Angaben des Unternehmens bis zu zehnmal bessere Energieeffizienz. Diese Architektur ist besonders stark bei Echtzeit‑Inference, begrenzt jedoch die Modellgröße.
Das Timing folgt auf Googles jüngste Vorstellung seiner siebten TPU‑Generation mit Codenamen Ironwood sowie die Veröffentlichung von Gemini 3, das vollständig auf TPUs trainiert wurde und Benchmark‑Ranglisten anführt. Nvidia reagierte auf X: „Wir freuen uns über Googles Erfolg… NVIDIA ist der Branche eine Generation voraus – es ist die einzige Plattform, die jedes KI‑Modell ausführt.“
Der Deal stärkt die Narrative, die dezentrale KI‑Computing‑Projekte wie io.net antreiben, die sich als Alternativen zu zentralisierter Infrastruktur positionieren.
„Menschen können ihr eigenes Angebot in ein Netzwerk einbringen – sei es Rechenzentrums‑Kapazität oder dein eigener Laptop, mit dem du deine verfügbare GPU‑Leistung beisteuerst und dafür mithilfe von Tokenomics fair entschädigt wirst“, sagte Jack Collier, Chief Growth Officer von io.net, gegenüber BeInCrypto.
Dennoch vergrößert Nvidias Übernahme von Groqs Low‑Latency‑Technologie seinen technischen Vorsprung, was es Alternativen erschwert, eine vergleichbare Performance zu erreichen.
Als Nächstes lesen: Dogecoin After The Election Surge: What Went Wrong With The $1 Thesis

