Nvidia acquiert la startup de puces Groq pour environ 20 milliards de dollars dans le cadre d’un accord de licence qui élimine un concurrent potentiel tout en élargissant l’infrastructure d’intelligence artificielle de l’entreprise. La transaction, structurée pour éviter un examen réglementaire trop poussé, marque la plus grande opération de Nvidia et suit un schéma similaire à celui établi trois mois plus tôt avec Enfabrica, décrit dans Nvidia's largest deal and follows a similar pattern.
Ce qui s’est passé : acquisition d’actifs
Nvidia est en train d’acquérir la quasi-totalité des actifs de Groq à l’exception de son activité de cloud computing, même si les entreprises présentent l’accord comme un « contrat de licence non exclusif ».
Jonathan Ross, PDG de Groq, ancien ingénieur de Google qui a contribué au développement de la Tensor Processing Unit du géant de la recherche, rejoindra Nvidia avec le président Sunny Madra et d’autres cadres dirigeants.
L’accord a été conclu trois mois après que Groq a levé 750 millions de dollars sur la base d’une valorisation de 6,9 milliards de dollars auprès d’investisseurs tels que BlackRock, Samsung, Cisco et 1789 Capital, où Donald Trump Jr. est associé. La startup continuera à fonctionner de manière indépendante sous la direction du directeur financier Simon Edwards, qui devient son nouveau directeur général.
La transaction reflète l’accord conclu en septembre entre Nvidia et Enfabrica, dans le cadre duquel l’entreprise a payé plus de 900 millions de dollars pour recruter le PDG et les employés de la startup tout en important sa technologie sous licence.
Les deux accords reposent sur des structures de licence plutôt que sur des acquisitions directes, ce qui permet potentiellement d’éviter le contrôle antitrust qui avait bloqué l’offre de 40 milliards de dollars de Nvidia pour Arm Holdings en 2022.
À lire aussi : AI Threats Push Governments Toward Blockchain Infrastructure In 2026, Experts Warn
Pourquoi c’est important : domination du marché
L’unité de traitement du langage (Language Processing Unit) de Groq utilise de la SRAM intégrée sur la puce plutôt que de la DRAM externe, ce qui permet, selon l’entreprise, jusqu’à dix fois plus d’efficacité énergétique. Cette architecture excelle pour l’inférence en temps réel mais limite la taille des modèles.
Le calendrier fait suite à la récente présentation par Google de sa TPU de septième génération, nom de code Ironwood, et au lancement de Gemini 3, entraîné entièrement sur des TPU, qui a dominé les classements de benchmarks. Nvidia a réagi sur X : « Nous nous réjouissons du succès de Google… NVIDIA a une génération d’avance sur l’industrie — c’est la seule plateforme qui exécute tous les modèles d’IA. »
L’accord renforce les récits qui alimentent les projets de calcul d’IA décentralisée comme io.net, qui se positionnent comme des alternatives aux infrastructures centralisées.
« Les gens peuvent apporter leur propre capacité sur un réseau, que ce soit des centres de données ou vous-même avec votre ordinateur portable, en contribuant votre puissance GPU disponible et en étant équitablement rémunérés grâce à la tokénomique », a déclaré Jack Collier, directeur de la croissance de io.net, à BeInCrypto.
Toutefois, l’acquisition par Nvidia de la technologie à faible latence de Groq élargit son avance technique, rendant plus difficile pour les alternatives d’atteindre des performances compétitives.
À lire ensuite : Dogecoin After The Election Surge: What Went Wrong With The $1 Thesis

