Une hypothèse persistante dans l’industrie de l’IA est que la croissance sera bientôt limitée par une pénurie mondiale de GPU haut de gamme.
Pourtant, la contrainte qui façonne la prochaine phase du développement de l’IA tient peut‑être moins à une rareté absolue qu’à une inefficacité structurelle.
Selon Render Network et Trevor Harries-Jones, la majeure partie de la capacité de calcul mondiale n’est tout simplement pas utilisée, un décalage qu’il considère comme plus important que les contraintes d’offre.
La pénurie de GPU mal comprise
« Quarante pour cent des GPU dans le monde sont inactifs », a‑t‑il déclaré à Yellow.com dans une interview, en marge de l’événement Breakpoint de Solana. « Les gens partent du principe qu’il y a une pénurie, mais il y a en réalité un excédent de GPU suffisamment performants pour effectuer des tâches de rendu et des tâches d’IA. »
Harries-Jones soutient que, si la demande pour des puces adaptées à l’entraînement, comme le H100 de Nvidia, reste intense, l’entraînement ne représente en fait qu’une petite fraction des charges de travail d’IA dans le monde réel.
« L’entraînement ne constitue en réalité qu’un très faible pourcentage de l’usage de l’IA », note‑t‑il. « L’inférence représente 80 %. »
Ce déséquilibre, suggère‑t‑il, ouvre la voie pour que le matériel grand public, les GPU d’entrée de gamme et de nouvelles classes de processeurs comme les LPU, TPU et ASIC absorbent une part bien plus importante de la charge de calcul mondiale qu’on ne le pense généralement.
Un deuxième changement qu’il met en avant est la convergence des flux de travail 3D traditionnels avec les formats d’actifs nativement conçus pour l’IA.
Les créateurs poussent l’IA vers des pipelines de niveau cinématographique
Des techniques comme le « Gaussian splatting », qui préservent la structure 3D sous‑jacente plutôt que de générer des images 2D aplaties, et l’émergence de modèles de monde rapprochent progressivement les systèmes d’IA du pipeline de production cinématographique.
Ces évolutions sont importantes parce qu’elles rendent les sorties de l’IA utilisables dans les chaînes d’outils professionnelles existantes, plutôt que de rester cantonnées à des formats de curiosité isolés.
La taille des modèles reste un défi, mais Harries-Jones s’attend à ce que la quantification et la compression des modèles continuent de réduire les systèmes à poids ouverts jusqu’à ce qu’ils fonctionnent confortablement sur des appareils grand public.
Des modèles plus petits, dit‑il, sont essentiels pour les réseaux décentralisés qui reposent sur une RAM et une bande passante distribuées plutôt que sur des grappes hyperscale.
Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure
Là où beaucoup s’attendent à ce que la complexité croissante des modèles fasse grimper les coûts, il pense que la dynamique inverse dominera.
Les percées dans l’entraînement, comme certains travaux récents de modèles chinois qui privilégient l’efficacité plutôt que l’échelle, pointent vers un futur où l’IA deviendra moins chère, même si son usage s’accélère.
« À mesure que le coût diminue, dit‑il, vous allez voir apparaître de plus en plus de cas d’usage. »
Plutôt qu’une rareté de calcul, Harries-Jones anticipe un cycle de type paradoxe de Jevons : la baisse des coûts crée davantage de demande, et cette augmentation de la demande incite à concevoir des systèmes encore plus efficaces.
Il s’attend également à ce que le calcul hybride — un mélange de tâches sur l’appareil, sur le réseau local et dans le cloud centralisé — définisse la prochaine étape de l’industrie.
À la manière du modèle d’intelligence distribuée d’Apple, différents environnements traiteront différentes tâches selon la latence, la confidentialité, la sensibilité et l’échelle.
Les charges de travail critiques continueront d’exiger des centres de données conformes, mais les tâches non sensibles ou en mode batch pourront de plus en plus s’exécuter sur des réseaux décentralisés. Les progrès du chiffrement pourraient à terme élargir encore cette frontière.
Une prochaine vague de contenus « 3D-first »
À plus long terme, il observe un changement bien plus vaste : la généralisation de la 3D, portée par l’IA.
Harries-Jones s’attend à ce que la prochaine ère de l’IA grand public tourne autour de contenus immersifs, nativement 3D, plutôt qu’autour de texte ou d’images plates.
« Nous allons consommer plus de contenu 3D que jamais auparavant », dit‑il, en pointant les premiers signaux venus du matériel immersif et l’évolution rapide des outils d’IA pour la 3D.
Les goulets d’étranglement traditionnels du motion design, avec des flux de travail très techniques accessibles uniquement à des experts de niche, pourraient céder la place à des outils permettant à des millions d’utilisateurs de produire des scènes de qualité cinématographique.
Les créateurs, autrefois réticents à l’IA, expérimentent désormais directement ces pipelines, accélérant le rythme d’affinement des outils et influençant la manière dont les flux de travail hybrides évoluent.
Leurs retours, soutient‑il, sont susceptibles d’influencer l’orientation de l’industrie tout autant que les tendances matérielles.
Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

