App Store
Portemonnee

Waarom Render Network zegt dat de echte AI-knelpunt niet een tekort aan GPU's is, maar verspilde rekenkracht

Waarom Render Network zegt dat de echte AI-knelpunt niet een tekort aan GPU's is, maar verspilde rekenkracht

Een hardnekkige veronderstelling in de AI-sector is dat de groei binnenkort zal worden beperkt door een wereldwijd tekort aan high-end GPU's.

Toch wordt de volgende fase van AI-ontwikkeling mogelijk minder bepaald door absolute schaarste dan door structurele inefficiëntie.

Volgens Render Network’s Trevor Harries-Jones wordt het grootste deel van de wereldwijde rekenkrachtcapaciteit helemaal niet gebruikt, een mismatch die hij belangrijker vindt dan beperkingen aan de aanbodzijde.

Het miskende GPU-tekort

„Veertig procent van de GPU's in de wereld staat stil,” vertelde hij in een interview aan Yellow.com, aan de zijlijn van Solana's Breakpoint-evenement. „Mensen gaan uit van een tekort, maar er is eigenlijk een overschot aan GPU's die krachtig genoeg zijn om rendering- en AI-taken uit te voeren.”

Harries-Jones stelt dat, hoewel de vraag naar trainingschips zoals Nvidia’s H100 hevig blijft, training slechts een klein deel van de AI-workloads in de echte wereld vertegenwoordigt.

„Training is feitelijk maar een heel klein percentage van het AI-gebruik,” merkt hij op. „Inferentie beslaat 80 procent.”

Die scheefgroei, zo suggereert hij, creëert ruimte voor consumentenhardware, lagere-klasse GPU's en nieuwe processortypen zoals LPU's, TPU's en ASIC's om een veel groter deel van de wereldwijde rekenlast op zich te nemen dan velen aannemen.

Een tweede verschuiving die hij uitlicht, is de convergentie van traditionele 3D-workflows met opkomende AI-native assetformaten.

Makers duwen AI richting filmische pipelines

Technieken zoals Gaussian splatting, die de onderliggende 3D-structuur behoudt in plaats van afgevlakte 2D-frames te genereren, en de opkomst van wereldmodellen trekken AI-systemen dichter naar de filmproductiepipeline toe.

Deze ontwikkelingen zijn belangrijk omdat ze AI-uitvoer bruikbaar maken binnen bestaande professionele toolchains, in plaats van dat ze blijven hangen als op zichzelf staande, afwijkende formaten.

Modelgrootte blijft een uitdaging, maar Harries-Jones verwacht dat kwantisatie en modelcompressie open-weight-systemen verder zullen verkleinen totdat ze comfortabel op consumententoestellen kunnen draaien.

Kleinere modellen, zegt hij, zijn essentieel voor gedecentraliseerde netwerken die vertrouwen op gedistribueerd RAM en bandbreedte in plaats van op hyperscale clusters.

Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure

Waar velen verwachten dat toenemende modelcomplexiteit de kosten zal opdrijven, gelooft hij dat juist het omgekeerde effect de overhand krijgt.

Doorbraken in training, zoals recente Chinese modelinitiatieven die efficiëntie boven schaal stelden, wijzen op een toekomst waarin AI goedkoper wordt, zelfs terwijl het gebruik versnelt.

„Naarmate de kosten dalen,” zegt hij, „ga je steeds meer use-cases zien opduiken.”

In plaats van schaarste aan rekenkracht voorziet Harries-Jones een Jevons-paradox-cyclus: dalende kosten creëren meer vraag, en meer vraag stimuleert nóg efficiëntere systemen.

Hij verwacht ook dat hybride compute – een mix van on-device, lokale netwerk- en gecentraliseerde cloud-workloads – de volgende fase van de sector zal definiëren.

Vergelijkbaar met Apple’s distributed intelligence-model zullen verschillende omgevingen verschillende taken verwerken, afhankelijk van latency, privacy, gevoeligheid en schaal.

Missie­kritieke workloads zullen nog steeds conforme datacenters vereisen, maar niet-gevoelige of batch-workloads kunnen in toenemende mate op gedecentraliseerde netwerken draaien. Vooruitgang in encryptie kan die grens uiteindelijk verder oprekken.

Een aankomende golf van 3D-first content

Op langere termijn ziet hij een veel bredere verschuiving: de mainstream-adoptie van 3D, aangedreven door AI.

Harries-Jones verwacht dat het volgende tijdperk van consumentgerichte AI zal draaien om immersive, 3D-native content in plaats van tekst of platte afbeeldingen.

„We gaan meer 3D-content consumeren dan ooit tevoren,” zegt hij, wijzend op vroege signalen uit immersive hardware en de snelle evolutie van 3D-AI-tools.

De traditionele knelpunten van motion graphics – sterk technische workflows die alleen toegankelijk zijn voor niche-experts – zouden kunnen plaatsmaken voor tools waarmee miljoenen gebruikers scènes op filmniveau kunnen produceren.

Makers, die aanvankelijk terughoudend waren tegenover AI, experimenteren nu direct met deze pipelines, wat het tempo van toolverbetering opvoert en mede bepaalt hoe hybride workflows zich ontwikkelen.

Hun feedback, zo stelt hij, zal waarschijnlijk net zo veel invloed hebben op de koers van de sector als de hardwaretrends.

Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

Disclaimer en risicowaarschuwing: De informatie in dit artikel is uitsluitend voor educatieve en informatieve doeleinden en is gebaseerd op de mening van de auteur. Het vormt geen financieel, investerings-, juridisch of belastingadvies. Cryptocurrency-assets zijn zeer volatiel en onderhevig aan hoog risico, inclusief het risico om uw gehele of een substantieel deel van uw investering te verliezen. Het handelen in of aanhouden van crypto-assets is mogelijk niet geschikt voor alle beleggers. De meningen die in dit artikel worden geuit zijn uitsluitend die van de auteur(s) en vertegenwoordigen niet het officiële beleid of standpunt van Yellow, haar oprichters of haar leidinggevenden. Voer altijd uw eigen grondig onderzoek uit (D.Y.O.R.) en raadpleeg een gelicentieerde financiële professional voordat u een investeringsbeslissing neemt.
Laatste nieuws
Toon al het nieuws
Waarom Render Network zegt dat de echte AI-knelpunt niet een tekort aan GPU's is, maar verspilde rekenkracht | Yellow.com