Gradient-CEO Eric Yang gelooft dat de volgende grote verschuiving in kunstmatige intelligentie niet zal komen van grotere, propriëtaire modellen of more powerful data centers.
In plaats daarvan stelt hij dat deze verschuiving zal worden gedreven door een fundamentele verandering in hoe modellen worden getraind: het verdelen van training over een wereldwijd, permissieloos computernetwerk in plaats van binnen de muren van één enkele bedrijfs-supercomputer.
In een gesprek over Gradients werk in een interview met Yellow.com zei Yang dat de huidige dominante AI-labs zoals OpenAI, Google, Anthropic, xAI zijn gebouwd op de aanname dat foundation-modellen alleen getraind kunnen worden binnen enorme, gecentraliseerde infrastructuur.
„AI profiteert zó sterk van centralisatie dat nog niemand grote modellen heeft kunnen trainen over meerdere datacenters,” zei hij. Gradient wedt erop dat deze aanname op instorten staat.
Yang beweert dat Gradient al succesvolle reinforcement-learning-trainingsruns heeft uitgevoerd die verdeeld zijn over onafhankelijke datacenters, met prestaties die vergelijkbaar zijn met gecentraliseerde RLHF-workflows.
Volgens hem opent dit de deur naar iets wat eerder als onmogelijk werd beschouwd: natraining van biljoen-parameter-modellen die niet door één bedrijf wordt uitgevoerd, maar door duizenden compute-providers over de hele wereld.
Ook interessant: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
De economische implicaties zijn minstens zo belangrijk. Yang schetst een wereldwijd, „premie-gedreven” marktplaatsmodel waarin GPU-exploitanten, datacenters en zelfs kleine, onafhankelijke infrastructuraanbieders met elkaar concurreren om rekenkracht bij te dragen aan trainingsklussen.
Bijdragers verdienen beloningen door compute te leveren tegen de laagst beschikbare prijs, terwijl de trainingskosten dalen tot onder de gecentraliseerde alternatieven die nu de markt domineren.
Hij denkt ook dat gedecentraliseerde AI-infrastructuur aanzienlijke voordelen biedt op het gebied van beveiliging en vertrouwen.
Als inferentie volledig kan worden uitgevoerd op hardware die in bezit is van de gebruiker – MacBooks, desktops, thuis-GPU’s of hybride opstellingen – dan verlaat persoonlijke data het apparaat nooit.
„Vandaag lekken we veel meer gevoelige gegevens in AI-systemen dan we ooit in Google deden,” zei hij. „Een soeverein model dat lokaal draait, verandert dat.”
Yang stelt dat deze transparantie kan worden doorgetrokken naar de training zelf.
Als de herkomst van trainingsdata on-chain wordt vastgelegd, kunnen gebruikers zien welke omgevingen en bijdragers het model hebben gevormd. Dat is volgens hem een tegengif voor de vooroordelen en ondoorzichtige redactionele controle die je ziet in gecentraliseerde systemen.
In zijn ogen zal het uiteindelijke AI-landschap niet worden gedomineerd door één groot model, maar door een „zee van gespecialiseerde modellen” die gezamenlijk worden getraind en beheerd.
„Elk bedrijf zal AI draaien zoals ze vandaag analytics draaien,” zei Yang. „Wanneer dat gebeurt, wordt een wereldwijd gedecentraliseerd computernetwerk het enige model dat schaalt.”
Lees ook: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

