O CEO da Gradient, Eric Yang, acredita que a próxima grande mudança em inteligência artificial não virá de modelos proprietários ainda maiores ou de data centers mais poderosos.
Em vez disso, ele argumenta que ela será impulsionada por uma mudança fundamental em como os modelos são treinados: distribuir o treinamento em uma rede global e permissionless de computação, em vez de dentro das paredes de um único supercomputador corporativo.
Falando sobre o trabalho da Gradient em uma entrevista ao Yellow.com, Yang disse que os labs de IA dominantes de hoje, como OpenAI, Google, Anthropic, xAI, são construídos sobre a suposição de que modelos de base só podem ser treinados em infraestruturas massivas e centralizadas.
“A IA se beneficia tanto da centralização que ninguém conseguiu treinar grandes modelos em vários data centers”, disse ele. A Gradient está apostando que essa suposição está prestes a ruir.
Yang afirma que a Gradient já realizou execuções bem-sucedidas de treinamento com reforço distribuídas por data centers independentes, com desempenho que rivaliza com workflows centralizados de RLHF.
Ele diz que isso abre a porta para algo antes considerado impossível: pós-treinamento de modelos com trilhões de parâmetros, conduzido não por uma única empresa, mas por milhares de provedores de computação ao redor do mundo.
Veja também: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
As implicações econômicas são igualmente significativas. Yang descreve um mercado global “movido a recompensas”, no qual operadores de GPU, data centers e até pequenos provedores independentes de infraestrutura competem para contribuir com computação para tarefas de treinamento.
Os contribuintes ganham recompensas por fornecer computação ao menor preço disponível, enquanto os custos de treinamento caem abaixo das alternativas centralizadas que atualmente dominam o mercado.
Ele também acredita que a infraestrutura de IA descentralizada oferece vantagens significativas de segurança e confiança.
Se a inferência puder ser realizada inteiramente em hardware de propriedade do usuário — MacBooks, desktops, GPUs domésticas ou configurações híbridas — então os dados pessoais nunca deixam o dispositivo.
“Hoje estamos vazando muito mais dados sensíveis para sistemas de IA do que jamais vazamos para o Google”, disse ele. “Um modelo soberano rodando localmente muda isso.”
Yang argumenta que essa transparência pode se estender ao próprio treinamento.
Se a proveniência dos dados de treinamento for registrada on-chain, os usuários podem ver quais ambientes e contribuintes moldaram o modelo, um antídoto, diz ele, para os vieses e o controle editorial opaco vistos em sistemas centralizados.
Na visão dele, o cenário de IA no fim das contas não será dominado por um único grande modelo, mas por um “mar de modelos especializados” treinados e de propriedade colaborativa.
“Toda empresa vai rodar IA assim como roda analytics hoje”, disse Yang. “Quando isso acontecer, uma rede global descentralizada de computação se torna o único modelo que escala.”
Leia a seguir: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

