El CEO de Gradient, Eric Yang, cree que el próximo cambio importante en la inteligencia artificial no vendrá de modelos propietarios más grandes ni de more powerful data centers.
En cambio, sostiene que será impulsado por un cambio fundamental en cómo se entrenan los modelos: distribuir el entrenamiento a través de una red global y sin permisos de cómputo, en lugar de dentro de las paredes de una única supercomputadora corporativa.
Al hablar sobre el trabajo de Gradient en una entrevista con Yellow.com, Yang dijo que los laboratorios de IA dominantes actuales como OpenAI, Google, Anthropic, xAI se basan en la suposición de que los modelos fundacionales solo pueden entrenarse dentro de una infraestructura masiva y centralizada.
«La IA se beneficia tanto de la centralización que nadie ha podido entrenar grandes modelos a través de múltiples centros de datos», dijo. Gradient apuesta a que esta suposición está a punto de colapsar.
Yang afirma que Gradient ya ha logrado ejecuciones exitosas de entrenamiento por refuerzo distribuidas entre centros de datos independientes, con un rendimiento que rivaliza con los flujos de trabajo RLHF centralizados.
Dice que esto abre la puerta a algo que antes se consideraba imposible: el post-entrenamiento de modelos con billones de parámetros llevado a cabo no por una sola empresa, sino por miles de proveedores de cómputo en todo el mundo.
También lee: As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
Las implicaciones económicas son igualmente significativas. Yang describe un mercado global “impulsado por recompensas”, donde operadores de GPU, centros de datos e incluso pequeños proveedores de infraestructura independiente compiten por aportar cómputo a las tareas de entrenamiento.
Los colaboradores ganan recompensas por suministrar cómputo al precio más bajo disponible, mientras que los costos de entrenamiento caen por debajo de las alternativas centralizadas que actualmente dominan el mercado.
También cree que la infraestructura de IA descentralizada ofrece ventajas significativas de seguridad y confianza.
Si la inferencia puede realizarse completamente en hardware propiedad del usuario —MacBooks, equipos de escritorio, GPU domésticas o configuraciones híbridas— entonces los datos personales nunca abandonan el dispositivo.
«Hoy estamos filtrando muchos más datos sensibles a los sistemas de IA de lo que jamás filtramos a Google», dijo. «Un modelo soberano ejecutándose localmente cambia eso».
Yang sostiene que esta transparencia puede extenderse al propio entrenamiento.
Si la procedencia de los datos de entrenamiento se registra en cadena, los usuarios pueden ver qué entornos y colaboradores moldearon el modelo; es, dice, un antídoto a los sesgos y al control editorial opaco que se observa en los sistemas centralizados.
En su opinión, el panorama de la IA a largo plazo no estará dominado por un único gran modelo, sino por un “mar de modelos especializados” entrenados y poseídos de forma colaborativa.
«Cada empresa ejecutará IA igual que hoy ejecuta analítica», dijo Yang. «Cuando eso ocurra, una red global descentralizada de cómputo se convierte en el único modelo que escala».
Lee a continuación: The Aster ETF Hoax That Fooled Even Top Crypto Influencers

