Gradient CEO Eric Yang 认为,人工智能的下一次重大飞跃,不会来自更庞大的专有模型或更强大的数据中心。
相反,他认为,这一变革将源自模型训练方式的根本性改变:不再在单一公司的超级计算机“围墙之内”进行训练,而是把训练分发到全球、无许可的算力网络上。
在接受 Yellow.com 采访、谈及 Gradient 的工作时,Yang 表示,如今占据主导地位的 AI 实验室,如 OpenAI、Google、Anthropic、xAI,都是建立在这样一个前提之上:基础模型只能在庞大、中心化的基础设施内部训练。
“AI 从中心化中获得的收益太大了,以至于还没有人能在多个数据中心之间训练大模型,”他说。Gradient 正押注这一假设即将崩塌。
Yang 声称,Gradient 已经完成了分布在独立数据中心上的强化学习训练任务,其性能可与中心化的 RLHF 工作流相媲美。
他表示,这为过去被视为不可能的事情打开了大门:万亿参数模型的后训练,不再由单一公司完成,而是由全球成千上万的算力提供方共同完成。
延伸阅读:As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors
其经济影响同样深远。Yang 描述了一个全球性的“悬赏驱动”市场:GPU 运营商、数据中心,甚至小型独立基础设施提供者,都可竞争向训练任务贡献算力。
贡献者通过以最低可获得价格提供算力来赚取奖励,而训练成本则会低于目前占据主导地位的中心化方案。
他还认为,去中心化的 AI 基础设施在安全性与信任方面也具有实质优势。
如果推理过程可以完全在用户自有硬件上完成——例如 MacBook、台式机、家用 GPU,或混合部署方案——那么个人数据就无需离开设备。
“今天我们泄露给 AI 系统的敏感数据,比以往泄露给 Google 的多得多,”他说。“在本地运行的主权模型会改变这一点。”
Yang 认为,这种透明性也可以延伸到训练过程本身。
如果训练数据的来源被记录在链上,用户就能看到哪些环境和贡献者塑造了模型;他认为,这将成为对抗中心化系统中偏见和不透明编辑控制的解药。
在他看来,未来的 AI 版图不会由单一大模型统治,而是会被协作训练与共同拥有的“一片专用模型之海”所取代。
“每家公司都会像今天运行分析系统那样运行 AI,”Yang 说。“当那一天到来时,全球去中心化算力网络将成为唯一可扩展的模式。”
下篇阅读:The Aster ETF Hoax That Fooled Even Top Crypto Influencers

