应用商店
钱包

为何 Gradient 认为未来的万亿参数模型 不会属于 OpenAI 或 Google

为何 Gradient 认为未来的万亿参数模型 不会属于 OpenAI 或 Google

Gradient CEO Eric Yang 认为,人工智能的下一次重大飞跃,不会来自更庞大的专有模型或更强大的数据中心。

相反,他认为,这一变革将源自模型训练方式的根本性改变:不再在单一公司的超级计算机“围墙之内”进行训练,而是把训练分发到全球、无许可的算力网络上。

在接受 Yellow.com 采访、谈及 Gradient 的工作时,Yang 表示,如今占据主导地位的 AI 实验室,如 OpenAIGoogleAnthropicxAI,都是建立在这样一个前提之上:基础模型只能在庞大、中心化的基础设施内部训练。

“AI 从中心化中获得的收益太大了,以至于还没有人能在多个数据中心之间训练大模型,”他说。Gradient 正押注这一假设即将崩塌。

Yang 声称,Gradient 已经完成了分布在独立数据中心上的强化学习训练任务,其性能可与中心化的 RLHF 工作流相媲美。

他表示,这为过去被视为不可能的事情打开了大门:万亿参数模型的后训练,不再由单一公司完成,而是由全球成千上万的算力提供方共同完成。

延伸阅读As Bitcoin Evolves Into A Global Economy, A Hidden Battle Emerges Behind Closed Doors

其经济影响同样深远。Yang 描述了一个全球性的“悬赏驱动”市场:GPU 运营商、数据中心,甚至小型独立基础设施提供者,都可竞争向训练任务贡献算力。

贡献者通过以最低可获得价格提供算力来赚取奖励,而训练成本则会低于目前占据主导地位的中心化方案。

他还认为,去中心化的 AI 基础设施在安全性与信任方面也具有实质优势。

如果推理过程可以完全在用户自有硬件上完成——例如 MacBook、台式机、家用 GPU,或混合部署方案——那么个人数据就无需离开设备。

“今天我们泄露给 AI 系统的敏感数据,比以往泄露给 Google 的多得多,”他说。“在本地运行的主权模型会改变这一点。”

Yang 认为,这种透明性也可以延伸到训练过程本身。

如果训练数据的来源被记录在链上,用户就能看到哪些环境和贡献者塑造了模型;他认为,这将成为对抗中心化系统中偏见和不透明编辑控制的解药。

在他看来,未来的 AI 版图不会由单一大模型统治,而是会被协作训练与共同拥有的“一片专用模型之海”所取代。

“每家公司都会像今天运行分析系统那样运行 AI,”Yang 说。“当那一天到来时,全球去中心化算力网络将成为唯一可扩展的模式。”

下篇阅读The Aster ETF Hoax That Fooled Even Top Crypto Influencers

免责声明和风险警告: 本文提供的信息仅用于教育和信息目的,基于作者的意见。它不构成财务、投资、法律或税务建议。 加密货币资产具有高度波动性并面临高风险,包括失去全部或大部分投资的风险。交易或持有加密资产可能不适合所有投资者。 本文表达的观点仅为作者的观点,不代表Yellow、其创始人或高管的官方政策或立场。 在做出任何投资决定之前,请务必进行自己的全面研究(D.Y.O.R.)并咨询持牌金融专业人士。
最新新闻
查看所有新闻