在整个 AI 行业中,一个长期存在的假设是:增长很快就会受到高端 GPU 全球短缺的限制。
然而,塑造下一阶段 AI 发展的约束,可能与其说是绝对稀缺,不如说是结构性低效。
根据 Render Network 的 Trevor Harries-Jones 的说法,世界上大部分算力根本没有被利用,他认为这种脱节比供应约束更关键。
被误解的 GPU 短缺
“全球有 40% 的 GPU 处于空闲状态,”他在 Solana 的 Breakpoint 大会期间接受 Yellow.com 采访时表示。 “人们以为存在短缺,但实际上有一大批 GPU 的性能足以完成渲染和 AI 任务。”
Harries-Jones 认为,虽然针对 Nvidia H100 这类训练级芯片的需求依然强烈,但训练本身只占现实世界 AI 工作负载的一小部分。
“训练实际上只占 AI 使用量的很小一部分,”他指出,“推理占了 80%。”
在他看来,这种失衡为消费级硬件、低端 GPU,以及 LPU、TPU、ASIC 等新型处理器类别,吸收远超人们想象的全球算力负载打开了大门。
他强调的第二个转变,是传统 3D 工作流与新兴 AI 原生资产格式的融合。
创作者将 AI 推向电影级生产管线
像高斯喷溅这类技术,会保留底层 3D 结构,而不是生成被压扁的 2D 帧;再加上世界模型的出现,正开始把 AI 系统拉向影视级制作管线。
这些进展之所以重要,是因为它们让 AI 产出能够直接进入现有专业工具链,而不是停留为孤立的新奇格式。
模型体积仍然是挑战,但 Harries-Jones 预计,量化和模型压缩会持续缩小开放权重系统,直到它们可以在消费级设备上顺畅运行。
他表示,更小的模型对于依赖分布式内存和带宽、而非超大规模集群的去中心化网络至关重要。
Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure
在许多人看来,模型复杂度上升会推高成本,而他认为相反的动态将占据主导。
训练方面的突破——例如近期一些中国模型项目优先追求效率而不是规模——指向一个未来:随着使用量飙升,AI 却会变得更便宜。
“随着成本下降,”他说,“你会看到越来越多的应用场景涌现出来。”
Harries-Jones 预期的不是算力稀缺,而是类似“杰文斯悖论”的循环:成本下降催生更多需求,而更高的需求又激励打造更高效的系统。
他同样预期,混合算力——由端侧、本地网络以及中心化云端工作负载组成的组合——将定义行业的下一阶段。
类似 Apple 的分布式智能模型,不同的环境会根据延迟、隐私、敏感性和规模的不同来处理不同任务。
关键任务工作负载仍然需要合规的数据中心,但非敏感或批处理任务则可以越来越多地在去中心化网络上运行。加密技术的进步最终可能扩大这一边界。
即将到来的 3D 优先内容浪潮
从更长远来看,他看到的是一场更广泛的变革:在 AI 支持下,3D 正走向主流化。
Harries-Jones 预计,下一代面向消费者的 AI,将围绕沉浸式、3D 原生内容,而非文本或平面图像展开。
“我们将比以往任何时候消费更多 3D 内容,”他说,并指向沉浸式硬件的早期信号,以及 3D + AI 工具的快速演进。
传统运动图形的瓶颈——高度技术化、只对少数专家开放的工作流——可能会让位于能让数以百万计用户创作电影级场景的工具。
过去对 AI 抱持抵触态度的创作者,如今开始直接试验这些生产管线,从而加速工具的打磨节奏,并塑造混合工作流的演进方向。
他认为,他们的反馈很可能会与硬件趋势一样深刻地影响行业走向。
Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

