应用商店
钱包

Render Network:真正的 AI 瓶颈不是 GPU 短缺, 而是被浪费的算力

Render Network:真正的 AI 瓶颈不是 GPU 短缺, 而是被浪费的算力

在整个 AI 行业中,一个长期存在的假设是:增长很快就会受到高端 GPU 全球短缺的限制。

然而,塑造下一阶段 AI 发展的约束,可能与其说是绝对稀缺,不如说是结构性低效。

根据 Render NetworkTrevor Harries-Jones 的说法,世界上大部分算力根本没有被利用,他认为这种脱节比供应约束更关键。

被误解的 GPU 短缺

“全球有 40% 的 GPU 处于空闲状态,”他在 Solana 的 Breakpoint 大会期间接受 Yellow.com 采访时表示。 “人们以为存在短缺,但实际上有一大批 GPU 的性能足以完成渲染和 AI 任务。”

Harries-Jones 认为,虽然针对 Nvidia H100 这类训练级芯片的需求依然强烈,但训练本身只占现实世界 AI 工作负载的一小部分。

“训练实际上只占 AI 使用量的很小一部分,”他指出,“推理占了 80%。”

在他看来,这种失衡为消费级硬件、低端 GPU,以及 LPU、TPU、ASIC 等新型处理器类别,吸收远超人们想象的全球算力负载打开了大门。

他强调的第二个转变,是传统 3D 工作流与新兴 AI 原生资产格式的融合。

创作者将 AI 推向电影级生产管线

像高斯喷溅这类技术,会保留底层 3D 结构,而不是生成被压扁的 2D 帧;再加上世界模型的出现,正开始把 AI 系统拉向影视级制作管线。

这些进展之所以重要,是因为它们让 AI 产出能够直接进入现有专业工具链,而不是停留为孤立的新奇格式。

模型体积仍然是挑战,但 Harries-Jones 预计,量化和模型压缩会持续缩小开放权重系统,直到它们可以在消费级设备上顺畅运行。

他表示,更小的模型对于依赖分布式内存和带宽、而非超大规模集群的去中心化网络至关重要。

Also Read: Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure

在许多人看来,模型复杂度上升会推高成本,而他认为相反的动态将占据主导。

训练方面的突破——例如近期一些中国模型项目优先追求效率而不是规模——指向一个未来:随着使用量飙升,AI 却会变得更便宜。

“随着成本下降,”他说,“你会看到越来越多的应用场景涌现出来。”

Harries-Jones 预期的不是算力稀缺,而是类似“杰文斯悖论”的循环:成本下降催生更多需求,而更高的需求又激励打造更高效的系统。

他同样预期,混合算力——由端侧、本地网络以及中心化云端工作负载组成的组合——将定义行业的下一阶段。

类似 Apple 的分布式智能模型,不同的环境会根据延迟、隐私、敏感性和规模的不同来处理不同任务。

关键任务工作负载仍然需要合规的数据中心,但非敏感或批处理任务则可以越来越多地在去中心化网络上运行。加密技术的进步最终可能扩大这一边界。

即将到来的 3D 优先内容浪潮

从更长远来看,他看到的是一场更广泛的变革:在 AI 支持下,3D 正走向主流化。

Harries-Jones 预计,下一代面向消费者的 AI,将围绕沉浸式、3D 原生内容,而非文本或平面图像展开。

“我们将比以往任何时候消费更多 3D 内容,”他说,并指向沉浸式硬件的早期信号,以及 3D + AI 工具的快速演进。

传统运动图形的瓶颈——高度技术化、只对少数专家开放的工作流——可能会让位于能让数以百万计用户创作电影级场景的工具。

过去对 AI 抱持抵触态度的创作者,如今开始直接试验这些生产管线,从而加速工具的打磨节奏,并塑造混合工作流的演进方向。

他认为,他们的反馈很可能会与硬件趋势一样深刻地影响行业走向。

Read Next: Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

免责声明和风险警告: 本文提供的信息仅用于教育和信息目的,基于作者的意见。它不构成财务、投资、法律或税务建议。 加密货币资产具有高度波动性并面临高风险,包括失去全部或大部分投资的风险。交易或持有加密资产可能不适合所有投资者。 本文表达的观点仅为作者的观点,不代表Yellow、其创始人或高管的官方政策或立场。 在做出任何投资决定之前,请务必进行自己的全面研究(D.Y.O.R.)并咨询持牌金融专业人士。
最新新闻
查看所有新闻
Render Network:真正的 AI 瓶颈不是 GPU 短缺, 而是被浪费的算力 | Yellow.com