整個 AI 產業普遍有個假設,認為今後發展將因全球高階 GPU 不足而遇到瓶頸。
但影響 AI 下一階段發展的限制,也許不是絕對資源短缺,而是結構性的低效率。
根據 Render Network 的 Trevor Harries-Jones 表示,全世界大多數算力根本沒有被使用,他認為這個現象比供應不足更關鍵。
被誤解的 GPU 短缺
他在 Solana Breakpoint 活動期間接受 Yellow.com 專訪時表示:「全世界有 40% 的 GPU 都處於閒置狀態。大家以為短缺,實際上 GPU 過剩,這些 GPU 的效能足以完成渲染與 AI 任務。」
Harries-Jones 認為,雖然 Nvidia H100 等訓練級晶片需求依然強勁,但訓練僅占現實 AI 工作負載的一小部分。
「訓練其實只占 AI 用途的很小百分比,」他指出,「推論才吃掉了 80% 算力。」
他認為這種失衡,讓一般硬體、較低階 GPU 與新型處理器(如 LPU、TPU 和 ASIC)有機會分擔遠超外界想像的全球算力需求。
他強調的另一個轉變,是傳統 3D 工作流程正與新興 AI 原生資產格式逐漸融合。
創作者推動 AI 朝電影級生產管線邁進
如 Gaussian splatting 這類技術,能保存 3D 結構而非生成單一 2D 畫面,以及世界模型的興起,都令 AI 系統越來越接近專業電影製作的流程。
這些進展很重要,因為它們讓 AI 輸出結果可以直接嵌入既有專業工具鏈,而不只有新奇玩具般的獨立格式。
雖然模型規模仍是挑戰,但 Harries-Jones 預計量化與模型壓縮技術將繼續讓開源權重模型縮小到足以在消費性裝置順暢運作。
他表示,小型模型對於分散式網路至關重要,因這些網路仰賴分布式 RAM 和頻寬而非超大規模叢集。
延伸閱讀:Data Shows Bitcoin Enters 'Cost-Basis Cycle' Era As ETFs Redefine Market Structure
當許多人預期模型複雜度提高將推升成本,他卻認為情勢將恰好相反。
包括中國近期注重效率而非規模的模型突破顯示,AI 使用量加速時反倒能更加便宜。
「成本愈來愈低時,」他說,「你會看到各種新應用不斷出現。」
Harries-Jones 預計未來不是算力短缺,而是產生 Jevons 悖論循環:成本下降提升需求,需求提升進而促進系統更高效率。
他也認為混合式算力——涵蓋裝置端、本地網路與中心化雲端的運算——將定義行業下一階段。
類似 Apple 的智慧分佈模式,不同環境會依延遲、隱私、敏感度及規模處理不同任務。
關鍵任務仍需要合規資料中心,但非敏感/批次需求可逐步交由去中心化網路處理。隨著加密技術進步,這條界線終將拓寬。
即將到來的 3D 優先內容浪潮
更長遠來看,他認為產業正迎來更大轉型:由 AI 驅動的大眾 3D 化。
Harries-Jones 預測,新一代面向消費者的 AI 將以沉浸式、3D 原生內容為核心,而非純粹文本或平面影像。
「未來我們會消費比以往更多的 3D 內容,」他表示,並以新型沉浸式硬體和 3D-AI 工具快速革新為例。
過往的動態圖形與專家才懂的高度技術工作流程瓶頸,將逐漸被讓千萬用戶都能打造電影場景的工具取代。
先前對 AI 抱持保留的創作者,現今也直接投入這些新流程,推動工具快速迭代並影響混合式工作流的發展。
他認為,這些反饋未來很可能像硬體趨勢一樣主導產業方向。
下篇閱讀:Why Gradient Thinks Trillion-Parameter Models Won’t Belong To OpenAI or Google In The Future

