Gradient 行政總裁 Eric Yang 認為,人工智能的下個重大轉變並不在於更大型的專有模型或更強大的數據中心。
他指出,真正的突破會來自模型訓練方式的根本變革:把訓練分佈到全球、無需許可的運算網絡,而非困在單一企業超級電腦的牆內。
在 Yellow.com 的訪問中,Yang 講述 Gradient 的工作時表示,目前主流 AI 實驗室如 OpenAI、Google、Anthropic、xAI,都假定基礎模型只能在龐大、集中的基礎設施內訓練。
「AI 很依賴集中化,所以到現在還沒有人能夠在多個數據中心之間訓練大型模型,」他說。Gradient 正是在押注這個假設即將被打破。
Yang 聲稱 Gradient 已經成功在多個獨立數據中心間,分佈式完成增強學習模型訓練,其效能可媲美現時集中的 RLHF 流程。
他認為這將打開一扇新大門:萬億參數模型的後期訓練不再由單一公司完成,而是全球數以千計的運算供應商一同協作。
經濟上的影響同樣重大。Yang 描述了一個全球性的「懸賞驅動」市場,GPU 營運商、數據中心,甚至小型獨立基建供應商均可參與模型訓練貢獻運算力。
貢獻者以最低價格提供運算力來賺取回報,同時訓練成本亦低於現時市場由大型企業所主導的集中方案。
他亦認為分散式 AI 基建可帶來真正的安全性與信任優勢。
若推論完全能在用戶自有硬件(如 MacBook、桌面電腦、家用 GPU 或混合方案)上運行,個人數據便無需外泄。
「今日我們把更多敏感數據泄漏到 AI 系統,遠超以往交給 Google 的,」他說。「本地主權模型將改變這一切。」
Yang 強調這種透明度亦可延伸至訓練過程。
若訓練數據來源被記錄在鏈上,使用者就能看見模型由哪些環境及貢獻者塑造,這是他口中的解藥,針對集中系統的偏見與不透明編輯控制。
在他眼中,最終的 AI 生態不會再由單一大型模型壟斷,而是由「數之不盡的專門模型」共同訓練與持有。
「屆時每間公司運行 AI,就像今日用分析工具般,」Yang 說。「全球分佈式運算網絡將會是唯一能擴展的模式。」

