Gradient 執行長 Eric Yang 認為下一次人工智慧的重大轉變 不會來自更大的專有模型或更強大的數據中心。
相反地,他認為這將由模型訓練方式的根本變化驅動:在全球的無需許可計算網絡上分佈訓練, 而非在某一企業超級計算機內部。
在接受 Yellow.com 的採訪中談到 Gradient 的工作時,Yang 表示, 當今主導的 AI 實驗室如 OpenAI、Google、Anthropic、xAI 建立在一種假設之上,即基礎模型只能在龐大的集中式基礎設施內進行訓練。
「AI 從集中化中受益匪淺,以至於沒有人能夠在多個資料中心之間訓練大型模型,」他說。 Gradient 正在押注這一假設即將瓦解。
Yang 聲稱 Gradient 已經成功實現了跨獨立數據中心的分佈式增強學習訓練, 其效能媲美集中式RLHF工作流程。
他說,這開啟了以前被認為不可能的門:由不止一間公司、 而是全球數千家計算供應商進行的兆參數模型後期訓練。
經濟影響同樣重大。Yang 描述了一個全球「懸賞驅動」的市場, 在這裡 GPU 運營商、數據中心甚至小型獨立基礎設施提供商競相為訓練任務提供計算。
貢獻者透過提供最低價格的計算資源來獲得獎勵, 而訓練成本低於目前主導市場的集中式替代方案。
他也相信去中心化AI基礎設施提供了有意義的安全性和信任優勢。
如果推理完全可以在用戶擁有的硬件上進行,無論是 MacBooks、桌面電腦、家庭 GPU,或混合設置,則個人數據永遠不會離開設備。
「今天我們向 AI 系統洩露的敏感數據遠超過我們曾經泄漏給 Google 的,」他說。 「在本地運行的主權模型改變了這一現狀。」
Yang 認為這種透明度可以延伸到訓練本身。
如果訓練數據來源記錄在鏈上,用戶可以看到哪些環境和貢獻者塑造了模型, 這是他所說的,對抗集中化系統中的偏見和不透明編輯控制的解藥。
在他看來,最終的 AI 版圖不會由單一大型模型統治, 而是一片「專門模型的海洋」,以協作方式訓練和擁有。
「每家公司都會運行 AI,就像今天他們運行分析一樣,」Yang 說。 「當這發生時,全球去中心化的計算網絡將成為唯一能夠擴展的模型。」
接下來閱讀: 愚弄了頂級加密貨幣影響者的 Aster ETF 騙局

