應用商店
錢包

為什麼 Gradient 認為未來的兆參數模型 不會屬於 OpenAI 或 Google

為什麼 Gradient 認為未來的兆參數模型 不會屬於 OpenAI 或 Google

Gradient 執行長 Eric Yang 認為下一次人工智慧的重大轉變 不會來自更大的專有模型或更強大的數據中心。

相反地,他認為這將由模型訓練方式的根本變化驅動:在全球的無需許可計算網絡上分佈訓練, 而非在某一企業超級計算機內部。

在接受 Yellow.com 的採訪中談到 Gradient 的工作時,Yang 表示, 當今主導的 AI 實驗室如 OpenAIGoogleAnthropicxAI 建立在一種假設之上,即基礎模型只能在龐大的集中式基礎設施內進行訓練。

「AI 從集中化中受益匪淺,以至於沒有人能夠在多個資料中心之間訓練大型模型,」他說。 Gradient 正在押注這一假設即將瓦解。

Yang 聲稱 Gradient 已經成功實現了跨獨立數據中心的分佈式增強學習訓練, 其效能媲美集中式RLHF工作流程。

他說,這開啟了以前被認為不可能的門:由不止一間公司、 而是全球數千家計算供應商進行的兆參數模型後期訓練。

另讀: 隨著比特幣進化為全球經濟,隱藏的戰鬥在閉門之後出現

經濟影響同樣重大。Yang 描述了一個全球「懸賞驅動」的市場, 在這裡 GPU 運營商、數據中心甚至小型獨立基礎設施提供商競相為訓練任務提供計算。

貢獻者透過提供最低價格的計算資源來獲得獎勵, 而訓練成本低於目前主導市場的集中式替代方案。

他也相信去中心化AI基礎設施提供了有意義的安全性和信任優勢。

如果推理完全可以在用戶擁有的硬件上進行,無論是 MacBooks、桌面電腦、家庭 GPU,或混合設置,則個人數據永遠不會離開設備。

「今天我們向 AI 系統洩露的敏感數據遠超過我們曾經泄漏給 Google 的,」他說。 「在本地運行的主權模型改變了這一現狀。」

Yang 認為這種透明度可以延伸到訓練本身。

如果訓練數據來源記錄在鏈上,用戶可以看到哪些環境和貢獻者塑造了模型, 這是他所說的,對抗集中化系統中的偏見和不透明編輯控制的解藥。

在他看來,最終的 AI 版圖不會由單一大型模型統治, 而是一片「專門模型的海洋」,以協作方式訓練和擁有。

「每家公司都會運行 AI,就像今天他們運行分析一樣,」Yang 說。 「當這發生時,全球去中心化的計算網絡將成為唯一能夠擴展的模型。」

接下來閱讀: 愚弄了頂級加密貨幣影響者的 Aster ETF 騙局

免責聲明與風險警告: 本文提供的資訊僅供教育與參考用途,並基於作者觀點,不構成財務、投資、法律或稅務建議。 加密貨幣資產具有高度波動性並伴隨高風險,包括可能損失全部或大部分投資金額。買賣或持有加密資產可能並不適合所有投資者。 本文中所表達的觀點僅代表作者立場,不代表 Yellow、其創辦人或管理層的官方政策或意見。 請務必自行進行充分研究(D.Y.O.R.),並在做出任何投資決策前諮詢持牌金融專業人士。