Tether (USDT) 周二發佈了一個跨平台的 LoRA 微調框架,支援 Microsoft 的 BitNet 大型語言模型,讓 AI 可以在智能手機、消費級 GPU 和筆記型電腦上進行訓練,而無需專用的 Nvidia 硬件。
該框架是公司 QVAC Fabric 平台的一部分,據 Tether 的公告所述,是首個支援在非 Nvidia 晶片上進行 BitNet 微調的框架,涵蓋 AMD、Intel、Apple Silicon 以及行動 GPU 等。
這次發佈擴展了 Tether 最初在 2025 年 12 月推出的框架。
新組件特別加入原生 BitNet LoRA 微調與推理加速,能在異質的消費級硬件上運行,將原本需要企業級 Nvidia 系統或雲端基礎設施的工作搬到邊緣裝置。
基準測試顯示了什麼
Tether 的工程師使用約 18,000 個 token 的生醫資料集,在 Samsung Galaxy S25 上微調了一個 1.25 億參數的 BitNet 模型,大約耗時 10 分鐘。
一個 10 億參數的模型在 S25 上完成相同任務需時 1 小時 18 分鐘,在 iPhone 16 上則需時 1 小時 45 分鐘。
該公司亦展示了在旗艦手機上微調多達 38 億參數的模型,以及在 iPhone 16 上微調多達 130 億參數的模型。
在行動 GPU 上,BitNet 推理速度比 CPU 快兩倍到十一倍不等。根據 Tether 公佈的基準測試,10 億參數的 BitNet 模型(TQ1_0)在推理與 LoRA 微調工作負載下的記憶體使用量,比對應的 16-bit Gemma-3-1B 模型低 77.8%。
延伸閱讀: Arizona Hits Kalshi With Criminal Charges
為何這對 AI 開發重要
BitNet 採用三值權重系統 —— 權重值為 -1、0 或 1 —— 與標準 16-bit 模型相比,可大幅壓縮模型大小並顯著降低 VRAM 需求。LoRA(Low-Rank Adaptation,低秩適應)則透過只更新小型轉接層,而非重新訓練整個模型,進一步降低微調成本。
兩者結合,使過去難以實現的邊緣裝置訓練成為可能。
Tether 執行長 Paolo Ardoino 表示,該框架支援聯邦學習工作流程,讓模型能在分散式裝置上更新,而無需將數據傳回集中式伺服器。程式碼以 Apache 2.0 授權條款作為開源釋出。
此次發佈正值加密貨幣基礎設施與 AI 運算資源之間的界線不斷縮小之際。包括 Core Scientific 和 HIVE Digital Technologies 在內的比特幣礦商,已將相當一部分算力轉向 AI 與高效能運算;同時,愈來愈多加密平台開始整合 AI 代理功能,用於鏈上交易。
接著看: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





