Tether(USDT)週二釋出一套跨平台的 LoRA 微調框架,支援 Microsoft 的 BitNet 大型語言模型,讓 AI 能在智慧型手機、消費級 GPU 與筆電上進行訓練,而不需要專用的 Nvidia 硬體。
根據 Tether 的公告,這個框架是公司 QVAC Fabric 平台的一部分,也是首個在非 Nvidia 晶片上支援 BitNet 微調的框架──包含 AMD、Intel、Apple Silicon 以及行動 GPU 等。
此次發佈延伸了 Tether 在 2025 年 12 月首次推出的框架。
新增的組件特別在於,針對 BitNet 原生提供 LoRA 微調與推論加速,能在各式異質消費級硬體上運作,擴大了過去必須仰賴企業級 Nvidia 系統或雲端基礎設施才能達成的工作負載。
基準測試顯示什麼結果
Tether 的工程師使用約 18,000 個 token 的生醫資料集,在 Samsung Galaxy S25 上微調一個 1.25 億參數的 BitNet 模型,約花費 10 分鐘。
一個 10 億參數的模型,在 S25 上完成相同任務需時 1 小時 18 分鐘,在 iPhone 16 上則需時 1 小時 45 分鐘。
該公司也展示了在旗艦手機上微調高達 38 億參數的模型,以及在 iPhone 16 上微調高達 130 億參數模型的能力。
在行動 GPU 上,BitNet 的推論速度比 CPU 快了約兩倍到十一倍。根據 Tether 公布的基準測試結果,10 億參數 BitNet 模型(TQ1_0)的記憶體用量,無論在推論或 LoRA 微調工作負載上,都比同級的 Gemma-3-1B 16-bit 模型低了 77.8%。
延伸閱讀: Arizona Hits Kalshi With Criminal Charges
為何這對 AI 開發具有意義
BitNet 採用三值權重系統(權重取值為 -1、0 或 1),相較於標準的 16-bit 模型,大幅壓縮模型大小並顯著降低 VRAM 需求。LoRA(Low-Rank Adaptation,低秩適應)則是透過只更新小型轉接層,而非重新訓練整個模型,進一步降低微調成本。
將這兩者結合,使先前難以實現的邊緣裝置訓練成為可能。
Tether 執行長 Paolo Ardoino 表示,這個框架支援聯邦學習流程,也就是讓模型能在分散式裝置上更新,而無需將資料傳回集中式伺服器。該程式碼以 Apache 2.0 授權條款開源釋出。
此次發佈的背景,是加密貨幣基礎設施與 AI 運算資源之間的界線持續縮小。包括 Core Scientific 與 HIVE Digital Technologies 在內的比特幣礦企,已將相當大的算力轉向 AI 與高效能運算;同時,愈來愈多加密平台開始整合 AI 代理,用於鏈上交易與相關服務。
下一篇閱讀: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





