生態系統
錢包

Tether 的 BitNet 框架在 iPhone 16 上執行 130 億參數 AI 模型

Tether 的 BitNet 框架在 iPhone 16 上執行 130 億參數 AI 模型

TetherUSDT)週二釋出一套跨平台的 LoRA 微調框架,支援 Microsoft 的 BitNet 大型語言模型,讓 AI 能在智慧型手機、消費級 GPU 與筆電上進行訓練,而不需要專用的 Nvidia 硬體。

根據 Tether 的公告,這個框架是公司 QVAC Fabric 平台的一部分,也是首個在非 Nvidia 晶片上支援 BitNet 微調的框架──包含 AMD、Intel、Apple Silicon 以及行動 GPU 等。

此次發佈延伸了 Tether 在 2025 年 12 月首次推出的框架。

新增的組件特別在於,針對 BitNet 原生提供 LoRA 微調與推論加速,能在各式異質消費級硬體上運作,擴大了過去必須仰賴企業級 Nvidia 系統或雲端基礎設施才能達成的工作負載。

基準測試顯示什麼結果

Tether 的工程師使用約 18,000 個 token 的生醫資料集,在 Samsung Galaxy S25 上微調一個 1.25 億參數的 BitNet 模型,約花費 10 分鐘。

一個 10 億參數的模型,在 S25 上完成相同任務需時 1 小時 18 分鐘,在 iPhone 16 上則需時 1 小時 45 分鐘。

該公司也展示了在旗艦手機上微調高達 38 億參數的模型,以及在 iPhone 16 上微調高達 130 億參數模型的能力。

在行動 GPU 上,BitNet 的推論速度比 CPU 快了約兩倍到十一倍。根據 Tether 公布的基準測試結果,10 億參數 BitNet 模型(TQ1_0)的記憶體用量,無論在推論或 LoRA 微調工作負載上,都比同級的 Gemma-3-1B 16-bit 模型低了 77.8%。

延伸閱讀: Arizona Hits Kalshi With Criminal Charges

為何這對 AI 開發具有意義

BitNet 採用三值權重系統(權重取值為 -1、0 或 1),相較於標準的 16-bit 模型,大幅壓縮模型大小並顯著降低 VRAM 需求。LoRA(Low-Rank Adaptation,低秩適應)則是透過只更新小型轉接層,而非重新訓練整個模型,進一步降低微調成本。

將這兩者結合,使先前難以實現的邊緣裝置訓練成為可能。

Tether 執行長 Paolo Ardoino 表示,這個框架支援聯邦學習流程,也就是讓模型能在分散式裝置上更新,而無需將資料傳回集中式伺服器。該程式碼以 Apache 2.0 授權條款開源釋出。

此次發佈的背景,是加密貨幣基礎設施與 AI 運算資源之間的界線持續縮小。包括 Core Scientific 與 HIVE Digital Technologies 在內的比特幣礦企,已將相當大的算力轉向 AI 與高效能運算;同時,愈來愈多加密平台開始整合 AI 代理,用於鏈上交易與相關服務。

下一篇閱讀: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

免責聲明與風險警告: 本文提供的資訊僅供教育與參考用途,並基於作者觀點,不構成財務、投資、法律或稅務建議。 加密貨幣資產具有高度波動性並伴隨高風險,包括可能損失全部或大部分投資金額。買賣或持有加密資產可能並不適合所有投資者。 本文中所表達的觀點僅代表作者立場,不代表 Yellow、其創辦人或管理層的官方政策或意見。 請務必自行進行充分研究(D.Y.O.R.),並在做出任何投資決策前諮詢持牌金融專業人士。