生態系統
錢包

Tether 的 BitNet 框架在 iPhone 16 上運行 130 億參數 AI 模型

Tether 的 BitNet 框架在 iPhone 16 上運行 130 億參數 AI 模型

Tether (USDT) 周二發佈了一個跨平台的 LoRA 微調框架,支援 Microsoft 的 BitNet 大型語言模型,讓 AI 可以在智能手機、消費級 GPU 和筆記型電腦上進行訓練,而無需專用的 Nvidia 硬件。

該框架是公司 QVAC Fabric 平台的一部分,據 Tether 的公告所述,是首個支援在非 Nvidia 晶片上進行 BitNet 微調的框架,涵蓋 AMD、Intel、Apple Silicon 以及行動 GPU 等。

這次發佈擴展了 Tether 最初在 2025 年 12 月推出的框架。

新組件特別加入原生 BitNet LoRA 微調與推理加速,能在異質的消費級硬件上運行,將原本需要企業級 Nvidia 系統或雲端基礎設施的工作搬到邊緣裝置。

基準測試顯示了什麼

Tether 的工程師使用約 18,000 個 token 的生醫資料集,在 Samsung Galaxy S25 上微調了一個 1.25 億參數的 BitNet 模型,大約耗時 10 分鐘。

一個 10 億參數的模型在 S25 上完成相同任務需時 1 小時 18 分鐘,在 iPhone 16 上則需時 1 小時 45 分鐘。

該公司亦展示了在旗艦手機上微調多達 38 億參數的模型,以及在 iPhone 16 上微調多達 130 億參數的模型。

在行動 GPU 上,BitNet 推理速度比 CPU 快兩倍到十一倍不等。根據 Tether 公佈的基準測試,10 億參數的 BitNet 模型(TQ1_0)在推理與 LoRA 微調工作負載下的記憶體使用量,比對應的 16-bit Gemma-3-1B 模型低 77.8%。

延伸閱讀: Arizona Hits Kalshi With Criminal Charges

為何這對 AI 開發重要

BitNet 採用三值權重系統 —— 權重值為 -1、0 或 1 —— 與標準 16-bit 模型相比,可大幅壓縮模型大小並顯著降低 VRAM 需求。LoRA(Low-Rank Adaptation,低秩適應)則透過只更新小型轉接層,而非重新訓練整個模型,進一步降低微調成本。

兩者結合,使過去難以實現的邊緣裝置訓練成為可能。

Tether 執行長 Paolo Ardoino 表示,該框架支援聯邦學習工作流程,讓模型能在分散式裝置上更新,而無需將數據傳回集中式伺服器。程式碼以 Apache 2.0 授權條款作為開源釋出。

此次發佈正值加密貨幣基礎設施與 AI 運算資源之間的界線不斷縮小之際。包括 Core Scientific 和 HIVE Digital Technologies 在內的比特幣礦商,已將相當一部分算力轉向 AI 與高效能運算;同時,愈來愈多加密平台開始整合 AI 代理功能,用於鏈上交易。

接著看: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

免責聲明及風險提示: 本文資訊僅供教育與參考之用,並基於作者意見,並不構成金融、投資、法律或稅務建議。 加密貨幣資產具高度波動性並伴隨高風險,可能導致投資大幅虧損或全部損失,並非適合所有投資者。 文章內容僅代表作者觀點,不代表 Yellow、創辦人或管理層立場。 投資前請務必自行徹底研究(D.Y.O.R.),並諮詢持牌金融專業人士。