エコシステム
ウォレット

TetherのBitNetフレームワーク、iPhone 16上で13B規模のAIモデルを実行

TetherのBitNetフレームワーク、iPhone 16上で13B規模のAIモデルを実行

Tether (USDT) は火曜日、MicrosoftのBitNet 大規模言語モデル向けのクロスプラットフォームLoRAファインチューニングフレームワークを公開し、専用の Nvidia ハードウェアを使わずに、スマートフォン、コンシューマー向けGPU、ノートPCでAIの学習を可能にした。

同社のQVAC Fabricプラットフォームの一部であるこのフレームワークは、Tetherの発表によると、AMD、Intel、Apple Silicon、モバイルGPUを含む非Nvidiaチップ全般でBitNetのファインチューニングをサポートする初のソリューションだ。

このリリースは、Tetherが2025年12月に初公開したフレームワークを拡張するものとなる。

新コンポーネントは特に、BitNetネイティブのLoRAファインチューニングと推論の高速化を異種のコンシューマーハードウェア全体で実現し、これまでエンタープライズ向けのNvidiaシステムかクラウドインフラを要していた作業の裾野を広げている。

ベンチマーク結果

Tetherのエンジニアは、約1,8000トークン規模のバイオメディカルデータセットを用い、Samsung Galaxy S25上で1億2500万パラメータのBitNetモデルを約10分でファインチューニングした。

10億パラメータモデルでは、同じタスクをS25で1時間18分、iPhone 16で1時間45分で完了している。

同社はまた、フラッグシップスマホ上で最大38億パラメータ、iPhone 16上で最大130億パラメータのモデルのファインチューニングを実証した。

モバイルGPU上では、BitNetの推論はCPUと比べて2〜11倍高速に動作した。Tetherが公開したベンチマークによると、10億パラメータのBitNetモデル(TQ1_0)のメモリ消費は、同等のGemma-3-1B 16ビットモデルと比べて、推論およびLoRAファインチューニングの双方で77.8%少なかった。

あわせて読む: Arizona Hits Kalshi With Criminal Charges

AI開発にとっての意義

BitNetは、値を-1、0、1に制限した三値重みシステムを採用しており、標準的な16ビットモデルに比べてモデルサイズを圧縮し、VRAM要件を大幅に削減する。LoRA(Low-Rank Adaptation)は、小さなアダプタ層のみを更新して全体の再学習を避けることで、ファインチューニングのコストをさらに抑える。

この両者を組み合わせることで、これまで困難だったエッジデバイス上でのトレーニングが可能になる。

TetherのCEOである Paolo Ardoino 氏は、このフレームワークがフェデレーテッドラーニングのワークフローをサポートしており、データを集中サーバーに送信することなく、分散したデバイス上でモデルを更新できると述べた。コードはApache 2.0ライセンスのオープンソースとして公開されている。

このリリースは、暗号資産インフラとAIコンピュートの境界が一層曖昧になる中で登場した。Core ScientificやHIVE Digital Technologiesを含むビットコインマイナーは、AIや高性能コンピューティング向けに相当量のキャパシティを転用しており、オンチェーントランザクション向けにAIエージェント機能を統合する暗号資産プラットフォームも増えている。

次に読む: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

免責事項とリスク警告: この記事で提供される情報は教育および情報提供のみを目的としており、著者の意見に基づいています。金融、投資、法的、または税務上のアドバイスを構成するものではありません。 暗号資産は非常に変動性が高く、投資の全部または相当な部分を失うリスクを含む高いリスクにさらされています。暗号資産の取引または保有は、すべての投資家に適しているとは限りません。 この記事で表明された見解は著者のものであり、Yellow、その創設者、または役員の公式な方針や立場を表すものではありません。 投資決定を行う前に、常にご自身で十分な調査(D.Y.O.R.)を行い、ライセンスを持つ金融専門家にご相談ください。
関連ニュース
関連する研究記事
TetherのBitNetフレームワーク、iPhone 16上で13B規模のAIモデルを実行 | Yellow.com