Tether (USDT) は火曜日、MicrosoftのBitNet 大規模言語モデル向けのクロスプラットフォームLoRAファインチューニングフレームワークを公開し、専用の Nvidia ハードウェアを使わずに、スマートフォン、コンシューマー向けGPU、ノートPCでAIの学習を可能にした。
同社のQVAC Fabricプラットフォームの一部であるこのフレームワークは、Tetherの発表によると、AMD、Intel、Apple Silicon、モバイルGPUを含む非Nvidiaチップ全般でBitNetのファインチューニングをサポートする初のソリューションだ。
このリリースは、Tetherが2025年12月に初公開したフレームワークを拡張するものとなる。
新コンポーネントは特に、BitNetネイティブのLoRAファインチューニングと推論の高速化を異種のコンシューマーハードウェア全体で実現し、これまでエンタープライズ向けのNvidiaシステムかクラウドインフラを要していた作業の裾野を広げている。
ベンチマーク結果
Tetherのエンジニアは、約1,8000トークン規模のバイオメディカルデータセットを用い、Samsung Galaxy S25上で1億2500万パラメータのBitNetモデルを約10分でファインチューニングした。
10億パラメータモデルでは、同じタスクをS25で1時間18分、iPhone 16で1時間45分で完了している。
同社はまた、フラッグシップスマホ上で最大38億パラメータ、iPhone 16上で最大130億パラメータのモデルのファインチューニングを実証した。
モバイルGPU上では、BitNetの推論はCPUと比べて2〜11倍高速に動作した。Tetherが公開したベンチマークによると、10億パラメータのBitNetモデル(TQ1_0)のメモリ消費は、同等のGemma-3-1B 16ビットモデルと比べて、推論およびLoRAファインチューニングの双方で77.8%少なかった。
あわせて読む: Arizona Hits Kalshi With Criminal Charges
AI開発にとっての意義
BitNetは、値を-1、0、1に制限した三値重みシステムを採用しており、標準的な16ビットモデルに比べてモデルサイズを圧縮し、VRAM要件を大幅に削減する。LoRA(Low-Rank Adaptation)は、小さなアダプタ層のみを更新して全体の再学習を避けることで、ファインチューニングのコストをさらに抑える。
この両者を組み合わせることで、これまで困難だったエッジデバイス上でのトレーニングが可能になる。
TetherのCEOである Paolo Ardoino 氏は、このフレームワークがフェデレーテッドラーニングのワークフローをサポートしており、データを集中サーバーに送信することなく、分散したデバイス上でモデルを更新できると述べた。コードはApache 2.0ライセンスのオープンソースとして公開されている。
このリリースは、暗号資産インフラとAIコンピュートの境界が一層曖昧になる中で登場した。Core ScientificやHIVE Digital Technologiesを含むビットコインマイナーは、AIや高性能コンピューティング向けに相当量のキャパシティを転用しており、オンチェーントランザクション向けにAIエージェント機能を統合する暗号資産プラットフォームも増えている。
次に読む: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





