Tether (USDT) merilis kerangka fine-tuning LoRA lintas platform untuk model bahasa besar BitNet milik Microsoft pada hari Selasa, memungkinkan pelatihan AI di ponsel pintar, GPU konsumen, dan laptop tanpa perangkat keras khusus Nvidia.
Kerangka ini, bagian dari platform QVAC Fabric milik perusahaan, adalah yang pertama mendukung fine-tuning BitNet di chip non-Nvidia – termasuk AMD, Intel, Apple Silicon, dan GPU mobile – menurut pengumuman Tether.
Rilis ini memperluas kerangka yang pertama kali diluncurkan Tether pada Desember 2025.
Komponen baru ini secara khusus menambahkan fine-tuning LoRA native BitNet dan akselerasi inferensi di beragam perangkat keras konsumen heterogen, memperluas kemampuan yang sebelumnya memerlukan sistem Nvidia kelas enterprise atau infrastruktur cloud.
Apa yang Ditunjukkan Benchmark
Insinyur Tether melakukan fine-tuning model BitNet dengan 125 juta parameter dalam kira-kira 10 menit di Samsung Galaxy S25 menggunakan dataset biomedis sekitar 18.000 token.
Model dengan 1 miliar parameter menyelesaikan tugas yang sama dalam 1 jam 18 menit di S25 dan 1 jam 45 menit di iPhone 16.
Perusahaan juga mendemonstrasikan fine-tuning model hingga 3,8 miliar parameter di ponsel flagship dan hingga 13 miliar parameter di iPhone 16.
Di GPU mobile, inferensi BitNet berjalan dua hingga sebelas kali lebih cepat dibanding di CPU. Konsumsi memori untuk model BitNet 1 miliar parameter (TQ1_0) 77,8% lebih rendah dibanding model Gemma-3-1B 16-bit yang sebanding, baik untuk beban kerja inferensi maupun fine-tuning LoRA, menurut benchmark yang dipublikasikan Tether.
Baca juga: Arizona Hits Kalshi With Criminal Charges
Mengapa Ini Penting untuk Pengembangan AI
BitNet menggunakan sistem bobot ternary – nilai -1, 0, atau 1 – yang memampatkan ukuran model dan memangkas kebutuhan VRAM secara tajam dibanding model 16-bit standar. LoRA (Low-Rank Adaptation) menurunkan biaya fine-tuning lebih jauh dengan memperbarui lapisan adaptor kecil alih-alih melatih ulang seluruh model.
Menggabungkan keduanya memungkinkan pelatihan di perangkat edge yang sebelumnya tidak terjangkau.
CEO Tether Paolo Ardoino mengatakan kerangka ini mendukung alur kerja federated learning, di mana model diperbarui di perangkat terdistribusi tanpa mengirim data ke server terpusat. Kode dirilis sebagai open-source di bawah lisensi Apache 2.0.
Rilis ini hadir ketika batas antara infrastruktur cryptocurrency dan komputasi AI terus menyempit. Penambang Bitcoin termasuk Core Scientific dan HIVE Digital Technologies telah mengalihkan kapasitas signifikan ke AI dan komputasi berkinerja tinggi, sementara semakin banyak platform kripto mulai mengintegrasikan kapabilitas agen AI untuk transaksi on-chain.
Baca selanjutnya: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





