Tether (USDT) heeft dinsdag een cross-platform LoRA-fijn-afstemmingsframework uitgebracht voor Microsofts BitNet-taalmodellen, waarmee AI-training mogelijk wordt op smartphones, consumentengpu's en laptops zonder gespecialiseerde Nvidia-hardware.
Het framework, onderdeel van het QVAC Fabric-platform van het bedrijf, is volgens Tethers announcement het eerste dat BitNet-fijn-afstemming ondersteunt op niet-Nvidia-chips – waaronder AMD, Intel, Apple Silicon en mobiele gpu's.
De release bouwt voort op een framework dat Tether voor het eerst in december 2025 lanceerde.
De nieuwe component voegt specifiek BitNet-native LoRA-fijn-afstemming en inferentieversnelling toe op heterogene consumentenhardware, en breidt daarmee uit wat eerder alleen mogelijk was met enterprise Nvidia-systemen of cloudinfrastructuur.
Wat de benchmarks laten zien
Ingenieurs van Tether stemden een BitNet-model met 125 miljoen parameters in ongeveer 10 minuten af op een Samsung Galaxy S25 met behulp van een biomedische dataset van ongeveer 18.000 tokens.
Een model met 1 miljard parameters voltooide dezelfde taak in 1 uur en 18 minuten op de S25 en 1 uur en 45 minuten op een iPhone 16.
Het bedrijf demonstrated ook de fijn-afstemming van modellen tot 3,8 miljard parameters op vlaggenschiptelefoons en tot 13 miljard parameters op de iPhone 16.
Op mobiele gpu's draaide BitNet-inferentie twee tot elf keer sneller dan op de cpu. Het geheugengebruik voor het BitNet-model met 1 miljard parameters (TQ1_0) lag 77,8% lager dan een vergelijkbaar Gemma-3-1B 16-bit-model, zowel bij inferentie als bij LoRA-fijn-afstemming, volgens Tethers gepubliceerde benchmarks.
Lees ook: Arizona Hits Kalshi With Criminal Charges
Waarom dit belangrijk is voor AI-ontwikkeling
BitNet gebruikt een ternair gewichtsysteem – waarden van -1, 0 of 1 – dat de modelgrootte comprimeert en de VRAM-vereisten sterk verlaagt in vergelijking met standaard 16-bit-modellen. LoRA (Low-Rank Adaptation) vermindert de kosten van fijn-afstemming verder door kleine adapterlagen bij te werken in plaats van het volledige model opnieuw te trainen.
De combinatie van beide maakt training op edge-apparaten mogelijk die eerder onhaalbaar was.
Tether-CEO Paolo Ardoino zei dat het framework federated-learning-workflows ondersteunt, waarbij modellen worden bijgewerkt op gedistribueerde apparaten zonder dat gegevens naar centrale servers hoeven te worden verzonden. De code is als open source vrijgegeven onder de Apache 2.0-licentie.
De release komt op een moment dat de grens tussen cryptovalutainfrastructuur en AI-rekenkracht steeds verder vervaagt. Bitcoin-miners, waaronder Core Scientific en HIVE Digital Technologies, hebben een aanzienlijk deel van hun capaciteit verschoven naar AI en high-performance computing, terwijl een groeiend aantal cryptoplatforms AI-agentfunctionaliteit integreert voor on-chaintransacties.
Lees hierna: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





