Ecosysteem
Portemonnee

Tethers BitNet-framework draait 13B AI-modellen op een iPhone 16

Tethers BitNet-framework draait 13B AI-modellen op een iPhone 16

Tether (USDT) heeft dinsdag een cross-platform LoRA-fijn-afstemmingsframework uitgebracht voor Microsofts BitNet-taalmodellen, waarmee AI-training mogelijk wordt op smartphones, consumentengpu's en laptops zonder gespecialiseerde Nvidia-hardware.

Het framework, onderdeel van het QVAC Fabric-platform van het bedrijf, is volgens Tethers announcement het eerste dat BitNet-fijn-afstemming ondersteunt op niet-Nvidia-chips – waaronder AMD, Intel, Apple Silicon en mobiele gpu's.

De release bouwt voort op een framework dat Tether voor het eerst in december 2025 lanceerde.

De nieuwe component voegt specifiek BitNet-native LoRA-fijn-afstemming en inferentieversnelling toe op heterogene consumentenhardware, en breidt daarmee uit wat eerder alleen mogelijk was met enterprise Nvidia-systemen of cloudinfrastructuur.

Wat de benchmarks laten zien

Ingenieurs van Tether stemden een BitNet-model met 125 miljoen parameters in ongeveer 10 minuten af op een Samsung Galaxy S25 met behulp van een biomedische dataset van ongeveer 18.000 tokens.

Een model met 1 miljard parameters voltooide dezelfde taak in 1 uur en 18 minuten op de S25 en 1 uur en 45 minuten op een iPhone 16.

Het bedrijf demonstrated ook de fijn-afstemming van modellen tot 3,8 miljard parameters op vlaggenschiptelefoons en tot 13 miljard parameters op de iPhone 16.

Op mobiele gpu's draaide BitNet-inferentie twee tot elf keer sneller dan op de cpu. Het geheugengebruik voor het BitNet-model met 1 miljard parameters (TQ1_0) lag 77,8% lager dan een vergelijkbaar Gemma-3-1B 16-bit-model, zowel bij inferentie als bij LoRA-fijn-afstemming, volgens Tethers gepubliceerde benchmarks.

Lees ook: Arizona Hits Kalshi With Criminal Charges

Waarom dit belangrijk is voor AI-ontwikkeling

BitNet gebruikt een ternair gewichtsysteem – waarden van -1, 0 of 1 – dat de modelgrootte comprimeert en de VRAM-vereisten sterk verlaagt in vergelijking met standaard 16-bit-modellen. LoRA (Low-Rank Adaptation) vermindert de kosten van fijn-afstemming verder door kleine adapterlagen bij te werken in plaats van het volledige model opnieuw te trainen.

De combinatie van beide maakt training op edge-apparaten mogelijk die eerder onhaalbaar was.

Tether-CEO Paolo Ardoino zei dat het framework federated-learning-workflows ondersteunt, waarbij modellen worden bijgewerkt op gedistribueerde apparaten zonder dat gegevens naar centrale servers hoeven te worden verzonden. De code is als open source vrijgegeven onder de Apache 2.0-licentie.

De release komt op een moment dat de grens tussen cryptovalutainfrastructuur en AI-rekenkracht steeds verder vervaagt. Bitcoin-miners, waaronder Core Scientific en HIVE Digital Technologies, hebben een aanzienlijk deel van hun capaciteit verschoven naar AI en high-performance computing, terwijl een groeiend aantal cryptoplatforms AI-agentfunctionaliteit integreert voor on-chaintransacties.

Lees hierna: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

Disclaimer en risicowaarschuwing: De informatie in dit artikel is uitsluitend voor educatieve en informatieve doeleinden en is gebaseerd op de mening van de auteur. Het vormt geen financieel, investerings-, juridisch of belastingadvies. Cryptocurrency-assets zijn zeer volatiel en onderhevig aan hoog risico, inclusief het risico om uw gehele of een substantieel deel van uw investering te verliezen. Het handelen in of aanhouden van crypto-assets is mogelijk niet geschikt voor alle beleggers. De meningen die in dit artikel worden geuit zijn uitsluitend die van de auteur(s) en vertegenwoordigen niet het officiële beleid of standpunt van Yellow, haar oprichters of haar leidinggevenden. Voer altijd uw eigen grondig onderzoek uit (D.Y.O.R.) en raadpleeg een gelicentieerde financiële professional voordat u een investeringsbeslissing neemt.
Tethers BitNet-framework draait 13B AI-modellen op een iPhone 16 | Yellow.com