Ekosystem
Portfel

Framework BitNet firmy Tether uruchamia modele AI 13B na iPhonie 16

Framework BitNet firmy Tether uruchamia modele AI 13B na iPhonie 16

Tether (USDT) udostępnił we wtorek wieloplatformowy framework LoRA do strojenia dużych modeli językowych Microsoft BitNet, umożliwiający trenowanie AI na smartfonach, konsumenckich GPU i laptopach bez specjalistycznego sprzętu Nvidia.

Framework, będący częścią platformy QVAC Fabric firmy, jest pierwszym rozwiązaniem obsługującym strojenie BitNet na układach innych niż Nvidia – w tym na AMD, Intel, Apple Silicon oraz mobilnych GPU – zgodnie z announcement firmy Tether.

Wydanie rozszerza framework, który Tether po raz pierwszy uruchomił w grudniu 2025 roku.

Nowy komponent dodaje natywne dla BitNet strojenie LoRA oraz przyspieszenie wnioskowania na zróżnicowanym sprzęcie konsumenckim, rozszerzając możliwości, które wcześniej wymagały korporacyjnych systemów Nvidia lub infrastruktury chmurowej.

Co pokazują benchmarki

Inżynierowie Tether dostroili model BitNet z 125 milionami parametrów w około 10 minut na Samsungu Galaxy S25, używając biomedycznego zbioru danych liczącego około 18 000 tokenów.

Model z 1 miliardem parametrów ukończył to samo zadanie w 1 godzinę i 18 minut na S25 oraz w 1 godzinę i 45 minut na iPhonie 16.

Firma demonstrated również strojenie modeli do 3,8 miliarda parametrów na flagowych smartfonach i do 13 miliardów parametrów na iPhonie 16.

Na mobilnych GPU wnioskowanie BitNet działało od dwóch do jedenastu razy szybciej niż na CPU. Zużycie pamięci dla modelu BitNet z 1 miliardem parametrów (TQ1_0) było o 77,8% niższe niż w porównywalnym modelu Gemma-3-1B 16-bit, zarówno w zadaniach wnioskowania, jak i strojenia LoRA, zgodnie z opublikowanymi benchmarkami Tethera.

Read also: Arizona Hits Kalshi With Criminal Charges

Dlaczego ma to znaczenie dla rozwoju AI

BitNet wykorzystuje trójwartościowy system wag – wartości -1, 0 lub 1 – który kompresuje rozmiar modelu i znacząco zmniejsza wymagania dotyczące VRAM w porównaniu ze standardowymi modelami 16-bitowymi. LoRA (Low-Rank Adaptation) dodatkowo ogranicza koszty strojenia, aktualizując niewielkie warstwy adapterów zamiast ponownie trenować cały model.

Połączenie obu podejść umożliwia trenowanie na urządzeniach brzegowych, co wcześniej było poza zasięgiem.

CEO Tethera, Paolo Ardoino, powiedział, że framework wspiera przepływy pracy z uczeniem federacyjnym, w których modele są aktualizowane na rozproszonych urządzeniach bez wysyłania danych na scentralizowane serwery. Kod został udostępniony jako open source na licencji Apache 2.0.

Wydanie pojawia się w momencie, gdy granica między infrastrukturą kryptowalutową a mocą obliczeniową AI stale się zaciera. Górnicy Bitcoina, tacy jak Core Scientific i HIVE Digital Technologies, przekierowali znaczącą część mocy obliczeniowej w stronę AI i obliczeń wysokowydajnych, podczas gdy rosnąca liczba platform kryptowalutowych zaczęła integrować agentów AI do obsługi transakcji on-chain.

Read next: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

Zastrzeżenie i ostrzeżenie o ryzyku: Informacje zawarte w tym artykule służą wyłącznie celom edukacyjnym i informacyjnym i opierają się na opinii autora. Nie stanowią one porad finansowych, inwestycyjnych, prawnych czy podatkowych. Aktywa kryptowalutowe są bardzo zmienne i podlegają wysokiemu ryzyku, w tym ryzyku utraty całości lub znacznej części Twojej inwestycji. Handel lub posiadanie aktywów krypto może nie być odpowiednie dla wszystkich inwestorów. Poglądy wyrażone w tym artykule są wyłącznie poglądami autora/autorów i nie reprezentują oficjalnej polityki lub stanowiska Yellow, jej założycieli lub dyrektorów. Zawsze przeprowadź własne dokładne badania (D.Y.O.R.) i skonsultuj się z licencjonowanym specjalistą finansowym przed podjęciem jakiejkolwiek decyzji inwestycyjnej.
Framework BitNet firmy Tether uruchamia modele AI 13B na iPhonie 16 | Yellow.com