Tether (USDT) у вівторок випустила кросплатформний фреймворк для LoRA‑донавчання великих мовних моделей Microsoft BitNet, який дає змогу навчати ШІ на смартфонах, споживчих GPU та ноутбуках без спеціалізованого обладнання Nvidia.
Фреймворк, що є частиною платформи QVAC Fabric компанії, за заявою Tether в їхньому announcement, став першим, який підтримує BitNet‑донавчання на чипах, відмінних від Nvidia, включно з AMD, Intel, Apple Silicon та мобільними GPU.
Випуск розширює фреймворк, який Tether вперше запустила у грудні 2025 року.
Новий компонент спеціально додає нативне для BitNet LoRA‑донавчання та прискорення інференсу на різнорідному споживчому «залізі», розширюючи те, що раніше вимагало корпоративних систем Nvidia або хмарної інфраструктури.
Що показують бенчмарки
Інженери Tether донавчили BitNet‑модель із 125 млн параметрів приблизно за 10 хвилин на Samsung Galaxy S25, використовуючи біомедичний датасет орієнтовно з 18 000 токенів.
Модель з 1 млрд параметрів виконала те саме завдання за 1 годину 18 хвилин на S25 і за 1 годину 45 хвилин на iPhone 16.
Компанія також demonstrated донавчання моделей до 3,8 млрд параметрів на флагманських телефонах і до 13 млрд параметрів на iPhone 16.
На мобільних GPU інференс BitNet працював у два–одинадцять разів швидше, ніж на CPU. Споживання пам’яті для BitNet‑моделі з 1 млрд параметрів (TQ1_0) було на 77,8% нижчим, ніж у порівнянної 16‑бітної моделі Gemma-3-1B як для інференсу, так і для LoRA‑донавчання, згідно з опублікованими бенчмарками Tether.
Читайте також: Arizona Hits Kalshi With Criminal Charges
Чому це важливо для розвитку AI
BitNet використовує тернарну систему ваг — значення −1, 0 або 1, — яка стискає розмір моделі й різко зменшує потреби у VRAM порівняно зі стандартними 16‑бітними моделями. LoRA (Low-Rank Adaptation) ще більше знижує вартість донавчання, оновлюючи малі адаптерні шари замість повторного навчання всієї моделі.
Поєднання обох підходів робить можливим навчання безпосередньо на крайових пристроях, що раніше було недосяжним.
CEO Tether Паоло Ардоіно заявив, що фреймворк підтримує сценарії федеративного навчання, коли моделі оновлюються на розподілених пристроях без відправлення даних на централізовані сервери. Код випущено з відкритим доступом під ліцензією Apache 2.0.
Випуск збігається з подальшим стиранням межі між криптовалютною інфраструктурою та AI‑обчисленнями. Майнері біткоїна, зокрема Core Scientific і HIVE Digital Technologies, перевели значну частину потужностей на AI та високопродуктивні обчислення, тоді як дедалі більше криптоплатформ починають інтегрувати можливості AI‑агентів для ончейн‑транзакцій.
Читайте далі: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





