Екосистема
Гаманець

Фреймворк BitNet від Tether запускає 13B AI‑моделі на iPhone 16

Фреймворк BitNet від Tether запускає 13B AI‑моделі на iPhone 16

Tether (USDT) у вівторок випустила кросплатформний фреймворк для LoRA‑донавчання великих мовних моделей Microsoft BitNet, який дає змогу навчати ШІ на смартфонах, споживчих GPU та ноутбуках без спеціалізованого обладнання Nvidia.

Фреймворк, що є частиною платформи QVAC Fabric компанії, за заявою Tether в їхньому announcement, став першим, який підтримує BitNet‑донавчання на чипах, відмінних від Nvidia, включно з AMD, Intel, Apple Silicon та мобільними GPU.

Випуск розширює фреймворк, який Tether вперше запустила у грудні 2025 року.

Новий компонент спеціально додає нативне для BitNet LoRA‑донавчання та прискорення інференсу на різнорідному споживчому «залізі», розширюючи те, що раніше вимагало корпоративних систем Nvidia або хмарної інфраструктури.

Що показують бенчмарки

Інженери Tether донавчили BitNet‑модель із 125 млн параметрів приблизно за 10 хвилин на Samsung Galaxy S25, використовуючи біомедичний датасет орієнтовно з 18 000 токенів.

Модель з 1 млрд параметрів виконала те саме завдання за 1 годину 18 хвилин на S25 і за 1 годину 45 хвилин на iPhone 16.

Компанія також demonstrated донавчання моделей до 3,8 млрд параметрів на флагманських телефонах і до 13 млрд параметрів на iPhone 16.

На мобільних GPU інференс BitNet працював у два–одинадцять разів швидше, ніж на CPU. Споживання пам’яті для BitNet‑моделі з 1 млрд параметрів (TQ1_0) було на 77,8% нижчим, ніж у порівнянної 16‑бітної моделі Gemma-3-1B як для інференсу, так і для LoRA‑донавчання, згідно з опублікованими бенчмарками Tether.

Читайте також: Arizona Hits Kalshi With Criminal Charges

Чому це важливо для розвитку AI

BitNet використовує тернарну систему ваг — значення −1, 0 або 1, — яка стискає розмір моделі й різко зменшує потреби у VRAM порівняно зі стандартними 16‑бітними моделями. LoRA (Low-Rank Adaptation) ще більше знижує вартість донавчання, оновлюючи малі адаптерні шари замість повторного навчання всієї моделі.

Поєднання обох підходів робить можливим навчання безпосередньо на крайових пристроях, що раніше було недосяжним.

CEO Tether Паоло Ардоіно заявив, що фреймворк підтримує сценарії федеративного навчання, коли моделі оновлюються на розподілених пристроях без відправлення даних на централізовані сервери. Код випущено з відкритим доступом під ліцензією Apache 2.0.

Випуск збігається з подальшим стиранням межі між криптовалютною інфраструктурою та AI‑обчисленнями. Майнері біткоїна, зокрема Core Scientific і HIVE Digital Technologies, перевели значну частину потужностей на AI та високопродуктивні обчислення, тоді як дедалі більше криптоплатформ починають інтегрувати можливості AI‑агентів для ончейн‑транзакцій.

Читайте далі: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

Відмова від відповідальності та попередження про ризики: Інформація, надана в цій статті, призначена лише для освітніх та інформаційних цілей і базується на думці автора. Вона не є фінансовою, інвестиційною, правовою чи податковою консультацією. Криптоактиви є надзвичайно волатильними та піддаються високому ризику, включаючи ризик втрати всіх або значної частини ваших інвестицій. Торгівля або утримання криптоактивів може не підходити для всіх інвесторів. Думки, висловлені в цій статті, належать виключно автору(ам) і не представляють офіційну політику чи позицію Yellow, її засновників або керівників. Завжди проводьте власне ретельне дослідження (D.Y.O.R.) та консультуйтесь з ліцензованим фінансовим фахівцем перед прийняттям будь-яких інвестиційних рішень.
Останні новини
Показати всі новини
Схожі новини
Схожі дослідницькі статті
Схожі навчальні матеріали
Фреймворк BitNet від Tether запускає 13B AI‑моделі на iPhone 16 | Yellow.com