Экосистема
Кошелек

Фреймворк BitNet от Tether запускает ИИ‑модели на 13B параметров на iPhone 16

Фреймворк BitNet от Tether запускает ИИ‑модели на 13B параметров на iPhone 16

Tether (USDT) во вторник представила кроссплатформенный фреймворк для дообучения LoRA для больших языковых моделей Microsoft BitNet, позволяющий обучать ИИ на смартфонах, потребительских GPU и ноутбуках без специализированного оборудования Nvidia.

Фреймворк, входящий в платформу QVAC Fabric компании, по заявлению Tether, стал первым решением, поддерживающим дообучение BitNet на чипах, не относящихся к Nvidia, включая AMD, Intel, Apple Silicon и мобильные GPU, согласно announcement.

Этот релиз расширяет фреймворк, который Tether впервые запустила в декабре 2025 года.

Новый компонент специально добавляет нативное для BitNet дообучение LoRA и ускорение инференса на разнородном потребительском оборудовании, расширяя возможности, которые ранее требовали корпоративных систем Nvidia или облачной инфраструктуры.

Что показывают бенчмарки

Инженеры Tether дообучили модель BitNet с 125 миллионами параметров примерно за 10 минут на Samsung Galaxy S25, используя биомедицинский датасет примерно из 18 000 токенов.

Модель с 1 миллиардом параметров выполнила ту же задачу за 1 час 18 минут на S25 и за 1 час 45 минут на iPhone 16.

Компания также demonstrated дообучение моделей до 3,8 миллиарда параметров на флагманских смартфонах и до 13 миллиардов параметров на iPhone 16.

На мобильных GPU инференс BitNet работал в два–одиннадцать раз быстрее, чем на CPU. Потребление памяти для модели BitNet с 1 миллиардом параметров (TQ1_0) было на 77,8% ниже, чем у сопоставимой модели Gemma-3-1B в 16-разрядном формате как при инференсе, так и при дообучении LoRA, согласно опубликованным бенчмаркам Tether.

Read also: Arizona Hits Kalshi With Criminal Charges

Почему это важно для развития ИИ

BitNet использует тернарную систему весов — значения -1, 0 или 1, — что сжимает размер модели и резко снижает требования к видеопамяти по сравнению со стандартными 16-разрядными моделями. LoRA (Low-Rank Adaptation) ещё больше уменьшает затраты на дообучение, обновляя небольшие адаптерные слои вместо переобучения всей модели.

Их сочетание позволяет осуществлять обучение на граничных устройствах, которое ранее было недостижимо.

Генеральный директор Tether Паоло Ардойно заявил, что фреймворк поддерживает сценарии федеративного обучения, при которых модели обновляются на распределённых устройствах без отправки данных на централизованные серверы. Код распространяется как open-source под лицензией Apache 2.0.

Релиз выходит на фоне всё более размытой границы между криптовалютной инфраструктурой и ИИ‑вычислениями. Майнеры биткойна, включая Core Scientific и HIVE Digital Technologies, перераспределили значительную часть мощностей в пользу ИИ и высокопроизводительных вычислений, а всё большее число криптоплатформ начинает интегрировать ИИ‑агентов для проведения транзакций on-chain.

Read next: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

Отказ от ответственности и предупреждение о рисках: Информация, представленная в этой статье, предназначена только для образовательных и информационных целей и основана на мнении автора. Она не является финансовой, инвестиционной, юридической или налоговой консультацией. Криптоактивы крайне волатильны и подвержены высоким рискам, включая риск потери всех или значительной части ваших инвестиций. Торговля или владение криптоактивами может не подходить для всех инвесторов. Мнения, выраженные в этой статье, принадлежат исключительно автору(ам) и не представляют официальную политику или позицию Yellow, её основателей или руководителей. Всегда проводите собственное тщательное исследование (D.Y.O.R.) и консультируйтесь с лицензированным финансовым специалистом перед принятием любых инвестиционных решений.
Последние новости
Показать все новости
Связанные Новости
Связанные исследовательские статьи
Связанные обучающие статьи