Tether (USDT) lanzó el martes un framework de ajuste fino LoRA multiplataforma para los modelos de lenguaje grande BitNet de Microsoft, que permite entrenar IA en teléfonos inteligentes, GPUs de consumo y portátiles sin hardware especializado de Nvidia.
El framework, parte de la plataforma QVAC Fabric de la compañía, es el primero en soportar ajuste fino de BitNet en chips no Nvidia —incluyendo AMD, Intel, Apple Silicon y GPUs móviles— según el anuncio de Tether.
La publicación amplía un framework que Tether lanzó por primera vez en diciembre de 2025.
El nuevo componente agrega específicamente ajuste fino LoRA nativo para BitNet y aceleración de inferencia en hardware de consumo heterogéneo, ampliando capacidades que antes requerían sistemas empresariales de Nvidia o infraestructura en la nube.
Qué muestran los benchmarks
Los ingenieros de Tether ajustaron un modelo BitNet de 125 millones de parámetros en aproximadamente 10 minutos en un Samsung Galaxy S25 usando un conjunto de datos biomédicos de cerca de 18.000 tokens.
Un modelo de 1.000 millones de parámetros completó la misma tarea en 1 hora y 18 minutos en el S25 y 1 hora y 45 minutos en un iPhone 16.
La compañía también demostró el ajuste fino de modelos de hasta 3,8 mil millones de parámetros en teléfonos insignia y hasta 13 mil millones de parámetros en el iPhone 16.
En GPUs móviles, la inferencia de BitNet se ejecutó entre dos y once veces más rápido que en CPU. El consumo de memoria para el modelo BitNet de 1.000 millones de parámetros (TQ1_0) fue un 77,8% menor que el de un modelo Gemma-3-1B de 16 bits comparable, tanto en cargas de trabajo de inferencia como de ajuste fino con LoRA, según los benchmarks publicados por Tether.
Lee también: Arizona Hits Kalshi With Criminal Charges
Por qué es importante para el desarrollo de IA
BitNet utiliza un sistema de pesos ternario —valores de -1, 0 o 1— que comprime el tamaño del modelo y reduce drásticamente los requisitos de VRAM en comparación con los modelos estándar de 16 bits. LoRA (Low-Rank Adaptation) reduce aún más los costos de ajuste fino al actualizar pequeñas capas adaptadoras en lugar de reentrenar todo el modelo.
La combinación de ambos permite entrenamiento en dispositivos de borde que antes quedaba fuera de alcance.
El CEO de Tether, Paolo Ardoino, afirmó que el framework soporta flujos de trabajo de aprendizaje federado, en los que los modelos se actualizan en dispositivos distribuidos sin enviar datos a servidores centralizados. El código se publica como open source bajo la licencia Apache 2.0.
El lanzamiento se produce mientras la frontera entre la infraestructura de criptomonedas y el cómputo de IA sigue estrechándose. Mineros de Bitcoin como Core Scientific y HIVE Digital Technologies han redirigido una parte significativa de su capacidad hacia IA y computación de alto rendimiento, mientras que un número creciente de plataformas cripto ha comenzado a integrar capacidades de agentes de IA para transacciones on-chain.
Lee a continuación: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





