Tether(USDT)周二发布了面向 Microsoft 的 BitNet 大语言模型的跨平台 LoRA 微调框架,使得在智能手机、消费级 GPU 和笔记本电脑上进行 AI 训练成为可能,而无需依赖专用的 Nvidia 硬件。
据 Tether 的公告介绍,该框架属于公司 QVAC Fabric 平台的一部分,是首个支持在非 Nvidia 芯片(包括 AMD、Intel、Apple Silicon 以及移动 GPU)上进行 BitNet 微调的框架。
此次发布是在 Tether 2025 年 12 月首次推出相关框架的基础上进行扩展。
新组件专门增加了原生 BitNet 的 LoRA 微调与推理加速能力,覆盖多种异构消费级硬件,将此前通常需要企业级 Nvidia 系统或云端基础设施才能完成的工作,延伸到了边缘设备。
基准测试结果如何
Tether 的工程师在一台 三星 Galaxy S25 手机上使用约 1.8 万个 token 的生物医学数据集,对一个 1.25 亿参数的 BitNet 模型进行了微调,耗时约 10 分钟。
一个 10 亿参数模型在 Galaxy S25 上完成同一任务耗时 1 小时 18 分钟,在 iPhone 16 上耗时 1 小时 45 分钟。
该公司还演示了在旗舰手机上微调多达 38 亿参数的模型,以及在 iPhone 16 上微调多达 130 亿参数的模型。
在移动 GPU 上,BitNet 推理相较 CPU 快了约 2 到 11 倍。根据 Tether 发布的基准测试结果,10 亿参数 BitNet 模型(TQ1_0)的内存占用比同等规模的 Gemma-3-1B 16 位模型低 77.8%,这一优势同时体现在推理和 LoRA 微调任务中。
延伸阅读:Arizona Hits Kalshi With Criminal Charges
对 AI 开发有何意义
BitNet 采用三值权重系统(取值为 -1、0 或 1),相比标准 16 位模型大幅压缩了模型体积并显著降低显存需求。LoRA(低秩适配)则通过只更新小型适配层,而非重新训练整个模型,进一步降低了微调成本。
二者结合,使得此前难以实现的边缘设备训练成为可能。
Tether CEO Paolo Ardoino 表示,该框架支持联邦学习工作流,即模型可以在分布式设备上更新,而无需将数据回传至集中式服务器。相关代码以 Apache 2.0 许可证开源发布。
此次发布正值加密货币基础设施与 AI 算力之间的界限不断缩小之际。包括 Core Scientific 和 HIVE Digital Technologies 在内的比特币矿企已将大量算力转向 AI 和高性能计算;与此同时,越来越多的加密平台开始为链上交易集成 AI 智能体能力。
接下来阅读:BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





