生态系统
钱包

Tether 的 BitNet 框架在 iPhone 16 上运行 130 亿参数 AI 模型

Tether 的 BitNet 框架在 iPhone 16 上运行 130 亿参数 AI 模型

TetherUSDT)周二发布了面向 Microsoft 的 BitNet 大语言模型的跨平台 LoRA 微调框架,使得在智能手机、消费级 GPU 和笔记本电脑上进行 AI 训练成为可能,而无需依赖专用的 Nvidia 硬件。

据 Tether 的公告介绍,该框架属于公司 QVAC Fabric 平台的一部分,是首个支持在非 Nvidia 芯片(包括 AMD、Intel、Apple Silicon 以及移动 GPU)上进行 BitNet 微调的框架。

此次发布是在 Tether 2025 年 12 月首次推出相关框架的基础上进行扩展。

新组件专门增加了原生 BitNet 的 LoRA 微调与推理加速能力,覆盖多种异构消费级硬件,将此前通常需要企业级 Nvidia 系统或云端基础设施才能完成的工作,延伸到了边缘设备。

基准测试结果如何

Tether 的工程师在一台 三星 Galaxy S25 手机上使用约 1.8 万个 token 的生物医学数据集,对一个 1.25 亿参数的 BitNet 模型进行了微调,耗时约 10 分钟。

一个 10 亿参数模型在 Galaxy S25 上完成同一任务耗时 1 小时 18 分钟,在 iPhone 16 上耗时 1 小时 45 分钟。

该公司还演示了在旗舰手机上微调多达 38 亿参数的模型,以及在 iPhone 16 上微调多达 130 亿参数的模型。

在移动 GPU 上,BitNet 推理相较 CPU 快了约 2 到 11 倍。根据 Tether 发布的基准测试结果,10 亿参数 BitNet 模型(TQ1_0)的内存占用比同等规模的 Gemma-3-1B 16 位模型低 77.8%,这一优势同时体现在推理和 LoRA 微调任务中。

延伸阅读:Arizona Hits Kalshi With Criminal Charges

对 AI 开发有何意义

BitNet 采用三值权重系统(取值为 -1、0 或 1),相比标准 16 位模型大幅压缩了模型体积并显著降低显存需求。LoRA(低秩适配)则通过只更新小型适配层,而非重新训练整个模型,进一步降低了微调成本。

二者结合,使得此前难以实现的边缘设备训练成为可能。

Tether CEO Paolo Ardoino 表示,该框架支持联邦学习工作流,即模型可以在分布式设备上更新,而无需将数据回传至集中式服务器。相关代码以 Apache 2.0 许可证开源发布。

此次发布正值加密货币基础设施与 AI 算力之间的界限不断缩小之际。包括 Core Scientific 和 HIVE Digital Technologies 在内的比特币矿企已将大量算力转向 AI 和高性能计算;与此同时,越来越多的加密平台开始为链上交易集成 AI 智能体能力。

接下来阅读:BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

免责声明和风险警告: 本文提供的信息仅用于教育和信息目的,基于作者的意见。它不构成财务、投资、法律或税务建议。 加密货币资产具有高度波动性并面临高风险,包括失去全部或大部分投资的风险。交易或持有加密资产可能不适合所有投资者。 本文表达的观点仅为作者的观点,不代表Yellow、其创始人或高管的官方政策或立场。 在做出任何投资决定之前,请务必进行自己的全面研究(D.Y.O.R.)并咨询持牌金融专业人士。