Tether (USDT) đã phát hành một khung tinh chỉnh LoRA đa nền tảng cho các mô hình ngôn ngữ lớn BitNet của Microsoft vào thứ Ba, cho phép huấn luyện AI trên điện thoại thông minh, GPU tiêu dùng và laptop mà không cần phần cứng chuyên dụng của Nvidia.
Khung này, là một phần của nền tảng QVAC Fabric của công ty, là khung đầu tiên hỗ trợ tinh chỉnh BitNet trên các chip không phải Nvidia – bao gồm AMD, Intel, Apple Silicon và GPU di động – theo thông báo của Tether.
Bản phát hành này mở rộng một khung mà Tether lần đầu ra mắt vào tháng 12 năm 2025.
Thành phần mới cụ thể bổ sung khả năng tinh chỉnh LoRA gốc BitNet và tăng tốc suy luận trên nhiều loại phần cứng tiêu dùng khác nhau, mở rộng những gì trước đây vốn cần tới hệ thống Nvidia doanh nghiệp hoặc hạ tầng đám mây.
Các kết quả benchmark cho thấy gì
Các kỹ sư của Tether đã tinh chỉnh một mô hình BitNet 125 triệu tham số trong khoảng 10 phút trên Samsung Galaxy S25, sử dụng một bộ dữ liệu sinh học khoảng 18.000 token.
Một mô hình 1 tỷ tham số hoàn thành cùng nhiệm vụ trong 1 giờ 18 phút trên S25 và 1 giờ 45 phút trên iPhone 16.
Công ty cũng đã trình diễn việc tinh chỉnh các mô hình lên tới 3,8 tỷ tham số trên các điện thoại cao cấp và lên tới 13 tỷ tham số trên iPhone 16.
Trên GPU di động, suy luận BitNet chạy nhanh hơn từ hai đến mười một lần so với trên CPU. Mức tiêu thụ bộ nhớ cho mô hình BitNet 1 tỷ tham số (TQ1_0) thấp hơn 77,8% so với mô hình Gemma-3-1B 16-bit tương đương trong cả tác vụ suy luận và tinh chỉnh LoRA, theo các benchmark được Tether công bố.
Đọc thêm: Arizona Hits Kalshi With Criminal Charges
Tại sao điều này quan trọng với phát triển AI
BitNet sử dụng hệ trọng số ba giá trị – -1, 0 hoặc 1 – giúp nén kích thước mô hình và giảm mạnh yêu cầu VRAM so với các mô hình 16-bit tiêu chuẩn. LoRA (Low-Rank Adaptation) tiếp tục giảm chi phí tinh chỉnh bằng cách chỉ cập nhật các lớp adapter nhỏ thay vì huấn luyện lại toàn bộ mô hình.
Kết hợp cả hai cho phép huấn luyện trên thiết bị biên mà trước đây là ngoài tầm với.
CEO Tether Paolo Ardoino cho biết khung này hỗ trợ quy trình học liên kết (federated learning), trong đó các mô hình được cập nhật trên những thiết bị phân tán mà không cần gửi dữ liệu về máy chủ tập trung. Mã nguồn được phát hành dưới giấy phép mã nguồn mở Apache 2.0.
Đợt ra mắt diễn ra trong bối cảnh ranh giới giữa hạ tầng tiền mã hóa và năng lực tính toán AI ngày càng thu hẹp. Các thợ đào Bitcoin như Core Scientific và HIVE Digital Technologies đã chuyển một phần lớn công suất sang AI và tính toán hiệu năng cao, trong khi ngày càng nhiều nền tảng crypto bắt đầu tích hợp các tác nhân AI để thực hiện giao dịch on-chain.
Đọc tiếp: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





