Tether (USDT), salı günü Microsoft'un BitNet büyük dil modelleri için, akıllı telefonlar, tüketici GPU'ları ve dizüstü bilgisayarlarda özel Nvidia donanımı olmadan yapay zekâ eğitimi sağlayan, çapraz platform bir LoRA ince ayar çatısı yayımladı.
Çatı, şirketin QVAC Fabric platformunun bir parçası ve Tether'ın duyurusuna göre BitNet ince ayarını Nvidia dışı yongalar – AMD, Intel, Apple Silicon ve mobil GPU'lar dahil – üzerinde destekleyen ilk çözüm.
Bu sürüm, Tether'ın ilk kez Aralık 2025'te piyasaya sürdüğü çatıyı genişletiyor.
Yeni bileşen, daha önce kurumsal Nvidia sistemleri veya bulut altyapısı gerektiren bir alanı genişleterek, heterojen tüketici donanımı genelinde BitNet-yerel LoRA ince ayarı ve çıkarım hızlandırması ekliyor.
Kıyaslamalar Ne Gösteriyor?
Tether mühendisleri, yaklaşık 18.000 tokenlık biyomedikal bir veri kümesi kullanarak, Samsung Galaxy S25 üzerinde 125 milyon parametreli bir BitNet modelini yaklaşık 10 dakikada ince ayarla optimize etti.
1 milyar parametreli bir model, aynı görevi S25'te 1 saat 18 dakikada ve iPhone 16'da 1 saat 45 dakikada tamamladı.
Şirket ayrıca amiral gemisi telefonlarda 3,8 milyar parametreye kadar ve iPhone 16'da 13 milyar parametreye kadar olan modellerin ince ayarını sergiledi.
Mobil GPU'larda BitNet çıkarımı, CPU'ya kıyasla iki ila on bir kat daha hızlı çalıştı. Tether'ın yayımladığı kıyaslamalara göre, 1 milyar parametreli BitNet modelinin (TQ1_0) bellek kullanımı, hem çıkarım hem de LoRA ince ayar iş yüklerinde, karşılaştırılabilir 16 bitlik Gemma-3-1B modeline kıyasla %77,8 daha düşüktü.
Ayrıca bkz.: Arizona Hits Kalshi With Criminal Charges
Yapay Zekâ Geliştirme Açısından Neden Önemli?
BitNet, model boyutunu sıkıştıran ve standart 16 bitlik modellere göre VRAM gereksinimlerini keskin biçimde azaltan, -1, 0 veya 1 değerlerinden oluşan üç değerli bir ağırlık sistemi kullanıyor. LoRA (Low-Rank Adaptation), tüm modeli yeniden eğitmek yerine küçük adaptör katmanlarını güncelleyerek ince ayar maliyetlerini daha da düşürüyor.
Her ikisinin birleşimi, daha önce erişilemeyen uç cihazlarda eğitim olanağı sağlıyor.
Tether CEO'su Paolo Ardoino, çatının, verilerin merkezi sunuculara gönderilmeden, dağıtık cihazlar genelinde modellerin güncellendiği federated learning iş akışlarını desteklediğini söyledi. Kod, Apache 2.0 lisansı altında açık kaynak olarak yayımlandı.
Bu sürüm, kripto para altyapısı ile yapay zekâ hesaplama gücü arasındaki sınırın daralmaya devam ettiği bir dönemde geliyor. Core Scientific ve HIVE Digital Technologies gibi Bitcoin madencileri, kapasitelerinin önemli bir bölümünü yapay zekâ ve yüksek performanslı hesaplamaya kaydırırken, artan sayıda kripto platformu zincir üstü işlemler için yapay zekâ ajan yeteneklerini entegre etmeye başladı.
Sıradaki: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





