Tether (USDT) เปิดตัวเฟรมเวิร์กปรับแต่งแบบ LoRA ข้ามแพลตฟอร์มสำหรับโมเดลภาษาขนาดใหญ่ BitNet ของ Microsoft เมื่อวันอังคาร ทำให้สามารถฝึก AI บนสมาร์ทโฟน GPU ระดับคอนซูเมอร์ และแล็ปท็อปได้ โดยไม่ต้องใช้ฮาร์ดแวร์เฉพาะทางของ Nvidia
เฟรมเวิร์กนี้เป็นส่วนหนึ่งของแพลตฟอร์ม QVAC Fabric ของบริษัท และเป็นตัวแรกที่รองรับการปรับแต่ง BitNet บนชิปที่ไม่ใช่ Nvidia รวมถึง AMD, Intel, Apple Silicon และ GPU บนมือถือ ตาม ประกาศ ของ Tether
การเปิดตัวครั้งนี้เป็นการต่อยอดเฟรมเวิร์กที่ Tether เปิดตัวครั้งแรกในเดือนธันวาคม 2025
คอมโพเนนต์ใหม่เพิ่มความสามารถด้านการปรับแต่ง LoRA แบบ native สำหรับ BitNet และการเร่งความเร็วในการทำ inference บนฮาร์ดแวร์คอนซูเมอร์ที่หลากหลาย ขยายขอบเขตจากเดิมที่ต้องใช้ระบบ Nvidia ระดับองค์กรหรือโครงสร้างพื้นฐานคลาวด์เท่านั้น
ผล Benchmark แสดงอะไร
วิศวกรของ Tether ปรับแต่งโมเดล BitNet ขนาด 125 ล้านพารามิเตอร์ได้ภายในประมาณ 10 นาทีบน Samsung Galaxy S25 ด้วยชุดข้อมูลด้านชีวเวชศาสตร์ราว 18,000 โทเคน
โมเดลขนาด 1 พันล้านพารามิเตอร์ทำงานเดียวกันเสร็จในเวลา 1 ชั่วโมง 18 นาทีบน S25 และ 1 ชั่วโมง 45 นาทีบน iPhone 16
บริษัทก็ได้ สาธิต การปรับแต่งโมเดลได้สูงสุด 3.8 พันล้านพารามิเตอร์บนสมาร์ทโฟนเรือธง และสูงสุด 13 พันล้านพารามิเตอร์บน iPhone 16
บน GPU มือถือ การทำ inference ของ BitNet ทำงานได้เร็วกว่า CPU สองถึงสิบเอ็ดเท่า การใช้หน่วยความจำของโมเดล BitNet ขนาด 1 พันล้านพารามิเตอร์ (TQ1_0) ต่ำกว่าโมเดล Gemma-3-1B แบบ 16 บิตที่ใกล้เคียงกันถึง 77.8% ทั้งในงาน inference และงานปรับแต่งด้วย LoRA ตาม benchmark ที่ Tether เผยแพร่
อ่านเพิ่มเติม: Arizona Hits Kalshi With Criminal Charges
ทำไมจึงสำคัญต่อการพัฒนา AI
BitNet ใช้ระบบน้ำหนักแบบ ternary คือค่า -1, 0 หรือ 1 ทำให้โมเดลถูกบีบอัดให้มีขนาดเล็กลง และลดความต้องการ VRAM ลงอย่างมากเมื่อเทียบกับโมเดลแบบ 16 บิตมาตรฐาน LoRA (Low-Rank Adaptation) ช่วยลดต้นทุนการปรับแต่งลงไปอีก โดยอัปเดตเพียงเลเยอร์ตัวปรับขนาดเล็ก แทนที่จะต้องฝึกโมเดลใหม่ทั้งหมด
การผสานทั้งสองแนวทางทำให้การฝึกบนอุปกรณ์ปลายทาง (edge device) ที่เคยเกินเอื้อม กลายเป็นเรื่องที่ทำได้จริง
Paolo Ardoino ซีอีโอของ Tether ระบุว่าเฟรมเวิร์กนี้รองรับเวิร์กโฟลว์แบบ federated learning ซึ่งโมเดลจะอัปเดตจากอุปกรณ์กระจายตัวหลายเครื่องโดยไม่ต้องส่งข้อมูลกลับไปยังเซิร์ฟเวอร์ศูนย์กลาง โค้ดถูกปล่อยเป็นโอเพ่นซอร์สภายใต้สัญญาอนุญาต Apache 2.0
การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่เส้นแบ่งระหว่างโครงสร้างพื้นฐานคริปโทเคอร์เรนซีและการประมวลผล AI เริ่มแคบลงเรื่อย ๆ นักขุดบิตคอยน์อย่าง Core Scientific และ HIVE Digital Technologies ได้หันกำลังการประมวลผลส่วนสำคัญไปยังงาน AI และการประมวลผลสมรรถนะสูง ขณะเดียวกันแพลตฟอร์มคริปโทจำนวนมากขึ้นก็เริ่มผสานความสามารถของเอเจนต์ AI สำหรับธุรกรรมบนเชน
อ่านถัดไป: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





