เฟรมเวิร์ก BitNet ของ Tether รันโมเดล AI ขนาด 13B บน iPhone 16 ได้

เฟรมเวิร์ก BitNet ของ Tether รันโมเดล AI ขนาด 13B บน iPhone 16 ได้

Tether (USDT) เปิดตัวเฟรมเวิร์กปรับแต่งแบบ LoRA ข้ามแพลตฟอร์มสำหรับโมเดลภาษาขนาดใหญ่ BitNet ของ Microsoft เมื่อวันอังคาร ทำให้สามารถฝึก AI บนสมาร์ทโฟน GPU ระดับคอนซูเมอร์ และแล็ปท็อปได้ โดยไม่ต้องใช้ฮาร์ดแวร์เฉพาะทางของ Nvidia

เฟรมเวิร์กนี้เป็นส่วนหนึ่งของแพลตฟอร์ม QVAC Fabric ของบริษัท และเป็นตัวแรกที่รองรับการปรับแต่ง BitNet บนชิปที่ไม่ใช่ Nvidia รวมถึง AMD, Intel, Apple Silicon และ GPU บนมือถือ ตาม ประกาศ ของ Tether

การเปิดตัวครั้งนี้เป็นการต่อยอดเฟรมเวิร์กที่ Tether เปิดตัวครั้งแรกในเดือนธันวาคม 2025

คอมโพเนนต์ใหม่เพิ่มความสามารถด้านการปรับแต่ง LoRA แบบ native สำหรับ BitNet และการเร่งความเร็วในการทำ inference บนฮาร์ดแวร์คอนซูเมอร์ที่หลากหลาย ขยายขอบเขตจากเดิมที่ต้องใช้ระบบ Nvidia ระดับองค์กรหรือโครงสร้างพื้นฐานคลาวด์เท่านั้น

ผล Benchmark แสดงอะไร

วิศวกรของ Tether ปรับแต่งโมเดล BitNet ขนาด 125 ล้านพารามิเตอร์ได้ภายในประมาณ 10 นาทีบน Samsung Galaxy S25 ด้วยชุดข้อมูลด้านชีวเวชศาสตร์ราว 18,000 โทเคน

โมเดลขนาด 1 พันล้านพารามิเตอร์ทำงานเดียวกันเสร็จในเวลา 1 ชั่วโมง 18 นาทีบน S25 และ 1 ชั่วโมง 45 นาทีบน iPhone 16

บริษัทก็ได้ สาธิต การปรับแต่งโมเดลได้สูงสุด 3.8 พันล้านพารามิเตอร์บนสมาร์ทโฟนเรือธง และสูงสุด 13 พันล้านพารามิเตอร์บน iPhone 16

บน GPU มือถือ การทำ inference ของ BitNet ทำงานได้เร็วกว่า CPU สองถึงสิบเอ็ดเท่า การใช้หน่วยความจำของโมเดล BitNet ขนาด 1 พันล้านพารามิเตอร์ (TQ1_0) ต่ำกว่าโมเดล Gemma-3-1B แบบ 16 บิตที่ใกล้เคียงกันถึง 77.8% ทั้งในงาน inference และงานปรับแต่งด้วย LoRA ตาม benchmark ที่ Tether เผยแพร่

อ่านเพิ่มเติม: Arizona Hits Kalshi With Criminal Charges

ทำไมจึงสำคัญต่อการพัฒนา AI

BitNet ใช้ระบบน้ำหนักแบบ ternary คือค่า -1, 0 หรือ 1 ทำให้โมเดลถูกบีบอัดให้มีขนาดเล็กลง และลดความต้องการ VRAM ลงอย่างมากเมื่อเทียบกับโมเดลแบบ 16 บิตมาตรฐาน LoRA (Low-Rank Adaptation) ช่วยลดต้นทุนการปรับแต่งลงไปอีก โดยอัปเดตเพียงเลเยอร์ตัวปรับขนาดเล็ก แทนที่จะต้องฝึกโมเดลใหม่ทั้งหมด

การผสานทั้งสองแนวทางทำให้การฝึกบนอุปกรณ์ปลายทาง (edge device) ที่เคยเกินเอื้อม กลายเป็นเรื่องที่ทำได้จริง

Paolo Ardoino ซีอีโอของ Tether ระบุว่าเฟรมเวิร์กนี้รองรับเวิร์กโฟลว์แบบ federated learning ซึ่งโมเดลจะอัปเดตจากอุปกรณ์กระจายตัวหลายเครื่องโดยไม่ต้องส่งข้อมูลกลับไปยังเซิร์ฟเวอร์ศูนย์กลาง โค้ดถูกปล่อยเป็นโอเพ่นซอร์สภายใต้สัญญาอนุญาต Apache 2.0

การเปิดตัวครั้งนี้เกิดขึ้นในช่วงที่เส้นแบ่งระหว่างโครงสร้างพื้นฐานคริปโทเคอร์เรนซีและการประมวลผล AI เริ่มแคบลงเรื่อย ๆ นักขุดบิตคอยน์อย่าง Core Scientific และ HIVE Digital Technologies ได้หันกำลังการประมวลผลส่วนสำคัญไปยังงาน AI และการประมวลผลสมรรถนะสูง ขณะเดียวกันแพลตฟอร์มคริปโทจำนวนมากขึ้นก็เริ่มผสานความสามารถของเอเจนต์ AI สำหรับธุรกรรมบนเชน

อ่านถัดไป: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

ข้อจำกัดความรับผิดชอบและคำเตือนความเสี่ยง: ข้อมูลที่ให้ไว้ในบทความนี้มีไว้เพื่อการศึกษาและการให้ข้อมูลเท่านั้น และอิงตามความเห็นของผู้เขียน ไม่ถือเป็นคำแนะนำทางการเงิน การลงทุน กฎหมาย หรือภาษี สินทรัพย์คริปโตมีความผันผวนสูงและมีความเสี่ยงสูง รวมถึงความเสี่ยงในการสูญเสียเงินลงทุนทั้งหมดหรือส่วนใหญ่ การซื้อขายหรือการถือครองสินทรัพย์คริปโตอาจไม่เหมาะสมสำหรับนักลงทุนทุกคน ความเห็นที่แสดงในบทความนี้เป็นของผู้เขียนเท่านั้น และไม่ได้แทนนโยบายหรือตำแหน่งอย่างเป็นทางการของ Yellow ผู้ก่อตั้ง หรือผู้บริหาร ควรทำการวิจัยอย่างละเอียดด้วยตนเอง (D.Y.O.R.) และปรึกษาผู้เชี่ยวชาญทางการเงินที่ได้รับใบอนุญาตก่อนตัดสินใจลงทุนใดๆ เสมอ
ข่าวล่าสุด
แสดงข่าวทั้งหมด
ข่าวที่เกี่ยวข้อง
บทความวิจัยที่เกี่ยวข้อง
บทความการเรียนรู้ที่เกี่ยวข้อง
เฟรมเวิร์ก BitNet ของ Tether รันโมเดล AI ขนาด 13B บน iPhone 16 ได้ | Yellow.com