تيذر (USDT) أطلقت يوم الثلاثاء إطار عمل ضبط دقيق عابر للمنصات بتقنية LoRA لنماذج اللغة الضخمة BitNet من مايكروسوفت، ما يتيح تدريب نماذج الذكاء الاصطناعي على الهواتف الذكية ووحدات معالجة الرسوميات المخصّصة للمستهلكين والحواسيب المحمولة من دون الحاجة إلى عتاد Nvidia المتخصّص.
يأتي الإطار ضمن منصة QVAC Fabric التابعة للشركة، ويُعدّ الأول الذي يدعم الضبط الدقيق لـ BitNet عبر الشرائح غير التابعة لـ Nvidia – بما في ذلك AMD وIntel وApple Silicon ووحدات معالجة الرسوميات المحمولة – وفقًا لـإعلان تيذر.
هذا الإصدار يوسّع إطار العمل الذي أطلقته تيذر لأول مرة في ديسمبر 2025.
المكوّن الجديد يضيف على وجه التحديد ضبطًا دقيقًا أصيلًا لـ BitNet بتقنية LoRA وتسريعًا للاستدلال عبر عتاد المستهلك المتنوّع، موسّعًا ما كان يتطلّب سابقًا أنظمة مؤسسية من Nvidia أو بنية تحتية سحابية.
ما الذي تُظهره الاختبارات المعيارية
مهندسو تيذر أجروا ضبطًا دقيقًا لنموذج BitNet يضم 125 مليون مُعامل في نحو 10 دقائق على هاتف Samsung Galaxy S25 باستخدام مجموعة بيانات طبية حيوية تضم حوالي 18,000 رمز.
نموذج يضم مليار مُعامل أتمّ المهمة نفسها في ساعة و18 دقيقة على S25، وفي ساعة و45 دقيقة على آيفون 16.
كما استعرضت الشركة إمكانية ضبط نماذج يصل حجمها إلى 3.8 مليار مُعامل على الهواتف الرائدة، وحتى 13 مليار مُعامل على آيفون 16.
على وحدات معالجة الرسوميات المحمولة، كان استدلال BitNet أسرع بين مرّتين إلى إحدى عشرة مرة مقارنة بالمعالج المركزي. استهلاك الذاكرة لنموذج BitNet ذي المليار مُعامل (TQ1_0) كان أقل بنسبة 77.8% من نموذج Gemma-3-1B بدقة 16-بت المماثل، في كل من مهمات الاستدلال وأحمال عمل الضبط الدقيق بتقنية LoRA، وفقًا للاختبارات المنشورة من تيذر.
اقرأ أيضًا: Arizona Hits Kalshi With Criminal Charges
لماذا يهم هذا لتطوير الذكاء الاصطناعي
يستخدم BitNet نظام أوزان ثلاثي القيم – -1 أو 0 أو 1 – يضغط حجم النموذج ويخفض متطلبات ذاكرة الرسوميات بشكل حاد مقارنة بالنماذج التقليدية بدقة 16-بت. تقنية LoRA (Low-Rank Adaptation) تقلّل تكاليف الضبط الدقيق أكثر عبر تحديث طبقات محولات صغيرة بدلًا من إعادة تدريب النموذج بالكامل.
الجمع بين التقنيتين يسمح بتدريب على أجهزة الحافة لم يكن ممكنًا سابقًا.
قال الرئيس التنفيذي لتيذر باولو أردوينو إن الإطار يدعم سير عمل التعلّم الاتحادي، حيث تُحدّث النماذج عبر أجهزة موزّعة من دون إرسال البيانات إلى خوادم مركزية. الكود متاح كمصدر مفتوح بموجب ترخيص Apache 2.0.
يأتي هذا الإصدار في وقت يستمر فيه تضييق الفجوة بين بنية العملات المشفّرة التحتية وقدرات الحوسبة الخاصة بالذكاء الاصطناعي. فقد حوّل معدّنو البيتكوين، بمن فيهم Core Scientific وHIVE Digital Technologies، جزءًا كبيرًا من قدراتهم نحو الذكاء الاصطناعي والحوسبة عالية الأداء، في حين بدأت أعداد متزايدة من منصّات العملات المشفّرة في دمج قدرات وكلاء الذكاء الاصطناعي لتنفيذ المعاملات على السلسلة.
اقرأ لاحقًا: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play





