إطار BitNet من تيذر يشغّل نماذج ذكاء اصطناعي 13 مليار مُعامل على آيفون 16

إطار BitNet من تيذر يشغّل نماذج ذكاء اصطناعي 13 مليار مُعامل على آيفون 16

تيذر (USDT) أطلقت يوم الثلاثاء إطار عمل ضبط دقيق عابر للمنصات بتقنية LoRA لنماذج اللغة الضخمة BitNet من مايكروسوفت، ما يتيح تدريب نماذج الذكاء الاصطناعي على الهواتف الذكية ووحدات معالجة الرسوميات المخصّصة للمستهلكين والحواسيب المحمولة من دون الحاجة إلى عتاد Nvidia المتخصّص.

يأتي الإطار ضمن منصة QVAC Fabric التابعة للشركة، ويُعدّ الأول الذي يدعم الضبط الدقيق لـ BitNet عبر الشرائح غير التابعة لـ Nvidia – بما في ذلك AMD وIntel وApple Silicon ووحدات معالجة الرسوميات المحمولة – وفقًا لـإعلان تيذر.

هذا الإصدار يوسّع إطار العمل الذي أطلقته تيذر لأول مرة في ديسمبر 2025.

المكوّن الجديد يضيف على وجه التحديد ضبطًا دقيقًا أصيلًا لـ BitNet بتقنية LoRA وتسريعًا للاستدلال عبر عتاد المستهلك المتنوّع، موسّعًا ما كان يتطلّب سابقًا أنظمة مؤسسية من Nvidia أو بنية تحتية سحابية.

ما الذي تُظهره الاختبارات المعيارية

مهندسو تيذر أجروا ضبطًا دقيقًا لنموذج BitNet يضم 125 مليون مُعامل في نحو 10 دقائق على هاتف Samsung Galaxy S25 باستخدام مجموعة بيانات طبية حيوية تضم حوالي 18,000 رمز.

نموذج يضم مليار مُعامل أتمّ المهمة نفسها في ساعة و18 دقيقة على S25، وفي ساعة و45 دقيقة على آيفون 16.

كما استعرضت الشركة إمكانية ضبط نماذج يصل حجمها إلى 3.8 مليار مُعامل على الهواتف الرائدة، وحتى 13 مليار مُعامل على آيفون 16.

على وحدات معالجة الرسوميات المحمولة، كان استدلال BitNet أسرع بين مرّتين إلى إحدى عشرة مرة مقارنة بالمعالج المركزي. استهلاك الذاكرة لنموذج BitNet ذي المليار مُعامل (TQ1_0) كان أقل بنسبة 77.8% من نموذج Gemma-3-1B بدقة 16-بت المماثل، في كل من مهمات الاستدلال وأحمال عمل الضبط الدقيق بتقنية LoRA، وفقًا للاختبارات المنشورة من تيذر.

اقرأ أيضًا: Arizona Hits Kalshi With Criminal Charges

لماذا يهم هذا لتطوير الذكاء الاصطناعي

يستخدم BitNet نظام أوزان ثلاثي القيم – ‎-1 أو 0 أو 1 – يضغط حجم النموذج ويخفض متطلبات ذاكرة الرسوميات بشكل حاد مقارنة بالنماذج التقليدية بدقة 16-بت. تقنية LoRA (Low-Rank Adaptation) تقلّل تكاليف الضبط الدقيق أكثر عبر تحديث طبقات محولات صغيرة بدلًا من إعادة تدريب النموذج بالكامل.

الجمع بين التقنيتين يسمح بتدريب على أجهزة الحافة لم يكن ممكنًا سابقًا.

قال الرئيس التنفيذي لتيذر باولو أردوينو إن الإطار يدعم سير عمل التعلّم الاتحادي، حيث تُحدّث النماذج عبر أجهزة موزّعة من دون إرسال البيانات إلى خوادم مركزية. الكود متاح كمصدر مفتوح بموجب ترخيص Apache 2.0.

يأتي هذا الإصدار في وقت يستمر فيه تضييق الفجوة بين بنية العملات المشفّرة التحتية وقدرات الحوسبة الخاصة بالذكاء الاصطناعي. فقد حوّل معدّنو البيتكوين، بمن فيهم Core Scientific وHIVE Digital Technologies، جزءًا كبيرًا من قدراتهم نحو الذكاء الاصطناعي والحوسبة عالية الأداء، في حين بدأت أعداد متزايدة من منصّات العملات المشفّرة في دمج قدرات وكلاء الذكاء الاصطناعي لتنفيذ المعاملات على السلسلة.

اقرأ لاحقًا: BlackRock's ETHB Staked ETF Turns Ethereum Into A Dividend Play

إخلاء المسؤولية وتحذير المخاطر: المعلومات المقدمة في هذا المقال مخصصة للأغراض التعليمية والإعلامية فقط وتستند إلى رأي المؤلف. وهي لا تشكل مشورة مالية أو استثمارية أو قانونية أو ضريبية. أصول العملات المشفرة شديدة التقلب وتخضع لمخاطر عالية، بما في ذلك خطر فقدان كامل أو جزء كبير من استثمارك. قد لا يكون تداول أو حيازة الأصول المشفرة مناسباً لجميع المستثمرين. الآراء المعبر عنها في هذا المقال هي آراء المؤلف (المؤلفين) فقط ولا تمثل السياسة أو الموقف الرسمي لشركة Yellow أو مؤسسيها أو مديريها التنفيذيين. قم دائماً بإجراء بحثك الشامل بنفسك (D.Y.O.R.) واستشر مختصاً مالياً مرخصاً قبل اتخاذ أي قرار استثماري.
آخر الأخبار
عرض جميع الأخبار
أخبار ذات صلة
مقالات البحث ذات الصلة
مقالات التعلم ذات الصلة
إطار BitNet من تيذر يشغّل نماذج ذكاء اصطناعي 13 مليار مُعامل على آيفون 16 | Yellow.com