مدعوم من
News

تطلق «إنفيديا» نموذج «نيموترون 3 سوبر»، وهو نموذج ذكاء اصطناعي مفتوح النguage بسعة 120 مليار معلمة مصمم لأحمال العمل القائمة على الوكلاء

أطلقت شركة Nvidia نموذج Nemotron 3 Super، وهو نموذج هجين مفتوح يضم 120 مليار معلمة إجمالاً، مصمم لخفض تكلفة الحوسبة اللازمة لتشغيل عوامل الذكاء الاصطناعي (AI) على نطاق واسع.

بقلم
مشاركة
تطلق «إنفيديا» نموذج «نيموترون 3 سوبر»، وهو نموذج ذكاء اصطناعي مفتوح النguage بسعة 120 مليار معلمة مصمم لأحمال العمل القائمة على الوكلاء

النقاط الرئيسية:

  • أطلقت Nvidia نموذج Nemotron 3 Super، وهو نموذج MoE مفتوح يحتوي على 120 مليار معلمة ويقوم بتنشيط 12.7 مليار معلمة فقط في كل تمريرة أمامية.
  • يوفر Nemotron 3 Super إنتاجية أعلى بما يصل إلى 7.5 أضعاف مقارنةً بـ Qwen3.5-122B-A10B في أحمال عمل الوكلاء بإعدادات 8k-in/64k-out.
  • النموذج مفتوح بالكامل بموجب ترخيص Nvidia Nemotron Open Model License، مع نقاط فحص وبيانات تدريب على Hugging Face.

Nvidia تطلق Nemotron 3 Super مع زيادة في الإنتاجية تصل إلى 7.5 أضعاف مقارنة بـ Qwen3.5-122B

يُفعّل أحدث نموذج من Nvidia 12.7 مليار معلمة فقط لكل تمريرة أمامية باستخدام بنية Mixture-of-Experts (MoE)، مما يعني أن معظم وزنه يظل خاملاً أثناء الاستدلال. يستهدف هذا الاختيار التصميمي بشكل مباشر مشكلتين يواجههما المطورون عند نشر وكلاء الذكاء الاصطناعي متعددي الخطوات: التكلفة الإضافية لسلاسل الاستدلال الممتدة واستخدام الرموز المتضخم الذي يمكن أن يتضاعف حتى 15 مرة في خطوط الأنابيب متعددة الوكلاء.

Nemotron 3 Super هو النموذج الثاني في عائلة Nemotron 3 من Nvidia، بعد Nemotron 3 Nano الذي تم إصداره في ديسمبر 2025. أعلنت Nvidia عن الإصدار في حوالي 10 مارس 2026.

يستخدم النموذج هيكلًا أساسيًا هجينًا من Mamba-Transformer عبر 88 طبقة. تتعامل كتل Mamba-2 مع التسلسلات الطويلة بكفاءة زمنية خطية، بينما تحافظ طبقات الانتباه في Transformer على دقة الاسترجاع. يمنح هذا المزيج النموذج دعمًا أصليًا لنوافذ السياق التي تصل إلى مليون رمز دون التعرض لخسائر الذاكرة النموذجية في تصميمات الانتباه الخالص.

كما قامت Nvidia بدمج نظام توجيه LatentMoE الذي يضغط تضمينات الرموز في مساحة منخفضة الترتيب قبل إرسالها إلى 512 خبيرًا لكل طبقة، مع تنشيط 22 خبيرًا في كل مرة. وتقول الشركة إن هذا يسمح بوجود ما يقرب من أربعة أضعاف عدد الخبراء بنفس تكلفة الاستدلال مقارنة بنهج MoE القياسية، ويتيح تخصصًا أكثر دقة للمهام، مثل فصل منطق Python عن معالجة SQL على مستوى الخبراء.

Nvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
مصدر الصورة: مدونة Nvidia.

تعمل طبقات التنبؤ متعددة الرموز، باستخدام رأسين ذوي وزن مشترك، على تسريع توليد سلسلة الأفكار وتسمح بالترميز التخميني الأصلي. في المهام المنظمة، تبلغ Nvidia عن توليد أسرع بما يصل إلى ثلاثة أضعاف.

تم تدريب النموذج مسبقًا على 25 تريليون رمز عبر مرحلتين. استخدمت المرحلة الأولى 20 تريليون رمز من البيانات العامة. واستخدمت المرحلة الثانية خمسة تريليونات من الرموز عالية الجودة المضبوطة لأداء المعيار. ووسعت مرحلة التوسيع النهائية على 51 مليار رمز السياق الأصلي إلى مليون رمز. وشمل ما بعد التدريب الضبط الدقيق الخاضع للإشراف على ما يقرب من سبعة ملايين عينة والتعلم المعزز عبر 21 بيئة مع أكثر من 1.2 مليون عملية نشر.

في المعايير المرجعية، سجل Nemotron 3 Super 83.73 على MMLU-Pro، و90.21 على AIME25، و60.47 على SWE-Bench باستخدام OpenHands. على PinchBench، وصل إلى 85.6 في المائة، وهي أعلى درجة تم الإبلاغ عنها بين النماذج المفتوحة في فئته. في تقييم السياق الطويل، سجل 91.64 على RULER 1M.

بالمقارنة مع GPT-OSS-120B، يقدم Nemotron 3 Super إنتاجية تبلغ 2.2 ضعف عند مدخلات 8k ومخرجات 64k. وبالمقارنة مع Qwen3.5-122B-A10B، يصل هذا الرقم إلى 7.5 أضعاف. كما أفادت Nvidia بأن النموذج يحقق إنتاجية تزيد بأكثر من خمسة أضعاف ودقة تصل إلى ضعف الدقة مقارنة بالجيل السابق من Nemotron Super.
قامت Nvidia بتدريب النموذج من البداية إلى النهاية بتنسيق NVFP4 ذي النقاط العائمة ذات الأربعة بتات، والمُحسّن لوحدات معالجة الرسومات (GPU) Blackwell. على أجهزة B200، تقول Nvidia إن الاستدلال يعمل أسرع بما يصل إلى أربع مرات مقارنة بـ FP8 على H100 دون أي خسارة في الدقة. تحتفظ نقاط التحقق المقيسة FP8 و NVFP4 بنسبة 99.8 في المائة أو أكثر من الدقة الكاملة.

كما يدعم النموذج وكيل البحث Nvidia AI-Q، الذي وصل إلى المركز الأول في قائمة المتصدرين في Deepresearch Bench.

تدعم «إنفيديا» خطط «نيبيوس» لإنشاء مصنع للذكاء الاصطناعي باستثمار ضخم يبلغ 2 مليار دولار

تدعم «إنفيديا» خطط «نيبيوس» لإنشاء مصنع للذكاء الاصطناعي باستثمار ضخم يبلغ 2 مليار دولار

اكتشف كيف تعمل شركة Nvidia على إعادة تشكيل مستقبل الحوسبة من خلال استثمار بقيمة 2 مليار دولار في البنية التحتية السحابية للذكاء الاصطناعي. read more.

اقرأ الآن

Nemotron 3 Super مفتوح بالكامل بموجب ترخيص Nvidia Nemotron Open Model. تتوفر نقاط التحقق بتنسيقات BF16 وFP8 وNVFP4، إلى جانب بيانات ما قبل التدريب وعينات ما بعد التدريب وبيئات التعلم المعزز، على Hugging Face. يتم دعم الاستدلال من خلال Nvidia NIM و build.nvidia.com و Perplexity و Openrouter و Together AI و Google Cloud و AWS و Azure و Coreweave، مع خيارات محلية عبر Dell Enterprise Hub و HPE.

يمكن للمطورين الوصول إلى وصفات التدريب وأدلة الضبط الدقيق وكتب طبخ الاستدلال من خلال منصة NeMo باستخدام vLLM و SGLang و TensorRT-LLM.

وسوم في هذه القصة