এনভিডিয়া নেমোট্রন ৩ সুপার প্রকাশ করেছে, যা ১২০ বিলিয়ন মোট প্যারামিটারসহ একটি ওপেন হাইব্রিড মডেল—বৃহৎ পরিসরে কৃত্রিম বুদ্ধিমত্তা (AI) এজেন্ট চালানোর কম্পিউট খরচ কমানোর লক্ষ্য নিয়ে তৈরি।
এনভিডিয়া নেমোট্রন ৩ সুপার প্রকাশ করেছে, এজেন্টিক ওয়ার্কলোডের জন্য তৈরি ১২০বি ওপেন এআই মডেল

মূল বিষয়গুলো:
- এনভিডিয়া নেমোট্রন ৩ সুপার প্রকাশ করেছে—১২০বি প্যারামিটারের একটি ওপেন MoE মডেল, যা প্রতি ফরোয়ার্ড পাসে মাত্র ১২.৭বি প্যারামিটার সক্রিয় করে।
- ৮k-ইন/৬৪k-আউট সেটিংসে এজেন্ট ওয়ার্কলোডে নেমোট্রন ৩ সুপার Qwen3.5-122B-A10B-এর তুলনায় সর্বোচ্চ ৭.৫ গুণ বেশি থ্রুপুট দেয়।
- মডেলটি Nvidia Nemotron Open Model License-এর আওতায় সম্পূর্ণ ওপেন, এবং Hugging Face-এ চেকপয়েন্ট ও ট্রেনিং ডেটা উপলব্ধ।
এনভিডিয়া নেমোট্রন ৩ সুপার চালু করল, Qwen3.5-122B-এর তুলনায় ৭.৫ গুণ থ্রুপুট বৃদ্ধির দাবি
এনভিডিয়ার সর্বশেষ মডেল Mixture-of-Experts (MoE) আর্কিটেকচার ব্যবহার করে প্রতি ফরোয়ার্ড পাসে মাত্র ১২.৭ বিলিয়ন প্যারামিটার সক্রিয় করে, অর্থাৎ ইনফারেন্সের সময় এর বেশিরভাগ ওজন নিষ্ক্রিয় থাকে। এই ডিজাইন পছন্দটি ডেভেলপাররা বহু-ধাপের AI এজেন্ট ডিপ্লয় করার সময় যে দুটি সমস্যায় পড়েন, সেগুলোকে সরাসরি লক্ষ্য করে: দীর্ঘতর রিজনিং চেইনের অতিরিক্ত খরচ এবং ফুলে ওঠা টোকেন ব্যবহার, যা মাল্টি-এজেন্ট পাইপলাইনে সর্বোচ্চ ১৫ গুণ পর্যন্ত বেড়ে যেতে পারে।
নেমোট্রন ৩ সুপার হলো এনভিডিয়ার নেমোট্রন ৩ পরিবারের দ্বিতীয় মডেল, যা ডিসেম্বর ২০২৫-এ প্রকাশিত নেমোট্রন ৩ ন্যানোর পর এসেছে। এনভিডিয়া ঘোষণা করেছে যে তারা ১০ মার্চ, ২০২৬-এর আশপাশে এই রিলিজটি দিয়েছে।
মডেলটি ৮৮টি লেয়ার জুড়ে একটি হাইব্রিড Mamba-Transformer ব্যাকবোন ব্যবহার করে। Mamba-2 ব্লকগুলো লিনিয়ার-টাইম দক্ষতার মাধ্যমে দীর্ঘ সিকোয়েন্স হ্যান্ডেল করে, আর Transformer attention লেয়ারগুলো সুনির্দিষ্ট রিকল বজায় রাখে। এই সমন্বয়ে মডেলটি স্বাভাবিকভাবেই এক মিলিয়ন টোকেন পর্যন্ত কনটেক্সট উইন্ডো সমর্থন করে, পিওর-অ্যাটেনশন ডিজাইনের মতো সাধারণ মেমরি পেনাল্টি ছাড়াই।
এনভিডিয়া আরও একটি LatentMoE রাউটিং সিস্টেম যুক্ত করেছে, যা টোকেন এমবেডিংগুলোকে লো-র্যাঙ্ক স্পেসে কমপ্রেস করে তারপর প্রতি লেয়ারে ৫১২ জন এক্সপার্টের কাছে পাঠায়, যেখানে একসাথে ২২ জন সক্রিয় থাকে। কোম্পানির দাবি, এতে স্ট্যান্ডার্ড MoE পদ্ধতির তুলনায় একই ইনফারেন্স খরচে প্রায় চার গুণ বেশি এক্সপার্ট ব্যবহার করা যায়, এবং আরও সূক্ষ্ম কাজভিত্তিক স্পেশালাইজেশন সম্ভব—যেমন এক্সপার্ট লেভেলে Python লজিককে SQL হ্যান্ডলিং থেকে আলাদা করা।

Multi-Token Prediction লেয়ারগুলো, দুটি শেয়ার্ড-ওয়েট হেড ব্যবহার করে, চেইন-অফ-থট জেনারেশন দ্রুত করে এবং নেটিভ speculative decoding সক্ষম করে। স্ট্রাকচার্ড কাজগুলোতে এনভিডিয়ার রিপোর্ট অনুযায়ী সর্বোচ্চ তিন গুণ দ্রুত জেনারেশন পাওয়া যায়।
মডেলটি দুই ধাপে ২৫ ট্রিলিয়ন টোকেনে প্রি-ট্রেন করা হয়েছে। প্রথম ধাপে ২০ ট্রিলিয়ন টোকেনের বিস্তৃত ডেটা ব্যবহার করা হয়। দ্বিতীয় ধাপে বেঞ্চমার্ক পারফরম্যান্সের জন্য টিউন করা পাঁচ ট্রিলিয়ন উচ্চ-গুণমানের টোকেন ব্যবহার করা হয়েছে। ৫১ বিলিয়ন টোকেনের একটি চূড়ান্ত এক্সটেনশন ফেজ নেটিভ কনটেক্সটকে এক মিলিয়ন টোকেনে বাড়িয়েছে। পোস্ট-ট্রেনিংয়ে প্রায় সাত মিলিয়ন স্যাম্পলে সুপারভাইজড ফাইন-টিউনিং এবং ২১টি এনভায়রনমেন্ট জুড়ে ১.২ মিলিয়নের বেশি রোলআউটসহ রিইনফোর্সমেন্ট লার্নিং অন্তর্ভুক্ত ছিল।
বেঞ্চমার্কে, নেমোট্রন ৩ সুপার MMLU-Pro-এ 83.73, AIME25-এ 90.21, এবং OpenHands ব্যবহার করে SWE-Bench-এ 60.47 স্কোর করেছে। PinchBench-এ এটি 85.6 শতাংশে পৌঁছেছে, যা একই শ্রেণির ওপেন মডেলগুলোর মধ্যে রিপোর্টকৃত সর্বোচ্চ স্কোর। লং-কনটেক্সট ইভ্যালুয়েশনে, RULER 1M-এ এটি 91.64 স্কোর করেছে।
GPT-OSS-120B-এর তুলনায়, ৮k ইনপুট এবং ৬৪k আউটপুটে নেমোট্রন ৩ সুপার ২.২ গুণ থ্রুপুট দেয়। Qwen3.5-122B-A10B-এর বিরুদ্ধে সেই সংখ্যা ৭.৫ গুণে পৌঁছায়। এনভিডিয়া আরও জানায়, আগের নেমোট্রন সুপার জেনারেশনের তুলনায় পাঁচ গুণেরও বেশি থ্রুপুট এবং সর্বোচ্চ দুই গুণ পর্যন্ত বেশি নির্ভুলতা পাওয়া গেছে।
এনভিডিয়া মডেলটি এন্ড-টু-এন্ড তাদের NVFP4 ফোর-বিট ফ্লোটিং-পয়েন্ট ফরম্যাটে ট্রেন করেছে, যা Blackwell GPU-এর জন্য অপ্টিমাইজড। B200 হার্ডওয়্যারে এনভিডিয়ার দাবি, H100-এ FP8-এর তুলনায় ইনফারেন্স সর্বোচ্চ চার গুণ দ্রুত চলে এবং নির্ভুলতা কমার কোনো রিপোর্ট নেই। কোয়ান্টাইজড FP8 এবং NVFP4 চেকপয়েন্টগুলো ফুল-প্রিসিশন নির্ভুলতার 99.8 শতাংশ বা তার বেশি ধরে রাখে।
মডেলটি Nvidia AI-Q রিসার্চ এজেন্টকেও শক্তি জোগায়, যা Deepresearch Bench লিডারবোর্ডে শীর্ষ অবস্থানে পৌঁছেছিল।

এনভিডিয়ার বিশাল ২ বিলিয়ন ডলারের বিনিয়োগে নেবিয়াস এআই ফ্যাক্টরি পরিকল্পনা আরও শক্তিশালী হচ্ছে
এনভিডিয়া কীভাবে এআই ক্লাউড অবকাঠামোয় ২ বিলিয়ন ডলারের বিনিয়োগের মাধ্যমে কম্পিউটিংয়ের ভবিষ্যৎকে নতুনভাবে গড়ে তুলছে তা অন্বেষণ করুন। read more.
এখনই পড়ুন
এনভিডিয়ার বিশাল ২ বিলিয়ন ডলারের বিনিয়োগে নেবিয়াস এআই ফ্যাক্টরি পরিকল্পনা আরও শক্তিশালী হচ্ছে
এনভিডিয়া কীভাবে এআই ক্লাউড অবকাঠামোয় ২ বিলিয়ন ডলারের বিনিয়োগের মাধ্যমে কম্পিউটিংয়ের ভবিষ্যৎকে নতুনভাবে গড়ে তুলছে তা অন্বেষণ করুন। read more.
এখনই পড়ুন
এনভিডিয়ার বিশাল ২ বিলিয়ন ডলারের বিনিয়োগে নেবিয়াস এআই ফ্যাক্টরি পরিকল্পনা আরও শক্তিশালী হচ্ছে
এখনই পড়ুনএনভিডিয়া কীভাবে এআই ক্লাউড অবকাঠামোয় ২ বিলিয়ন ডলারের বিনিয়োগের মাধ্যমে কম্পিউটিংয়ের ভবিষ্যৎকে নতুনভাবে গড়ে তুলছে তা অন্বেষণ করুন। read more.
নেমোট্রন ৩ সুপার Nvidia Nemotron Open Model License-এর আওতায় সম্পূর্ণ ওপেন। BF16, FP8, এবং NVFP4 ফরম্যাটে চেকপয়েন্ট, প্রি-ট্রেনিং ডেটা, পোস্ট-ট্রেনিং স্যাম্পল, এবং রিইনফোর্সমেন্ট লার্নিং এনভায়রনমেন্টসহ সবকিছু Hugging Face-এ উপলব্ধ। ইনফারেন্স সাপোর্ট রয়েছে এনভিডিয়া NIM, build.nvidia.com, Perplexity, Openrouter, Together AI, Google Cloud, AWS, Azure, এবং Coreweave-এর মাধ্যমে; পাশাপাশি Dell Enterprise Hub এবং HPE-এর মাধ্যমে অন-প্রেমিসেস অপশনও রয়েছে।
ডেভেলপাররা vLLM, SGLang, এবং TensorRT-LLM ব্যবহার করে NeMo প্ল্যাটফর্মের মাধ্যমে ট্রেনিং রেসিপি, ফাইন-টিউনিং গাইড, এবং ইনফারেন্স কুকবুক অ্যাক্সেস করতে পারবেন।









