Sağlayan
News

Nvidia, ajan tabanlı iş yükleri için tasarlanmış 120 milyar parametreli bir OpenAI modeli olan Nemotron 3 Super'i piyasaya sürdü

Nvidia, yapay zeka (AI) ajanlarını büyük ölçekte çalıştırmanın hesaplama maliyetini düşürmek üzere tasarlanmış, toplam 120 milyar parametreye sahip açık kaynaklı bir hibrit model olan Nemotron 3 Super'i piyasaya sürdü.

PAYLAŞ
Nvidia, ajan tabanlı iş yükleri için tasarlanmış 120 milyar parametreli bir OpenAI modeli olan Nemotron 3 Super'i piyasaya sürdü

Önemli Noktalar:

  • Nvidia, her ileri geçişte yalnızca 12,7 milyar parametreyi etkinleştiren, 120 milyar parametreli açık MoE modeli Nemotron 3 Super'i piyasaya sürdü.
  • Nemotron 3 Super, 8k giriş/64k çıkış ayarlarında ajan iş yüklerinde Qwen3.5-122B-A10B'den 7,5 kata kadar daha fazla verim sunuyor.
  • Model, Nvidia Nemotron Açık Model Lisansı kapsamında tamamen açıktır ve kontrol noktaları ile eğitim verileri Hugging Face'te bulunmaktadır.

Nvidia, Qwen3.5-122B'ye göre 7,5 kat daha fazla verim sağlayan Nemotron 3 Super'i piyasaya sürdü

En yeni Nvidia modeli, Mixture-of-Experts (MoE) mimarisini kullanarak her ileri geçişte yalnızca 12,7 milyar parametreyi etkinleştiriyor; bu da, ağırlığının çoğunun çıkarım sırasında atıl kaldığı anlamına geliyor. Bu tasarım seçimi, geliştiricilerin çok adımlı AI ajanlarını devreye alırken karşılaştıkları iki sorunu doğrudan hedefliyor: uzatılmış akıl yürütme zincirlerinin ek maliyeti ve çoklu ajan boru hatlarında 15 kata kadar artabilen token kullanımındaki patlama.

Nemotron 3 Super, Aralık 2025'te piyasaya sürülen Nemotron 3 Nano'nun ardından Nvidia'nın Nemotron 3 ailesindeki ikinci modeldir. Nvidia, modelin 10 Mart 2026 civarında piyasaya sürüleceğini duyurdu.

Model, 88 katman boyunca hibrit bir Mamba-Transformer omurgası kullanır. Mamba-2 blokları, uzun dizileri doğrusal zaman verimliliği ile işlerken, Transformer dikkat katmanları ise hassas geri çağırmayı korur. Bu kombinasyon, modele, saf dikkat tasarımlarında tipik olan bellek kayıpları olmadan bir milyon token'a kadar bağlam pencereleri için yerel destek sağlar.

Nvidia ayrıca, token gömmelerini düşük sıralı bir alana sıkıştıran ve ardından her katman için 512 uzmana göndererek bir seferde 22'sini etkinleştiren bir LatentMoE yönlendirme sistemi de entegre etti. Şirket, bunun standart MoE yaklaşımlarına kıyasla aynı çıkarım maliyetiyle yaklaşık dört kat daha fazla uzman kullanılmasına olanak tanıdığını ve uzman düzeyinde Python mantığını SQL işleminden ayırmak gibi daha ince görev uzmanlaşmasını mümkün kıldığını belirtiyor.

Nvidia Releases Nemotron 3 Super, a 120B Open AI Model Built for Agentic Workloads
Görsel kaynağı: Nvidia blogu.

İki paylaşımlı ağırlıklı başlık kullanan Çoklu Token Tahmin katmanları, düşünce zinciri oluşturmayı hızlandırır ve yerel spekülatif kod çözme sağlar. Nvidia, yapılandırılmış görevlerde oluşturma hızının üç kata kadar arttığını bildiriyor.

Model, iki aşamada 25 trilyon token üzerinde önceden eğitildi. İlk aşamada 20 trilyon geniş veri tokeni kullanıldı. İkinci aşamada ise benchmark performansı için ayarlanmış beş trilyon yüksek kaliteli token kullanıldı. 51 milyar token üzerinde yapılan son genişletme aşaması, yerel bağlamı bir milyon tokene genişletti. Eğitim sonrası aşama, yaklaşık yedi milyon örnek üzerinde denetimli ince ayar ve 1,2 milyondan fazla dağıtım içeren 21 ortamda pekiştirme öğrenmesini içeriyordu.

Karşılaştırmalarda Nemotron 3 Super, OpenHands kullanılarak MMLU-Pro'da 83,73, AIME25'te 90,21 ve SWE-Bench'te 60,47 puan aldı. PinchBench'te ise yüzde 85,6'ya ulaşarak, sınıfındaki açık kaynaklı modeller arasında bildirilen en yüksek puanı elde etti. Uzun bağlam değerlendirmesinde, RULER 1M'de 91,64 puan aldı.

GPT-OSS-120B ile karşılaştırıldığında, Nemotron 3 Super, 8k giriş ve 64k çıkışta 2,2 kat daha fazla verim sunuyor. Qwen3.5-122B-A10B ile karşılaştırıldığında ise bu rakam 7,5 kata ulaşıyor. Nvidia ayrıca, önceki Nemotron Super nesline kıyasla 5 kattan fazla iş hacmi ve 2 kata kadar doğruluk sağladığını bildiriyor.
Nvidia, modeli Blackwell GPU'lar için optimize edilmiş NVFP4 dört bitlik kayan nokta formatında uçtan uca eğitti. Nvidia, B200 donanımında, H100'deki FP8'e kıyasla çıkarımın dört kat daha hızlı çalıştığını ve doğruluk kaybı bildirilmediğini belirtiyor. Kuantize edilmiş FP8 ve NVFP4 kontrol noktaları, tam hassasiyet doğruluğunun yüzde 99,8'ini veya daha fazlasını koruyor.

Model ayrıca, Deepresearch Bench liderlik tablosunda birinci sıraya yükselen Nvidia AI-Q araştırma ajanı için de güç sağlıyor.

Nvidia, 2 milyar dolarlık dev yatırımla Nebius'un yapay zeka fabrikası planlarına destek oluyor

Nvidia, 2 milyar dolarlık dev yatırımla Nebius'un yapay zeka fabrikası planlarına destek oluyor

Nvidia'nın yapay zeka bulut altyapısına yaptığı 2 milyar dolarlık yatırımla bilgi işlem sektörünün geleceğini nasıl yeniden şekillendirdiğini keşfedin. read more.

Şimdi oku

Nemotron 3 Super, Nvidia Nemotron Açık Model Lisansı kapsamında tamamen açıktır. BF16, FP8 ve NVFP4 formatlarındaki kontrol noktaları, ön eğitim verileri, eğitim sonrası örnekler ve pekiştirme öğrenimi ortamları Hugging Face'te mevcuttur. Çıkarım, Nvidia NIM, build.nvidia.com, Perplexity, Openrouter, Together AI, Google Cloud, AWS, Azure ve Coreweave aracılığıyla desteklenmektedir; ayrıca Dell Enterprise Hub ve HPE üzerinden şirket içi seçenekler de mevcuttur.

Geliştiriciler, vLLM, SGLang ve TensorRT-LLM kullanarak NeMo platformu üzerinden eğitim tariflerine, ince ayar kılavuzlarına ve çıkarım yemek kitaplarına erişebilirler.