Date : 15 décembre 2025

Nvidia, le leader mondial des processeurs graphiques (GPUs) utilisés pour entraîner et faire tourner les IA, étend son rôle au-delà du hardware en lançant des modèles IA open source. Nemotron 3 est une famille de modèles de langage large (LLM) conçus spécifiquement pour l’IA agentique : des systèmes où plusieurs IA « agents » collaborent comme une équipe pour accomplir des tâches complexes. Imaginez des agents qui planifient un projet, récupèrent des infos, exécutent des actions (comme appeler une API ou coder), vérifient les résultats, et ajustent en temps réel – au lieu d’un simple chatbot qui répond à des questions.

La famille inclut trois variantes, scalables en taille et puissance :

  • Nano (30 milliards de paramètres actifs sur 31,6 milliards totaux, ~3,6B actifs par token) : Le plus petit et efficace, disponible immédiatement. Idéal pour des tâches ciblées comme le raisonnement rapide ou l’inférence à faible coût.
  • Super (100 milliards de paramètres) : Optimisé pour des workflows multi-agents à haut volume, comme l’automatisation IT.
  • Ultra (500 milliards de paramètres) : Le plus puissant pour des raisonnements avancés, à venir début 2026.

L’innovation clé est l’architecture hybride Mamba-Transformer MoE (Mixture-of-Experts) :

  • Mamba : Un modèle d’état spatial sélectif (SSM) qui gère les contextes très longs (jusqu’à 1 million de tokens, soit des centaines de pages) avec peu de mémoire et une vitesse élevée – parfait pour des conversations longues sans perte de cohérence.
  • Transformer : Les couches classiques pour une attention précise sur des relations complexes (ex. : logique dans du code ou des maths).
  • MoE : Au lieu d’activer tout le modèle à chaque fois, seulement quelques « experts » (sous-modèles spécialisés) sont activés (ex. : 6 sur 128 chez Nano), réduisant les coûts. Pour Super/Ultra, un « Latent MoE » ajoute une projection latente pour plus d’efficacité.

Autres avancées :

  • Throughput 4x supérieur à Nemotron 2 Nano, et réduction de 60 % des tokens de raisonnement (moins de calculs inutiles, coûts d’inférence baissés).
  • Entraînement via reinforcement learning multi-environnements (RL) avec des « gyms » open source (simulations réalistes pour coder, maths, planification).
  • Open source complet : Poids des modèles, 3 trillions de tokens de données d’entraînement (sur 10T pour Nano), bibliothèques (NeMo Gym, NeMo RL, NeMo Evaluator) sur Hugging Face et GitHub. Licence permissive pour customisation.
  • Benchmarks : Nano excelle en maths/codage, score ~1328 sur LMSYS Arena (top open models en efficacité), surpasse concurrents en throughput.

Cette sortie s’accompagne de l’acquisition de SchedMD (développeur de Slurm, un scheduler open source pour HPC/AI utilisé dans >50 % des superordinateurs TOP500). Cela renforce l’écosystème open pour gérer les jobs IA massifs.

Impacts approfondis : Pour les développeurs et entreprises, c’est une démocratisation : modèles gratuits, transparents (contrairement aux fermés comme GPT), modifiables pour des agents spécialisés (ex. : cybersécurité chez CrowdStrike, dev logiciel chez Siemens). Réduit les coûts d’inférence (clé pour scaler des agents multi-tâches) et résout des problèmes comme la « drift de contexte » (perte de mémoire dans les longues interactions). Pour un non-expert, cela signifie des IA plus fiables et collaboratives, comme un assistant qui gère seul votre planning sans hallucinations. Mais dépendance aux GPUs Nvidia persiste pour l’entraînement optimal.

Perspectives futures : En 2026, avec Super/Ultra, explosion des agents open source pour industries (manufacture, finance). Nvidia positionne l’open comme stratégie anti-concurrence (Meta Llama, mais Nvidia ajoute hardware+logiciel). Risques : sécurité des agents autonomes (besoin de RL safety data open). Cela accélère l’IA « pratique » vs chatbots, mais augmente la demande en compute Nvidia. Téléchargez Nano sur Hugging Face pour tester !

Sources pertinentes pour cet article

Sources principales (annonces officielles et couverture du 15 décembre 2025) :

Catégories : Veille Technologique