Nomos 1 : l’IA open source qui vient de humilier les cracks des maths (et Qwen 3 au passage)


Une IA open source qui performe mieux que les meilleurs étudiants en mathématiques… et qui décroche 87/120 au Putnam 2025, l’un des concours universitaires les plus impitoyables au monde ? C’est le coup d’éclat de Nomos 1, le tout nouveau modèle de raisonnement publié par Nous Research. Avec ses 30 milliards de paramètres, ce système fait une entrée tonitruante dans la scène du raisonnement mathématique — et rappelle aux géants du secteur que la compétition ne vient plus seulement des modèles fermés.
Oui, même Qwen 3 s’est fait doubler. 😅
#IA #Maths #OpenSource #LLM #IAPratique


🎯 Qu’est-ce que Nomos 1 ?

Nomos 1 est un nouveau modèle open source conçu par Nous Research (USA), un collectif réputé pour pousser très loin les limites des LLM ouverts (on leur doit déjà Nous-Hermes et Athena).
Ici, l’objectif est clair : créer un modèle spécialisé dans le raisonnement “dur”, notamment mathématique.

Quelques points clefs :

  • 30 milliards de paramètres (un format “mid-size”, mais taillé pour la logique)
  • Architecture optimisée pour les chaînes de raisonnement longues
  • Capable d’expliquer, démontrer, structurer et corriger des preuves
  • Entraîné sur des corpus mathématiques avancés + données synthétiques spécialisées
  • Disponible gratuitement pour usage recherche, fine-tuning ou intégration sur hardware privé

🏆 Putnam 2025 : un score qui change la donne

Le concours William Lowell Putnam est le championnat de mathématiques pour les étudiants nord-américains.
Pour donner une idée du niveau :
➡️ Le score médian est souvent… 0.
➡️ Les meilleurs humains tournent entre 80 et 100 points les bonnes années.

Et là, Nomos 1 a décroché : 87/120.

Comparaison :

ModèleScore Putnam 2025
Nomos 1 (Nous Research)87/120
Qwen 3 (Alibaba)~70
Modèles généralistes (GPT, Claude, Gemini – non spécialisés)En dessous
Score médian humainEntre 0 et 3

L’écart est suffisamment large pour que le labo parle d’un “saut qualitatif du raisonnement logique spécialisé”.


💡 Pourquoi c’est un résultat majeur ?

Parce qu’on touche ici une zone sensible :
👉 la logique structurée
👉 la preuve mathématique
👉 la résolution de problèmes non triviaux

Trois domaines encore difficiles pour les IA généralistes.

Le fait qu’un modèle open source atteigne ce niveau signifie :

  1. Les capacités de raisonnement ne sont plus l’apanage des modèles fermés.
  2. Les modèles “moyens” (30B) deviennent dangereux pour les leaders du secteur.
  3. Les futures IA spécialisées par domaine vont pousser très loin la performance métier.
  4. Les entreprises pourront bientôt déployer des IA expertes en interne, en respectant la confidentialité, sans dépendre de solutions cloud externes.

💸 Prix & disponibilité

  • Modèle : totalement open source
  • Poids disponibles sur HuggingFace (chargement direct en local ou cloud)
  • Utilisable via GPU 24–48 Go VRAM
  • Licence permissive permettant un usage professionnel

👉 Le lien d’accès direct au repo : https://huggingface.co/NousResearch (


🔎 Comparaison rapide avec les autres IA du moment

ModèleTailleSpécialitéPosition
Nomos 130BRaisonnement mathLeader Putnam 2025
Qwen 370B–110BGénéralisteBattu sur les maths
GPT-5 (OpenAI)NCMulti-modalitéNon évalué publiquement
Gemini 2.5MultiLong contextPas spécialisé maths

La tendance 2025–2026 se confirme : les modèles spécialisés grignotent le terrain des modèles géants.

A lire aussi

ChatGPT passe (vraiment) le test de Turing — et pourquoi c’est historique

Kimi-K2 : la Chine entre dans la cour des (très) grands de l’IA avec un modèle à 1 000 milliards de paramètres

🔗 En savoir plus

Vous n'êtes pas abonné ?
 S’abonner sur LinkedIn à notre newsletter !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *