Une IA open source qui performe mieux que les meilleurs étudiants en mathématiques… et qui décroche 87/120 au Putnam 2025, l’un des concours universitaires les plus impitoyables au monde ? C’est le coup d’éclat de Nomos 1, le tout nouveau modèle de raisonnement publié par Nous Research. Avec ses 30 milliards de paramètres, ce système fait une entrée tonitruante dans la scène du raisonnement mathématique — et rappelle aux géants du secteur que la compétition ne vient plus seulement des modèles fermés.
Oui, même Qwen 3 s’est fait doubler. 😅
#IA #Maths #OpenSource #LLM #IAPratique

🎯 Qu’est-ce que Nomos 1 ?
Nomos 1 est un nouveau modèle open source conçu par Nous Research (USA), un collectif réputé pour pousser très loin les limites des LLM ouverts (on leur doit déjà Nous-Hermes et Athena).
Ici, l’objectif est clair : créer un modèle spécialisé dans le raisonnement “dur”, notamment mathématique.
Quelques points clefs :
- 30 milliards de paramètres (un format “mid-size”, mais taillé pour la logique)
- Architecture optimisée pour les chaînes de raisonnement longues
- Capable d’expliquer, démontrer, structurer et corriger des preuves
- Entraîné sur des corpus mathématiques avancés + données synthétiques spécialisées
- Disponible gratuitement pour usage recherche, fine-tuning ou intégration sur hardware privé
🏆 Putnam 2025 : un score qui change la donne
Le concours William Lowell Putnam est le championnat de mathématiques pour les étudiants nord-américains.
Pour donner une idée du niveau :
➡️ Le score médian est souvent… 0.
➡️ Les meilleurs humains tournent entre 80 et 100 points les bonnes années.
Et là, Nomos 1 a décroché : 87/120.
Comparaison :
| Modèle | Score Putnam 2025 |
|---|---|
| Nomos 1 (Nous Research) | ⭐ 87/120 |
| Qwen 3 (Alibaba) | ~70 |
| Modèles généralistes (GPT, Claude, Gemini – non spécialisés) | En dessous |
| Score médian humain | Entre 0 et 3 |
L’écart est suffisamment large pour que le labo parle d’un “saut qualitatif du raisonnement logique spécialisé”.
💡 Pourquoi c’est un résultat majeur ?
Parce qu’on touche ici une zone sensible :
👉 la logique structurée
👉 la preuve mathématique
👉 la résolution de problèmes non triviaux
Trois domaines encore difficiles pour les IA généralistes.
Le fait qu’un modèle open source atteigne ce niveau signifie :
- Les capacités de raisonnement ne sont plus l’apanage des modèles fermés.
- Les modèles “moyens” (30B) deviennent dangereux pour les leaders du secteur.
- Les futures IA spécialisées par domaine vont pousser très loin la performance métier.
- Les entreprises pourront bientôt déployer des IA expertes en interne, en respectant la confidentialité, sans dépendre de solutions cloud externes.
💸 Prix & disponibilité
- Modèle : totalement open source
- Poids disponibles sur HuggingFace (chargement direct en local ou cloud)
- Utilisable via GPU 24–48 Go VRAM
- Licence permissive permettant un usage professionnel
👉 Le lien d’accès direct au repo : https://huggingface.co/NousResearch (
🔎 Comparaison rapide avec les autres IA du moment
| Modèle | Taille | Spécialité | Position |
|---|---|---|---|
| Nomos 1 | 30B | Raisonnement math | Leader Putnam 2025 |
| Qwen 3 | 70B–110B | Généraliste | Battu sur les maths |
| GPT-5 (OpenAI) | NC | Multi-modalité | Non évalué publiquement |
| Gemini 2.5 | Multi | Long context | Pas spécialisé maths |
La tendance 2025–2026 se confirme : les modèles spécialisés grignotent le terrain des modèles géants.
A lire aussi
ChatGPT passe (vraiment) le test de Turing — et pourquoi c’est historique
🔗 En savoir plus
- Repo HuggingFace Nous Research (open source) : https://huggingface.co/NousResearch
- Communiqué technique Nous Research : https://nousresearch.com/
- Contexte Putnam : https://kskedlaya.org/putnam/
Vous n'êtes pas abonné ?
S’abonner sur LinkedIn à notre newsletter !





