DeepSeek R1 a prouvé que les modèles open-source peuvent égaler les capacités de raisonnement des modèles closed-source. Sorti en janvier 2025 sous licence MIT, il obtient un score de 79,8 % à l'AIME 2024 et 97,3 % sur MATH-500, ce qui le place au même niveau que la série o1 d'OpenAI.
Un an plus tard, R1 reste l'un des modèles de raisonnement les plus rentables du marché. À 0,55 $/2,19 $ pour 1M de tokens, il est 5 à 10 fois moins cher que les alternatives closed-source comparables. Voici ce que vous devez savoir pour l'utiliser efficacement.
Si vous comparez R1 à l'ensemble du paysage du codage et des modèles phares, gardez la comparaison des modèles de codage et la comparaison des tarifs ouvertes à côté de cette page. R1 brille particulièrement lorsqu'il est intégré dans une pile multi-modèles plutôt que de lui demander de tout faire.
Architecture : Pourquoi 671B de paramètres ne signifie pas un coût de 671B
DeepSeek R1 utilise une architecture Mixture of Experts (MoE) :
- 671 milliards de paramètres au total
- 37 milliards activés par forward pass
- Basé sur la fondation DeepSeek-V3-Base
- Fenêtre de contexte de 128K tokens
La conception MoE signifie que R1 possède la capacité de connaissance d'un modèle de 671B mais le coût d'inférence d'un modèle d'environ 37B. Chaque token d'entrée n'active qu'un sous-ensemble de réseaux "experts", ce qui permet de maintenir des exigences de calcul gérables.
À titre de comparaison : l'exécution d'un modèle dense de 671B nécessiterait environ 1,3 To de mémoire. L'architecture MoE de R1 ramène ce besoin à environ 336 Go avec une quantification Q4, ce qui le rend exploitable sur du matériel grand public haut de gamme (Mac Studio M3/M5 Ultra avec 512 Go).
Performance des Benchmarks
Mathématiques
| Benchmark | DeepSeek R1 | OpenAI o1 | Claude Opus 4.6 |
|---|---|---|---|
| AIME 2024 | 79,8 % | 83,3 % | ~65 % |
| MATH-500 | 97,3 % | 96,4 % | ~90 % |
| Codeforces Elo | 2 029 | 1 891 | ~1 600 |
R1 égale ou dépasse o1 sur la plupart des benchmarks mathématiques. Le classement Codeforces de 2 029 le place dans la catégorie "Candidate Master", rivalisant avec de solides programmeurs humains.
Codage
R1 est performant pour le codage algorithmique (programmation compétitive, preuves mathématiques) mais moins optimisé pour les tâches d'ingénierie logicielle (refactoring multi-fichiers, conception d'API). Sur SWE-Bench Verified, Claude Sonnet 4.6 (72,7 %) surpasse nettement R1.
Utilisez R1 pour l'implémentation d'algorithmes et le code mathématique. Utilisez Claude ou GPT-5 pour l'ingénierie logicielle générale.
Raisonnement
Le raisonnement par chaîne de pensée (chain-of-thought) de R1 est transparent et inspectable. Contrairement aux modèles closed-source où le raisonnement se produit dans une phase de "réflexion" cachée, les traces de raisonnement de R1 font partie de la sortie. Cela le rend précieux pour :
- Le débogage des erreurs de raisonnement (vous pouvez voir où le modèle s'est trompé)
- Les applications éducatives (les étudiants peuvent suivre le processus de raisonnement)
- La recherche (analyser comment les LLM abordent les problèmes)
Innovation en matière d'entraînement : RL pur sans étiquetage humain
L'approche d'entraînement de R1 a été sa contribution la plus significative au domaine.
Approche traditionnelle : collecter des exemples de raisonnement étiquetés par des humains, puis fine-tuner le modèle pour les imiter.
L'approche de DeepSeek : entraînement via un apprentissage par renforcement (RL) à grande échelle sans aucune donnée de raisonnement supervisée. Le modèle (DeepSeek-R1-Zero) a développé l'auto-vérification, la réflexion et un long raisonnement par chaîne de pensée uniquement grâce au RL.
L'implication pratique : R1 a démontré que les capacités de raisonnement peuvent émerger de l'entraînement par RL sans annotation humaine coûteuse. Cela a ouvert la voie à d'autres laboratoires pour entraîner des modèles de raisonnement plus efficacement.
Le modèle R1 final utilise un pipeline en deux étapes :
- Étapes de RL pour développer des schémas de raisonnement
- Étapes de SFT (supervised fine-tuning) pour affiner la qualité de la sortie et réduire les problèmes tels que la répétition et le mélange de langues
Utilisation Pratique
Quand utiliser R1
- Preuves et dérivations mathématiques
- Problèmes de programmation compétitive
- Conception et optimisation d'algorithmes
- Analyse de données nécessitant un raisonnement étape par étape
- Tâches de recherche où la transparence du raisonnement est importante
- Applications à budget limité nécessitant des capacités de raisonnement
Quand ne pas utiliser R1
- Ingénierie logicielle générale (utilisez Claude Sonnet 4.6)
- Écriture créative (utilisez Claude ou GPT-5)
- Questions-réponses rapides où le surcoût de raisonnement est inutile (utilisez GPT-4.1-mini)
- Génération de code UI/frontend (R1 est plus faible ici)
- Tâches nécessitant des informations très récentes (les données d'entraînement de R1 ont une date de coupure)
Optimiser l'utilisation de R1
Les traces de raisonnement de R1 peuvent être verbeuses. Un simple problème de mathématiques peut générer plus de 500 tokens de chaîne de pensée avant la réponse finale. Conseils pour gérer cela :
- Définissez
max_tokensde manière appropriée. Les sorties de R1 peuvent être 3 à 5 fois plus longues que celles des modèles sans raisonnement pour la même tâche. - Analysez la réponse finale. R1 enveloppe généralement sa conclusion dans un format clair après la trace de raisonnement.
- Utilisez des versions distillées pour les tâches plus simples. DeepSeek propose R1 distillé à 1,5B, 7B, 8B, 14B, 32B et 70B paramètres. Les versions 32B et 70B conservent la majeure partie de la capacité de raisonnement à un coût bien moindre.
Comparaison des Tarifs
| Modèle | Entrée / 1M | Sortie / 1M | Capacité de raisonnement |
|---|---|---|---|
| DeepSeek R1 | 0,55 $ | 2,19 $ | Forte (79,8 % AIME) |
| OpenAI o3 | 2,00 $ | 8,00 $ | Forte (~83 % AIME) |
| Claude Opus 4.6 | 5,00 $ | 25,00 $ | Bonne (~65 % AIME) |
| OpenAI o4-mini | 1,10 $ | 4,40 $ | Bonne (optimisé pour la vitesse) |
R1 est 4 fois moins cher qu'o3 en entrée et 4 fois moins cher en sortie. Pour les charges de travail où la qualité du raisonnement est comparable (mathématiques, algorithmes), R1 offre des économies significatives.
Écosystème Open Source
R1 est sous licence MIT. Vous pouvez :
- L'utiliser commercialement sans restrictions
- Le fine-tuner sur vos propres données
- Le distiller pour entraîner des modèles plus petits
- L'exécuter localement (nécessite ~336 Go de RAM en Q4 pour le modèle complet)
- Le déployer sur votre propre infrastructure
Versions distillées disponibles :
| Version | Paramètres | Cas d'utilisation |
|---|---|---|
| R1-Distill-Qwen-1.5B | 1,5B | Appareils edge, mobile |
| R1-Distill-Qwen-7B | 7B | Développement local, tests |
| R1-Distill-Llama-8B | 8B | Développement local |
| R1-Distill-Qwen-14B | 14B | Production (raisonnement léger) |
| R1-Distill-Qwen-32B | 32B | Production (raisonnement fort) |
| R1-Distill-Llama-70B | 70B | Production (capacité quasi-totale) |
La version distillée 32B est le compromis idéal pour la plupart des déploiements en production : un raisonnement solide pour une fraction du coût du modèle complet.
C'est également la version que la plupart des équipes devraient évaluer en premier. Passer directement au modèle complet de 671B rend le modèle plus coûteux sur le plan opérationnel qu'il ne l'est souvent en pratique.
Pour de nombreuses équipes, la voie de la distillation est la véritable décision produit. Le modèle complet prouve ce qui est possible. La gamme distillée décide de ce qui est pratique.
Cette distinction est facile à manquer et coûteuse à ignorer.
Où R1 s'intègre-t-il réellement dans une pile technologique en 2026
L'erreur que commettent les équipes est de traiter R1 comme un remplacement universel pour chaque modèle fermé.
R1 est le plus performant quand :
- le travail est algorithmique, mathématique ou lourd en chaîne de pensée
- le coût est un facteur crucial
- vous pouvez tolérer des traces de raisonnement plus longues
- vous voulez un raisonnement transparent plutôt qu'une "réflexion" cachée
R1 est plus faible quand :
- la tâche est la génération de frontend de haute qualité
- le workflow est davantage axé sur la révision que sur le raisonnement
- vous avez besoin du meilleur comportement en ingénierie logicielle multi-fichiers
C'est pourquoi de nombreuses équipes utilisent désormais DeepSeek R1 comme spécialiste du raisonnement au sein d'un pool de modèles plus large, et non comme l'unique modèle de leur stack.
Démarrage rapide
Via API
from openai import OpenAI
client = OpenAI(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{
"role": "user",
"content": "Prouvez que la somme des n premiers nombres impairs est égale à n²."
}],
max_tokens=4096 # Les traces de raisonnement de R1 peuvent être longues
)
print(response.choices[0].message.content)
Exécution locale
# Via Ollama (nécessite ~336 Go de RAM pour le modèle complet)
ollama pull deepseek-r1:671b-q4
# Ou utilisez la version distillée 32B (nécessite ~20 Go de RAM)
ollama pull deepseek-r1:32b
Et après : DeepSeek V3 et au-delà
DeepSeek V3 (le successeur non-raisonnement) est déjà sorti avec des capacités générales améliorées. L'équipe DeepSeek continue de repousser les limites de ce que les modèles open-source peuvent accomplir.
Pour les tâches de raisonnement, R1 reste la meilleure option open-source. Pour les tâches générales, DeepSeek V3 à 0,28 $/0,42 $ pour 1M de tokens est l'un des modèles les plus rentables disponibles.
Les deux sont accessibles via LemonData avec une seule clé API. 1 $ de crédit gratuit à l'inscription.
Si vous prévoyez d'exécuter R1 localement, le guide IA locale sur Mac Studio est la prochaine page à lire. Si vous prévoyez d'y accéder via une passerelle, le guide de la passerelle API IA unifiée est la meilleure étape suivante.
Benchmarks en date de février 2026. Poids de DeepSeek R1 disponibles sur huggingface.co/deepseek-ai.
