Utilisez n’importe quel modèle d’IA dans Cursor, Cline et Windsurf avec une seule clé API
Les assistants de codage IA vous enferment dans leurs modèles par défaut. Cursor utilise GPT-4 et Claude. Cline utilise Claude par défaut. Windsurf propose sa propre sélection de modèles. Si vous souhaitez essayer DeepSeek pour des itérations économiques ou Gemini pour des tâches à long contexte, vous n’aurez pas cette chance avec les options intégrées.
Un agrégateur d’API compatible OpenAI résout ce problème. Une clé API, une URL de base, et vous accédez à tous les modèles via la même interface que votre IDE supporte déjà.
Voici comment le configurer dans chaque outil.
Cursor
Cursor prend en charge nativement les points de terminaison OpenAI personnalisés compatibles.
Configuration
- Ouvrez les paramètres de Cursor (Cmd+, sur Mac, Ctrl+, sur Windows)
- Allez dans Modèles → Clé API OpenAI
- Entrez votre configuration :
API Key: sk-lemon-xxx
Base URL: https://api.lemondata.cc/v1
- Dans le menu déroulant des modèles, vous pouvez maintenant taper n’importe quel nom de modèle :
gpt-4.1,claude-sonnet-4-6,deepseek-chat,gemini-2.5-pro
Configuration recommandée des modèles
| Tâche | Modèle | Pourquoi |
|---|---|---|
| Complétion par tabulation | gpt-4.1-mini |
Rapide, économique, performant pour les courtes complétions |
| Chat | claude-sonnet-4-6 |
Le meilleur pour comprendre des bases de code complexes |
| Éditions Cmd+K | gpt-4.1 |
Bon équilibre entre rapidité et qualité |
| Analyse de longs fichiers | gemini-2.5-pro |
Fenêtre de contexte de 1 million de tokens |
Comparaison des coûts
Cursor Pro coûte 20 $/mois avec un usage limité des modèles premium. En utilisant votre propre clé API :
- Usage léger (50 requêtes/jour) : ~5-8 $/mois avec GPT-4.1-mini
- Usage moyen (200 requêtes/jour) : ~15-25 $/mois avec modèles mixtes
- Usage intensif (500+ requêtes/jour) : ~40-60 $/mois
Pour les utilisateurs légers à moyens, apporter votre propre clé est moins cher. Les utilisateurs intensifs trouveront peut-être le forfait illimité de Cursor Pro plus économique.
Cline (Extension VS Code)
Cline est un assistant de codage IA open-source pour VS Code qui supporte les fournisseurs d’API personnalisés.
Configuration
- Installez Cline depuis le marketplace VS Code
- Ouvrez les paramètres de Cline (cliquez sur l’icône d’engrenage dans le panneau Cline)
- Sélectionnez « OpenAI Compatible » comme fournisseur
- Configurez :
Base URL: https://api.lemondata.cc/v1
API Key: sk-lemon-xxx
Model: claude-sonnet-4-6
Utilisation du protocole natif Anthropic
Pour les modèles Claude, Cline supporte aussi directement l’API Anthropic, ce qui vous donne accès à une réflexion étendue et à la mise en cache des invites :
- Sélectionnez « Anthropic » comme fournisseur
- Configurez :
API Key: sk-lemon-xxx
Base URL: https://api.lemondata.cc
Notez que l’URL de base ne comporte pas le suffixe /v1 lorsqu’on utilise le protocole Anthropic.
Modèles recommandés pour Cline
Cline effectue de nombreux appels API par tâche (lecture de fichiers, planification, exécution). Les utilisateurs attentifs aux coûts devraient considérer :
- Phase de planification :
claude-sonnet-4-6(meilleur pour le raisonnement multi-étapes) - Phase d’exécution :
gpt-4.1-mini(rapide, économique pour les modifications de fichiers) - Phase de relecture :
gpt-4.1(bon pour détecter les problèmes)
Windsurf (Codeium)
Windsurf supporte les fournisseurs de modèles personnalisés via ses paramètres.
Configuration
- Ouvrez les paramètres de Windsurf
- Allez dans les paramètres du fournisseur IA
- Ajoutez un fournisseur compatible OpenAI personnalisé :
{
"provider": "openai",
"apiKey": "sk-lemon-xxx",
"baseURL": "https://api.lemondata.cc/v1",
"model": "claude-sonnet-4-6"
}
Continue (VS Code / JetBrains)
Continue est un assistant de codage open-source qui fonctionne à la fois avec VS Code et les IDE JetBrains.
Configuration
Modifiez ~/.continue/config.json :
{
"models": [
{
"title": "Claude Sonnet 4.6",
"provider": "openai",
"model": "claude-sonnet-4-6",
"apiBase": "https://api.lemondata.cc/v1",
"apiKey": "sk-lemon-xxx"
},
{
"title": "GPT-4.1 Mini (Rapide)",
"provider": "openai",
"model": "gpt-4.1-mini",
"apiBase": "https://api.lemondata.cc/v1",
"apiKey": "sk-lemon-xxx"
},
{
"title": "DeepSeek V3 (Économique)",
"provider": "openai",
"model": "deepseek-chat",
"apiBase": "https://api.lemondata.cc/v1",
"apiKey": "sk-lemon-xxx"
}
],
"tabAutocompleteModel": {
"title": "GPT-4.1 Mini",
"provider": "openai",
"model": "gpt-4.1-mini",
"apiBase": "https://api.lemondata.cc/v1",
"apiKey": "sk-lemon-xxx"
}
}
Cela vous offre un sélecteur de modèle dans le panneau Continue. Choisissez Claude pour les tâches complexes, GPT-4.1-mini pour des complétions rapides, DeepSeek pour des itérations économiques.
Cherry Studio / ChatBox / Autres clients
Toute application supportant des points de terminaison API OpenAI personnalisés fonctionne avec la même configuration :
API Key: sk-lemon-xxx
Base URL: https://api.lemondata.cc/v1
Model: (n’importe quel nom de modèle)
Clients populaires supportant cela : Cherry Studio, ChatBox, LobeChat, Open WebUI, BotGem, Chatwise.
Dépannage
Erreur modèle non trouvé : Vérifiez le nom exact du modèle. Erreurs courantes : claude-3.5-sonnet (ancien nom, utilisez claude-sonnet-4-6), gpt-4-turbo (utilisez gpt-4.1). L’API suggérera le nom correct dans la réponse d’erreur.
Erreurs de timeout : Certains modèles (notamment les modèles de raisonnement comme o3) peuvent prendre 30-60 secondes. Augmentez le délai d’attente de votre client.
Streaming ne fonctionne pas : Assurez-vous que votre client a le streaming activé. Tous les modèles supportent le streaming SSE via l’agrégateur.
Commencez ici : lemondata.cc fournit une clé API unique pour plus de 300 modèles. 1 $ de crédit gratuit à l’inscription, sans carte bancaire requise.
