glm-4.7-thinking

GLM · Par jeton

glm-4.7-thinkingDisponibleCache -73 %
ChatUtilisation d'outilsVisionFenêtre de contexte: 203KTokens de sortie max.: 64K

Tarification

Prix officielPrix LemonData
Entrée€0.40€0.28
Sortie€1.50€1.05
Lecture du cache€0.11€0.11
Écriture cacheGratuitGratuit

Paramètres

Fenêtre de contexte
203K tokens
Tokens de sortie max.
64K tokens

Idéal pour

Chat

IA conversationnelle, support client et FAQ

Vision

Compréhension d'images, analyse de documents et raisonnement visuel

Calculateur de coût

1M
0.5M
Coût mensuel estimé€0.81

Exemple de code API

POST/v1/chat/completions
curl https://api.lemondata.cc/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-xxx" \
  -d '{
    "model": "glm-4.7-thinking",
    "messages": [
      {"role": "user", "content": "Hello!"}
    ]
  }'

FAQ

Combien coûte glm-4.7-thinking ?

Sur LemonData, glm-4.7-thinking coûte $0.2800 par 1M de tokens d'entrée et $1.0500 par 1M de tokens de sortie, ce qui représente jusqu'à 30 % de réduction par rapport aux tarifs officiels.

Pourquoi utiliser glm-4.7-thinking ?

glm-4.7-thinking excelle dans Chat, Utilisation d'outils, Vision. Accédez-y via l'API unifiée de LemonData avec une seule clé API.

Comment utiliser l'API glm-4.7-thinking ?

Obtenez votre clé API sur LemonData, définissez l'URL de base sur api.lemondata.cc/v1 et utilisez n'importe quel SDK compatible OpenAI. Voir les exemples de code ci-dessus.

Modèles associés