glm-4.7-thinking

GLM · Pro Token

glm-4.7-thinkingVerfügbarCache 73% Rabatt
ChatWerkzeugnutzungVisionKontextfenster: 203KMax. Output-Token: 64K

Preise

Offizieller PreisLemonData-Preis
Eingabe€0.40€0.28
Ausgabe€1.50€1.05
Cache-Lesezugriff€0.11€0.11
Cache-SchreibvorgangKostenlosKostenlos

Parameter

Kontextfenster
203K Token
Max. Output-Token
64K Token

Bestens geeignet für

Chat

Konversations-KI, Kundensupport und Q&A

Vision

Bildverständnis, Dokumentenanalyse und visuelle Logik

Kostenrechner

1M
0.5M
Geschätzte monatliche Kosten€0.81

API-Code-Beispiel

POST/v1/chat/completions
curl https://api.lemondata.cc/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-xxx" \
  -d '{
    "model": "glm-4.7-thinking",
    "messages": [
      {"role": "user", "content": "Hello!"}
    ]
  }'

FAQ

Wie viel kostet glm-4.7-thinking?

Bei LemonData kostet glm-4.7-thinking $0.2800 pro 1 Mio. Input-Token und $1.0500 pro 1 Mio. Output-Token, was bis zu 30 % unter den offiziellen Preisen liegt.

Wofür ist glm-4.7-thinking am besten geeignet?

glm-4.7-thinking zeichnet sich durch Chat, Werkzeugnutzung, Vision aus. Greifen Sie über die vereinheitlichte API von LemonData mit einem einzigen API-Key darauf zu.

Wie verwendet man die glm-4.7-thinking-API?

Holen Sie sich Ihren API-Key von LemonData, setzen Sie die Basis-URL auf api.lemondata.cc/v1 und verwenden Sie ein beliebiges OpenAI-kompatibles SDK. Siehe die Code-Beispiele oben.

Ähnliche Modelle