GLM-4.7
GLM · Pro Token
glm-4.7VerfügbarChatArgumentationVisionWerkzeugnutzungJSON-ModusKontextfenster: 205KMax. Output-Token: 131K
Preise
| Offizieller Preis | LemonData-Preis | |
|---|---|---|
| Eingabe | €0.60 | €0.42 |
| Ausgabe | €2.20 | €1.54 |
Parameter
Kontextfenster
205K Token
Max. Output-Token
131K Token
Bestens geeignet für
Chat
Konversations-KI, Kundensupport und Q&A
Argumentation
Komplexe logische Schlussfolgerungen, analytische Arbeit und Forschung
Vision
Bildverständnis, Dokumentenanalyse und visuelle Logik
Kostenrechner
1M
0.5M
Geschätzte monatliche Kosten€1.19
API-Code-Beispiel
POST/v1/chat/completions
curl https://api.lemondata.cc/v1/chat/completions \
-H "Content-Type: application/json" \
-H "Authorization: Bearer sk-xxx" \
-d '{
"model": "glm-4.7",
"messages": [
{"role": "user", "content": "Hello!"}
]
}'FAQ
Wie viel kostet GLM-4.7?
Bei LemonData kostet GLM-4.7 $0.4200 pro 1 Mio. Input-Token und $1.5400 pro 1 Mio. Output-Token, was bis zu 30 % unter den offiziellen Preisen liegt.
Wofür ist GLM-4.7 am besten geeignet?
GLM-4.7 zeichnet sich durch Chat, Argumentation, Vision aus. Greifen Sie über die vereinheitlichte API von LemonData mit einem einzigen API-Key darauf zu.
Wie verwendet man die GLM-4.7-API?
Holen Sie sich Ihren API-Key von LemonData, setzen Sie die Basis-URL auf api.lemondata.cc/v1 und verwenden Sie ein beliebiges OpenAI-kompatibles SDK. Siehe die Code-Beispiele oben.