glm-4.6-thinking

GLM · Pro Token

glm-4.6-thinkingVerfügbarCache 86% Rabatt
ChatArgumentationWerkzeugnutzungKontextfenster: 128KMax. Output-Token: 8K

Preise

Offizieller PreisLemonData-Preis
Eingabe€0.80€0.56
Ausgabe€1.60€1.12
Cache-Lesezugriff€0.11€0.11
Cache-SchreibvorgangKostenlosKostenlos

Parameter

Kontextfenster
128K Token
Max. Output-Token
8K Token

Bestens geeignet für

Chat

Konversations-KI, Kundensupport und Q&A

Argumentation

Komplexe logische Schlussfolgerungen, analytische Arbeit und Forschung

Kostenrechner

1M
0.5M
Geschätzte monatliche Kosten€1.12

API-Code-Beispiel

POST/v1/chat/completions
curl https://api.lemondata.cc/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer sk-xxx" \
  -d '{
    "model": "glm-4.6-thinking",
    "messages": [
      {"role": "user", "content": "Hello!"}
    ]
  }'

FAQ

Wie viel kostet glm-4.6-thinking?

Bei LemonData kostet glm-4.6-thinking $0.5600 pro 1 Mio. Input-Token und $1.1200 pro 1 Mio. Output-Token, was bis zu 30 % unter den offiziellen Preisen liegt.

Wofür ist glm-4.6-thinking am besten geeignet?

glm-4.6-thinking zeichnet sich durch Chat, Argumentation, Werkzeugnutzung aus. Greifen Sie über die vereinheitlichte API von LemonData mit einem einzigen API-Key darauf zu.

Wie verwendet man die glm-4.6-thinking-API?

Holen Sie sich Ihren API-Key von LemonData, setzen Sie die Basis-URL auf api.lemondata.cc/v1 und verwenden Sie ein beliebiges OpenAI-kompatibles SDK. Siehe die Code-Beispiele oben.

Ähnliche Modelle