Migration von OpenAI zu LemonData in 5 Minuten
Der Wechsel von der offiziellen OpenAI API zu LemonData erfordert nur zwei Zeilenänderungen. Ihr bestehender Code, Ihre Prompts und Modellnamen funktionieren weiterhin wie gewohnt. Zudem erhalten Sie über denselben API key Zugriff auf über 300 Modelle von OpenAI, Anthropic, Google, DeepSeek und weiteren Anbietern.
Die Kurzfassung
- Registrieren Sie sich auf lemondata.cc und holen Sie sich einen API key (Sie erhalten 1 $ Gratis-Guthaben)
- Ersetzen Sie Ihre
base_urlund Ihrenapi_key - Fertig. Alles andere bleibt gleich.
Python (OpenAI SDK)
# Vorher — OpenAI offiziell
from openai import OpenAI
client = OpenAI(api_key="sk-openai-xxx")
# Nachher — LemonData (2 Zeilen ändern)
from openai import OpenAI
client = OpenAI(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
# Alles andere bleibt gleich
response = client.chat.completions.create(
model="gpt-4.1",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
Streaming, function calling, Vision: alles funktioniert identisch. Das OpenAI Python SDK sendet Anfragen an die base_url, die Sie angeben.
Node.js (OpenAI SDK)
// Vorher — OpenAI offiziell
import OpenAI from 'openai';
const openai = new OpenAI({ apiKey: 'sk-openai-xxx' });
// Nachher — LemonData (2 Zeilen ändern)
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'sk-lemon-xxx',
baseURL: 'https://api.lemondata.cc/v1',
});
// Alles andere bleibt gleich
const completion = await openai.chat.completions.create({
model: 'gpt-4.1',
messages: [{ role: 'user', content: 'Hello!' }],
});
console.log(completion.choices[0].message.content);
Hinweis: Im Node.js SDK heißt es baseURL (camelCase), nicht base_url.
curl
# Vorher — OpenAI offiziell
curl https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer sk-openai-xxx" \
-H "Content-Type: application/json" \
-d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'
# Nachher — LemonData (URL und Key ändern)
curl https://api.lemondata.cc/v1/chat/completions \
-H "Authorization: Bearer sk-lemon-xxx" \
-H "Content-Type: application/json" \
-d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'
Gleicher Endpoint-Pfad, gleicher Request-Body, gleiches Response-Format.
Ansatz über Umgebungsvariablen
Wenn Ihr Code Umgebungsvariablen ausliest (was er sollte), müssen Sie den Code nicht einmal anfassen:
# Vorher
export OPENAI_API_KEY="sk-openai-xxx"
export OPENAI_BASE_URL="https://api.openai.com/v1"
# Nachher
export OPENAI_API_KEY="sk-lemon-xxx"
export OPENAI_BASE_URL="https://api.lemondata.cc/v1"
Das OpenAI SDK liest OPENAI_API_KEY und OPENAI_BASE_URL automatisch aus der Umgebung aus. Null Code-Änderungen.
Was Sie nach der Migration erhalten
Sobald Sie LemonData nutzen, behalten Sie die volle OpenAI-Kompatibilität und erhalten Zugriff auf zusätzliche Funktionen:
Über 300 Modelle, ein API Key
Ihr bestehender OpenAI-Code funktioniert jetzt mit Claude, Gemini, DeepSeek, Mistral und hunderten weiteren — ändern Sie einfach den model-Parameter:
# GPT-4.1 (OpenAI) — $2.00/$8.00 pro 1M Token
response = client.chat.completions.create(model="gpt-4.1", messages=messages)
# Claude Sonnet 4.6 (Anthropic) — $3.00/$15.00 pro 1M Token
response = client.chat.completions.create(model="claude-sonnet-4-6", messages=messages)
# Gemini 2.5 Pro (Google)
response = client.chat.completions.create(model="gemini-2.5-pro", messages=messages)
# DeepSeek V3 — $0.28/$0.42 pro 1M Token (nutzen Sie "deepseek-chat" oder den Alias "deepseek-v3")
response = client.chat.completions.create(model="deepseek-chat", messages=messages)
Multi-Channel-Redundanz bedeutet: Wenn ein Upstream-Provider Probleme hat, leitet das Gateway automatisch an einen alternativen Kanal weiter. Keine Code-Änderungen erforderlich.
Nativer Protokollzugriff (Optional)
Wenn Sie Anthropic- oder Google-Modelle mit ihren vollen nativen Funktionen nutzen möchten (Extended Thinking, Prompt Caching mit cache_control, Google Search Grounding), unterstützt LemonData deren native Protokolle über dieselbe Base-URL:
# Anthropic nativ — verwenden Sie das Anthropic SDK
# Extended Thinking, cache_control, Citations funktionieren alle nativ
from anthropic import Anthropic
client = Anthropic(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc" # Kein /v1 — das Anthropic SDK fügt /v1/messages selbst hinzu
)
# Google Gemini nativ — verwenden Sie das Google SDK
# Search Grounding, grounding_metadata funktionieren alle nativ
from google import genai
client = genai.Client(
api_key="sk-lemon-xxx",
http_options={"base_url": "https://api.lemondata.cc"} # Kein Pfad-Suffix — das SDK fügt /v1beta/models/... hinzu
)
Dies ist völlig optional. Der OpenAI-kompatible Endpoint funktioniert für alle Modelle. Aber wenn Sie das Extended Thinking von Anthropic oder das Grounding von Google benötigen, bietet Ihnen der native Protokollzugriff diese Funktionen ohne Verluste bei der Formatkonvertierung.
Migration gängiger Integrationen
Cursor
Einstellungen → Modelle → OpenAI API Key:
- API Key:
sk-lemon-xxx - Base URL:
https://api.lemondata.cc/v1
LangChain
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
model="gpt-4.1",
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
Vercel AI SDK
import { createOpenAI } from '@ai-sdk/openai';
const lemondata = createOpenAI({
apiKey: 'sk-lemon-xxx',
baseURL: 'https://api.lemondata.cc/v1',
});
const result = await generateText({
model: lemondata('gpt-4.1'),
prompt: 'Hello!',
});
LiteLLM
import litellm
response = litellm.completion(
model="openai/gpt-4.1",
messages=[{"role": "user", "content": "Hello!"}],
api_key="sk-lemon-xxx",
api_base="https://api.lemondata.cc/v1"
)
Überprüfen Sie Ihre Migration
Kurzer Plausibilitätscheck nach dem Wechsel:
curl https://api.lemondata.cc/v1/models \
-H "Authorization: Bearer sk-lemon-xxx" | head -c 200
Wenn Sie eine JSON-Antwort mit Modell-Objekten sehen, ist alles bereit.
FAQ
Werden meine bestehenden Prompts funktionieren? Ja. LemonData ist vollständig OpenAI-kompatibel. Gleiches Request-Format, gleiches Response-Format.
Muss ich die Modellnamen ändern? Nein. gpt-4.1, gpt-4o, gpt-4.1-mini — alle Standard-OpenAI-Modellnamen funktionieren. LemonData verfügt zudem über ein dreistufiges Modell-Auflösungssystem: Exact Match → Alias-Suche (21 statische Aliase wie gpt4 → gpt-4, gpt-3.5 → gpt-3.5-turbo) → Fuzzy-Korrektur (Levenshtein-Distanz ≤ 3). So werden selbst veraltete Namen wie gpt-4-turbo oder Tippfehler wie gpt4o korrekt aufgelöst.
Was ist mit Streaming? Funktioniert identisch. SSE-Format, gleiche Chunk-Struktur. Bei nativen Anthropic/Gemini-Protokollen erhalten Sie das native SSE-Format des jeweiligen Providers (einschließlich Thinking Deltas für Extended Thinking).
Was ist mit function calling / Tools? Vollständig unterstützt. Gleiches Schema, gleiches Verhalten.
Was ist mit der Fehlerbehandlung? LemonData gibt OpenAI-kompatible Fehler mit zusätzlichen Agent-freundlichen Feldern zurück: retryable, did_you_mean, suggestions, retry_after. Die Standard-Fehlerbehandlung des OpenAI SDK funktioniert unverändert — die zusätzlichen Felder sind additiv.
Kann ich wieder zurückwechseln? Ja. Ändern Sie die zwei Zeilen einfach zurück. Es gibt keinen Lock-in. Kein proprietäres Format, keine Datenmigration.
Vollständige API-Dokumentation: docs.lemondata.cc
Quickstart-Guide: docs.lemondata.cc/quickstart
