Einstellungen

Sprache

In 5 Minuten von OpenAI zu LemonData migrieren

L
LemonData
·26. Februar 2026·39 Aufrufe
#Anleitung#Migration#OpenAI#Erste Schritte
In 5 Minuten von OpenAI zu LemonData migrieren

Migration von OpenAI zu LemonData in 5 Minuten

Der Wechsel von der offiziellen OpenAI API zu LemonData erfordert nur zwei Zeilenänderungen. Ihr bestehender Code, Ihre Prompts und Modellnamen funktionieren weiterhin wie gewohnt. Zudem erhalten Sie über denselben API key Zugriff auf über 300 Modelle von OpenAI, Anthropic, Google, DeepSeek und weiteren Anbietern.

Die Kurzfassung

  1. Registrieren Sie sich auf lemondata.cc und holen Sie sich einen API key (Sie erhalten 1 $ Gratis-Guthaben)
  2. Ersetzen Sie Ihre base_url und Ihren api_key
  3. Fertig. Alles andere bleibt gleich.

Python (OpenAI SDK)

# Vorher — OpenAI offiziell
from openai import OpenAI
client = OpenAI(api_key="sk-openai-xxx")

# Nachher — LemonData (2 Zeilen ändern)
from openai import OpenAI
client = OpenAI(
    api_key="sk-lemon-xxx",
    base_url="https://api.lemondata.cc/v1"
)

# Alles andere bleibt gleich
response = client.chat.completions.create(
    model="gpt-4.1",
    messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)

Streaming, function calling, Vision: alles funktioniert identisch. Das OpenAI Python SDK sendet Anfragen an die base_url, die Sie angeben.

Node.js (OpenAI SDK)

// Vorher — OpenAI offiziell
import OpenAI from 'openai';
const openai = new OpenAI({ apiKey: 'sk-openai-xxx' });

// Nachher — LemonData (2 Zeilen ändern)
import OpenAI from 'openai';
const openai = new OpenAI({
  apiKey: 'sk-lemon-xxx',
  baseURL: 'https://api.lemondata.cc/v1',
});

// Alles andere bleibt gleich
const completion = await openai.chat.completions.create({
  model: 'gpt-4.1',
  messages: [{ role: 'user', content: 'Hello!' }],
});
console.log(completion.choices[0].message.content);

Hinweis: Im Node.js SDK heißt es baseURL (camelCase), nicht base_url.

curl

# Vorher — OpenAI offiziell
curl https://api.openai.com/v1/chat/completions \
  -H "Authorization: Bearer sk-openai-xxx" \
  -H "Content-Type: application/json" \
  -d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'

# Nachher — LemonData (URL und Key ändern)
curl https://api.lemondata.cc/v1/chat/completions \
  -H "Authorization: Bearer sk-lemon-xxx" \
  -H "Content-Type: application/json" \
  -d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'

Gleicher Endpoint-Pfad, gleicher Request-Body, gleiches Response-Format.

Ansatz über Umgebungsvariablen

Wenn Ihr Code Umgebungsvariablen ausliest (was er sollte), müssen Sie den Code nicht einmal anfassen:

# Vorher
export OPENAI_API_KEY="sk-openai-xxx"
export OPENAI_BASE_URL="https://api.openai.com/v1"

# Nachher
export OPENAI_API_KEY="sk-lemon-xxx"
export OPENAI_BASE_URL="https://api.lemondata.cc/v1"

Das OpenAI SDK liest OPENAI_API_KEY und OPENAI_BASE_URL automatisch aus der Umgebung aus. Null Code-Änderungen.

Was Sie nach der Migration erhalten

Sobald Sie LemonData nutzen, behalten Sie die volle OpenAI-Kompatibilität und erhalten Zugriff auf zusätzliche Funktionen:

Über 300 Modelle, ein API Key

Ihr bestehender OpenAI-Code funktioniert jetzt mit Claude, Gemini, DeepSeek, Mistral und hunderten weiteren — ändern Sie einfach den model-Parameter:

# GPT-4.1 (OpenAI) — $2.00/$8.00 pro 1M Token
response = client.chat.completions.create(model="gpt-4.1", messages=messages)

# Claude Sonnet 4.6 (Anthropic) — $3.00/$15.00 pro 1M Token
response = client.chat.completions.create(model="claude-sonnet-4-6", messages=messages)

# Gemini 2.5 Pro (Google)
response = client.chat.completions.create(model="gemini-2.5-pro", messages=messages)

# DeepSeek V3 — $0.28/$0.42 pro 1M Token (nutzen Sie "deepseek-chat" oder den Alias "deepseek-v3")
response = client.chat.completions.create(model="deepseek-chat", messages=messages)

Multi-Channel-Redundanz bedeutet: Wenn ein Upstream-Provider Probleme hat, leitet das Gateway automatisch an einen alternativen Kanal weiter. Keine Code-Änderungen erforderlich.

Nativer Protokollzugriff (Optional)

Wenn Sie Anthropic- oder Google-Modelle mit ihren vollen nativen Funktionen nutzen möchten (Extended Thinking, Prompt Caching mit cache_control, Google Search Grounding), unterstützt LemonData deren native Protokolle über dieselbe Base-URL:

# Anthropic nativ — verwenden Sie das Anthropic SDK
# Extended Thinking, cache_control, Citations funktionieren alle nativ
from anthropic import Anthropic
client = Anthropic(
    api_key="sk-lemon-xxx",
    base_url="https://api.lemondata.cc"  # Kein /v1 — das Anthropic SDK fügt /v1/messages selbst hinzu
)

# Google Gemini nativ — verwenden Sie das Google SDK
# Search Grounding, grounding_metadata funktionieren alle nativ
from google import genai
client = genai.Client(
    api_key="sk-lemon-xxx",
    http_options={"base_url": "https://api.lemondata.cc"}  # Kein Pfad-Suffix — das SDK fügt /v1beta/models/... hinzu
)

Dies ist völlig optional. Der OpenAI-kompatible Endpoint funktioniert für alle Modelle. Aber wenn Sie das Extended Thinking von Anthropic oder das Grounding von Google benötigen, bietet Ihnen der native Protokollzugriff diese Funktionen ohne Verluste bei der Formatkonvertierung.

Migration gängiger Integrationen

Cursor

Einstellungen → Modelle → OpenAI API Key:

  • API Key: sk-lemon-xxx
  • Base URL: https://api.lemondata.cc/v1

LangChain

from langchain_openai import ChatOpenAI

llm = ChatOpenAI(
    model="gpt-4.1",
    api_key="sk-lemon-xxx",
    base_url="https://api.lemondata.cc/v1"
)

Vercel AI SDK

import { createOpenAI } from '@ai-sdk/openai';

const lemondata = createOpenAI({
  apiKey: 'sk-lemon-xxx',
  baseURL: 'https://api.lemondata.cc/v1',
});

const result = await generateText({
  model: lemondata('gpt-4.1'),
  prompt: 'Hello!',
});

LiteLLM

import litellm

response = litellm.completion(
    model="openai/gpt-4.1",
    messages=[{"role": "user", "content": "Hello!"}],
    api_key="sk-lemon-xxx",
    api_base="https://api.lemondata.cc/v1"
)

Überprüfen Sie Ihre Migration

Kurzer Plausibilitätscheck nach dem Wechsel:

curl https://api.lemondata.cc/v1/models \
  -H "Authorization: Bearer sk-lemon-xxx" | head -c 200

Wenn Sie eine JSON-Antwort mit Modell-Objekten sehen, ist alles bereit.

FAQ

Werden meine bestehenden Prompts funktionieren? Ja. LemonData ist vollständig OpenAI-kompatibel. Gleiches Request-Format, gleiches Response-Format.

Muss ich die Modellnamen ändern? Nein. gpt-4.1, gpt-4o, gpt-4.1-mini — alle Standard-OpenAI-Modellnamen funktionieren. LemonData verfügt zudem über ein dreistufiges Modell-Auflösungssystem: Exact Match → Alias-Suche (21 statische Aliase wie gpt4gpt-4, gpt-3.5gpt-3.5-turbo) → Fuzzy-Korrektur (Levenshtein-Distanz ≤ 3). So werden selbst veraltete Namen wie gpt-4-turbo oder Tippfehler wie gpt4o korrekt aufgelöst.

Was ist mit Streaming? Funktioniert identisch. SSE-Format, gleiche Chunk-Struktur. Bei nativen Anthropic/Gemini-Protokollen erhalten Sie das native SSE-Format des jeweiligen Providers (einschließlich Thinking Deltas für Extended Thinking).

Was ist mit function calling / Tools? Vollständig unterstützt. Gleiches Schema, gleiches Verhalten.

Was ist mit der Fehlerbehandlung? LemonData gibt OpenAI-kompatible Fehler mit zusätzlichen Agent-freundlichen Feldern zurück: retryable, did_you_mean, suggestions, retry_after. Die Standard-Fehlerbehandlung des OpenAI SDK funktioniert unverändert — die zusätzlichen Felder sind additiv.

Kann ich wieder zurückwechseln? Ja. Ändern Sie die zwei Zeilen einfach zurück. Es gibt keinen Lock-in. Kein proprietäres Format, keine Datenmigration.


Vollständige API-Dokumentation: docs.lemondata.cc
Quickstart-Guide: docs.lemondata.cc/quickstart

Share: