5 Dakikada OpenAI'dan LemonData'ya Geçiş Yapın
OpenAI'ın resmi API'ından LemonData'ya geçmek sadece iki satır değişikliği gerektirir. Mevcut kodunuz, prompt'larınız ve model isimlerinizin tamamı olduğu gibi çalışır. Ayrıca aynı API key üzerinden OpenAI, Anthropic, Google, DeepSeek ve daha fazlasını kapsayan 300'den fazla modele erişim sağlarsınız.
Kısa Özet
- lemondata.cc adresinden kaydolun ve bir API key alın (1$ ücretsiz kredi kazanırsınız)
base_urlveapi_keybilgilerinizi değiştirin- Tamamdır. Geri kalan her şey aynı kalır.
Python (OpenAI SDK)
# Önce — OpenAI resmi
from openai import OpenAI
client = OpenAI(api_key="sk-openai-xxx")
# Sonra — LemonData (2 satırı değiştirin)
from openai import OpenAI
client = OpenAI(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
# Geri kalan her şey aynı kalır
response = client.chat.completions.create(
model="gpt-4.1",
messages=[{"role": "user", "content": "Hello!"}]
)
print(response.choices[0].message.content)
Streaming, function calling, vision: hepsi birebir aynı çalışır. OpenAI Python SDK, istekleri yönlendirdiğiniz base_url adresine gönderir.
Node.js (OpenAI SDK)
// Önce — OpenAI resmi
import OpenAI from 'openai';
const openai = new OpenAI({ apiKey: 'sk-openai-xxx' });
// Sonra — LemonData (2 satırı değiştirin)
import OpenAI from 'openai';
const openai = new OpenAI({
apiKey: 'sk-lemon-xxx',
baseURL: 'https://api.lemondata.cc/v1',
});
// Geri kalan her şey aynı kalır
const completion = await openai.chat.completions.create({
model: 'gpt-4.1',
messages: [{ role: 'user', content: 'Hello!' }],
});
console.log(completion.choices[0].message.content);
Not: Node.js SDK'sında base_url değil, baseURL (camelCase) kullanılır.
curl
# Önce — OpenAI resmi
curl https://api.openai.com/v1/chat/completions \
-H "Authorization: Bearer sk-openai-xxx" \
-H "Content-Type: application/json" \
-d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'
# Sonra — LemonData (URL ve key'i değiştirin)
curl https://api.lemondata.cc/v1/chat/completions \
-H "Authorization: Bearer sk-lemon-xxx" \
-H "Content-Type: application/json" \
-d '{"model":"gpt-4.1","messages":[{"role":"user","content":"Hello"}]}'
Aynı endpoint yolu, aynı istek gövdesi (request body), aynı yanıt formatı.
Ortam Değişkeni Yaklaşımı
Eğer kodunuz ortam değişkenlerinden (environment variables) okuma yapıyorsa (ki öyle olmalı), koda dokunmanıza bile gerek kalmaz:
# Önce
export OPENAI_API_KEY="sk-openai-xxx"
export OPENAI_BASE_URL="https://api.openai.com/v1"
# Sonra
export OPENAI_API_KEY="sk-lemon-xxx"
export OPENAI_BASE_URL="https://api.lemondata.cc/v1"
OpenAI SDK, OPENAI_API_KEY ve OPENAI_BASE_URL değerlerini ortamdan otomatik olarak okur. Sıfır kod değişikliği.
Geçiş Sonrası Elde Ettikleriniz
LemonData'ya geçtiğinizde, tam OpenAI uyumluluğunu korurken ek yeteneklere de erişim kazanırsınız:
300+ Model, Tek API Key
Mevcut OpenAI kodunuz artık Claude, Gemini, DeepSeek, Mistral ve yüzlerce diğer modelle çalışır; sadece model parametresini değiştirmeniz yeterlidir:
# GPT-4.1 (OpenAI) — 1M token başına $2.00/$8.00
response = client.chat.completions.create(model="gpt-4.1", messages=messages)
# Claude Sonnet 4.6 (Anthropic) — 1M token başına $3.00/$15.00
response = client.chat.completions.create(model="claude-sonnet-4-6", messages=messages)
# Gemini 2.5 Pro (Google)
response = client.chat.completions.create(model="gemini-2.5-pro", messages=messages)
# DeepSeek V3 — 1M token başına $0.28/$0.42 ("deepseek-chat" veya "deepseek-v3" alias'ını kullanın)
response = client.chat.completions.create(model="deepseek-chat", messages=messages)
Çok kanallı yedeklilik (multi-channel redundancy), bir sağlayıcıda sorun yaşanması durumunda gateway'in otomatik olarak alternatif bir kanala yönlendirme yapması anlamına gelir. Kod değişikliği gerekmez.
Yerel Protokol Erişimi (Opsiyonel)
Anthropic veya Google modellerini tüm yerel yetenekleriyle (extended thinking, cache_control ile prompt caching, Google search grounding) kullanmak isterseniz, LemonData aynı base URL üzerinden onların yerel protokollerini destekler:
# Anthropic yerel — Anthropic SDK kullanın
# Extended thinking, cache_control, Citations özelliklerinin tamamı yerel olarak çalışır
from anthropic import Anthropic
client = Anthropic(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc" # /v1 yok — Anthropic SDK /v1/messages kısmını kendisi ekler
)
# Google Gemini yerel — Google SDK kullanın
# Search grounding, grounding_metadata özelliklerinin tamamı yerel olarak çalışır
from google import genai
client = genai.Client(
api_key="sk-lemon-xxx",
http_options={"base_url": "https://api.lemondata.cc"} # Yol son eki yok — SDK /v1beta/models/... kısmını ekler
)
Bu tamamen isteğe bağlıdır. OpenAI uyumlu endpoint tüm modeller için çalışır. Ancak Anthropic'in extended thinking veya Google'ın grounding özelliklerine ihtiyacınız varsa, yerel protokol erişimi size herhangi bir format dönüştürme kaybı olmadan bu özellikleri sunar.
Yaygın Entegrasyon Geçişleri
Cursor
Settings → Models → OpenAI API Key:
- API Key:
sk-lemon-xxx - Base URL:
https://api.lemondata.cc/v1
LangChain
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
model="gpt-4.1",
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
Vercel AI SDK
import { createOpenAI } from '@ai-sdk/openai';
const lemondata = createOpenAI({
apiKey: 'sk-lemon-xxx',
baseURL: 'https://api.lemondata.cc/v1',
});
const result = await generateText({
model: lemondata('gpt-4.1'),
prompt: 'Hello!',
});
LiteLLM
import litellm
response = litellm.completion(
model="openai/gpt-4.1",
messages=[{"role": "user", "content": "Hello!"}],
api_key="sk-lemon-xxx",
api_base="https://api.lemondata.cc/v1"
)
Geçişinizi Doğrulayın
Geçişten sonra hızlı bir sağlamlık kontrolü:
curl https://api.lemondata.cc/v1/models \
-H "Authorization: Bearer sk-lemon-xxx" | head -c 200
Model nesnelerini içeren bir JSON yanıtı görüyorsanız, her şey yolunda demektir.
SSS
Mevcut prompt'larım çalışacak mı? Evet. LemonData tam OpenAI uyumludur. Aynı istek formatı, aynı yanıt formatı.
Model isimlerini değiştirmem gerekiyor mu? Hayır. gpt-4.1, gpt-4o, gpt-4.1-mini — tüm standart OpenAI model isimleri çalışır. LemonData ayrıca üç katmanlı bir model çözümleme sistemine sahiptir: tam eşleşme → alias araması (gpt4 → gpt-4, gpt-3.5 → gpt-3.5-turbo gibi 21 statik alias) → bulanık düzeltme (Levenshtein mesafesi ≤ 3). Bu sayede gpt-4-turbo gibi kullanımdan kaldırılan isimler veya gpt4o gibi yazım hataları bile doğru şekilde çözümlenir.
Peki ya streaming? Birebir aynı çalışır. SSE formatı, aynı chunk yapısı. Yerel Anthropic/Gemini protokolleri için, her sağlayıcının kendi yerel SSE formatını alırsınız (extended thinking için thinking delta'ları dahil).
Function calling / tools desteği var mı? Tamamen destekleniyor. Aynı şema, aynı davranış.
Hata yönetimi (error handling) nasıl? LemonData, OpenAI uyumlu hataların yanı sıra agent dostu ek alanlar döndürür: retryable, did_you_mean, suggestions, retry_after. Standart OpenAI SDK hata yönetimi değişmeden çalışır; ek alanlar tamamlayıcı niteliktedir.
Geri dönebilir miyim? Evet. İki satırı eski haline getirin. Herhangi bir platforma bağımlılık (lock-in) yoktur. Tescilli bir format veya veri taşıma süreci gerekmez.
Tam API dokümantasyonu: docs.lemondata.cc
Hızlı başlangıç kılavuzu: docs.lemondata.cc/quickstart
