DeepSeek R1, açık kaynaklı modellerin kapalı kaynaklı akıl yürütme (reasoning) yetenekleriyle eşleşebileceğini kanıtladı. Ocak 2025'te MIT lisansı altında yayınlanan model, AIME 2024'te %79,8 ve MATH-500'de %97,3 puan alarak OpenAI'ın o1 serisiyle aynı seviyeye yerleşti.
Bir yıl sonra, R1 hala mevcut olan en maliyet etkin akıl yürütme modellerinden biri olmaya devam ediyor. 1 milyon token başına 0,55 USD / 2,19 USD maliyetiyle, benzer kapalı kaynaklı alternatiflerden 5-10 kat daha ucuzdur. İşte onu etkili bir şekilde kullanmak için bilmeniz gerekenler.
R1'i daha geniş kodlama ve amiral gemisi modelleriyle karşılaştırıyorsanız, bu sayfanın yanında kodlama modeli karşılaştırmasını ve fiyatlandırma karşılaştırmasını açık tutun. R1, her şeyi yapmasını istemek yerine onu karma bir model yığınına (stack) yerleştirdiğinizde en iyi performansı sergiler.
Mimari: Neden 671B Parametre, 671B Maliyet Demek Değildir?
DeepSeek R1, bir Mixture of Experts (MoE) mimarisi kullanır:
- Toplam 671 milyar parametre
- İleri geçiş (forward pass) başına 37 milyar aktif parametre
- DeepSeek-V3-Base temeli üzerine inşa edilmiştir
- 128K token bağlam penceresi (context window)
MoE tasarımı, R1'in 671B'lik bir modelin bilgi kapasitesine sahip olduğu ancak ~37B'lik bir modelin çıkarım (inference) maliyetine sahip olduğu anlamına gelir. Her girdi token'ı, yalnızca "uzman" ağların bir alt kümesini etkinleştirerek hesaplama gereksinimlerini yönetilebilir tutar.
Karşılaştırma için: yoğun (dense) bir 671B modelini çalıştırmak ~1,3 TB bellek gerektirir. R1'in MoE mimarisi, bunu Q4 quantization ile ~336 GB'a düşürerek üst düzey tüketici donanımlarında (512 GB'lı Mac Studio M3/M5 Ultra) çalıştırılabilir hale getirir.
Benchmark Performansı
Matematik
| Benchmark | DeepSeek R1 | OpenAI o1 | Claude Opus 4.6 |
|---|---|---|---|
| AIME 2024 | %79,8 | %83,3 | ~%65 |
| MATH-500 | %97,3 | %96,4 | ~%90 |
| Codeforces Elo | 2.029 | 1.891 | ~1.600 |
R1, çoğu matematiksel benchmarkta o1 ile eşleşir veya onu geçer. 2.029'luk Codeforces reytingi, onu "Candidate Master" seviyesine yerleştirerek güçlü insan programcılarla rekabet edebilir hale getirir.
Kodlama
R1, algoritmik kodlamada (rekabetçi programlama, matematiksel ispatlar) güçlüdür ancak yazılım mühendisliği görevleri (çok dosyalı refactoring, API tasarımı) için daha az optimize edilmiştir. SWE-Bench Verified üzerinde Claude Sonnet 4.6 (%72,7), R1'den önemli ölçüde daha iyi performans gösterir.
Algoritma uygulaması ve matematiksel kodlar için R1'i kullanın. Genel yazılım mühendisliği için Claude veya GPT-5 kullanın.
Akıl Yürütme (Reasoning)
R1'in düşünce zinciri (chain-of-thought) akıl yürütmesi şeffaf ve incelenebilirdir. Akıl yürütmenin gizli bir "düşünme" aşamasında gerçekleştiği kapalı kaynaklı modellerin aksine, R1'in akıl yürütme izleri çıktının bir parçasıdır. Bu, onu şunlar için değerli kılar:
- Akıl yürütme hatalarını ayıklama (modelin nerede yanlış yaptığını görebilirsiniz)
- Eğitim uygulamaları (öğrenciler akıl yürütme sürecini takip edebilir)
- Araştırma (LLM'lerin problemlere nasıl yaklaştığını analiz etme)
Eğitim İnovasyonu: İnsan Etiketi Olmadan Saf RL
R1'in eğitim yaklaşımı, alana yaptığı en önemli katkıydı.
Geleneksel yaklaşım: İnsan tarafından etiketlenmiş akıl yürütme örnekleri toplayın, ardından modeli bunları taklit etmesi için ince ayar (fine-tune) yapın.
DeepSeek'in yaklaşımı: Herhangi bir denetimli akıl yürütme verisi olmadan büyük ölçekli pekiştirmeli öğrenme (reinforcement learning - RL) yoluyla eğitim. Model (DeepSeek-R1-Zero), yalnızca RL yoluyla kendi kendini doğrulama, yansıtma ve uzun düşünce zinciri akıl yürütme yeteneklerini geliştirdi.
Pratik sonuç: R1, akıl yürütme yeteneklerinin pahalı insan notasyonları olmadan RL eğitiminden ortaya çıkabileceğini gösterdi. Bu, diğer laboratuvarların akıl yürütme modellerini daha verimli bir şekilde eğitmesinin önünü açtı.
Nihai R1 modeli iki aşamalı bir işlem hattı kullanır:
- Akıl yürütme kalıplarını geliştirmek için RL aşamaları
- Çıktı kalitesini temizlemek ve tekrarlama ile dil karışıklığı gibi sorunları azaltmak için SFT (denetimli ince ayar) aşamaları
Pratik Kullanım
R1 Ne Zaman Kullanılmalı?
- Matematiksel ispatlar ve türetmeler
- Rekabetçi programlama problemleri
- Algoritma tasarımı ve optimizasyonu
- Adım adım akıl yürütme gerektiren veri analizi
- Şeffaf akıl yürütmenin önemli olduğu araştırma görevleri
- Akıl yürütme yeteneğine ihtiyaç duyan bütçe odaklı uygulamalar
R1 Ne Zaman Kullanılmamalı?
- Genel yazılım mühendisliği (Claude Sonnet 4.6 kullanın)
- Yaratıcı yazarlık (Claude veya GPT-5 kullanın)
- Akıl yürütme yükünün gereksiz olduğu hızlı Soru-Cevaplar (GPT-4.1-mini kullanın)
- UI/frontend kod üretimi (R1 bu konuda daha zayıftır)
- Güncel bilgi gerektiren görevler (R1'in eğitim verilerinin bir kesme noktası vardır)
R1 Kullanımını Optimize Etme
R1'in akıl yürütme izleri kelime açısından zengin olabilir. Basit bir matematik problemi, nihai cevaptan önce 500'den fazla token'lık bir düşünce zinciri oluşturabilir. Bunu yönetmek için ipuçları:
max_tokensdeğerini uygun şekilde ayarlayın. R1 çıktıları, aynı görev için akıl yürütme yapmayan modellerden 3-5 kat daha uzun olabilir.- Nihai cevabı ayrıştırın. R1 genellikle sonucunu akıl yürütme izinden sonra net bir formatta sunar.
- Daha basit görevler için damıtılmış (distilled) versiyonları kullanın. DeepSeek; 1.5B, 7B, 8B, 14B, 32B ve 70B parametreli R1 distilled versiyonlarını sunar. 32B ve 70B versiyonları, çok daha düşük maliyetle akıl yürütme yeteneğinin çoğunu korur.
Fiyatlandırma Karşılaştırması
| Model | Girdi / 1M | Çıktı / 1M | Akıl Yürütme Yeteneği |
|---|---|---|---|
| DeepSeek R1 | 0,55 USD | 2,19 USD | Güçlü (%79,8 AIME) |
| OpenAI o3 | 2,00 USD | 8,00 USD | Güçlü (~%83 AIME) |
| Claude Opus 4.6 | 5,00 USD | 25,00 USD | İyi (~%65 AIME) |
| OpenAI o4-mini | 1,10 USD | 4,40 USD | İyi (hız için optimize edilmiş) |
R1, girdide o3'ten 4 kat, çıktıda ise 4 kat daha ucuzdur. Akıl yürütme kalitesinin karşılaştırılabilir olduğu iş yükleri için (matematik, algoritmalar), R1 önemli maliyet tasarrufu sağlar.
Açık Kaynak Ekosistemi
R1, MIT lisanslıdır. Şunları yapabilirsiniz:
- Kısıtlama olmaksızın ticari olarak kullanın
- Kendi verilerinizle ince ayar yapın
- Daha küçük modelleri eğitmek için damıtın (distill)
- Yerel olarak çalıştırın (tam model için Q4'te ~336 GB RAM gerektirir)
- Kendi altyapınızda konuşlandırın
Mevcut damıtılmış (distilled) versiyonlar:
| Versiyon | Parametreler | Kullanım Durumu |
|---|---|---|
| R1-Distill-Qwen-1.5B | 1.5B | Uç cihazlar, mobil |
| R1-Distill-Qwen-7B | 7B | Yerel geliştirme, test |
| R1-Distill-Llama-8B | 8B | Yerel geliştirme |
| R1-Distill-Qwen-14B | 14B | Üretim (hafif akıl yürütme) |
| R1-Distill-Qwen-32B | 32B | Üretim (güçlü akıl yürütme) |
| R1-Distill-Llama-70B | 70B | Üretim (tam kapasiteye yakın) |
32B damıtılmış versiyon, çoğu üretim dağıtımı için ideal noktadır: tam modelin maliyetinin çok küçük bir kısmıyla güçlü akıl yürütme sağlar.
Bu aynı zamanda çoğu ekibin ilk olarak değerlendirmesi gereken versiyondur. Doğrudan 671B'lik tam modele yönelmek, modeli pratikte olduğundan daha operasyonel olarak pahalı gösterebilir.
Birçok ekip için damıtılmış yol, gerçek ürün kararıdır. Tam model neyin mümkün olduğunu kanıtlar. Damıtılmış seri ise neyin pratik olduğuna karar verir.
Bu ayrımı gözden kaçırmak kolay ve görmezden gelmek pahalıdır.
R1 Aslında 2026 Yığınının (Stack) Neresine Uyuyor?
Ekiplerin yaptığı hata, R1'i her kapalı modelin evrensel bir alternatifi olarak görmektir.
R1 şu durumlarda en güçlüdür:
- İş algoritmik, matematiksel veya yoğun düşünce zinciri gerektiriyorsa
- Maliyet çok önemliyse
- Daha uzun akıl yürütme izlerini tolere edebiliyorsanız
- Gizli "düşünme" yerine şeffaf akıl yürütme istiyorsanız
R1 şu durumlarda daha zayıftır:
- Görev yüksek cilalı frontend üretimi ise
- İş akışı akıl yürütmeden ziyade yoğun inceleme (review) gerektiriyorsa
- En iyi çok dosyalı yazılım mühendisliği davranışına ihtiyacınız varsa
Bu nedenle birçok ekip artık DeepSeek R1'i yığındaki tek model olarak değil, daha geniş bir model havuzu içindeki akıl yürütme uzmanı olarak kullanıyor.
Başlarken
API Aracılığıyla
from openai import OpenAI
client = OpenAI(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{
"role": "user",
"content": "İlk n tek sayının toplamının n²'ye eşit olduğunu kanıtlayın."
}],
max_tokens=4096 # R1 akıl yürütme izleri uzun olabilir
)
print(response.choices[0].message.content)
Yerel Olarak Çalıştırma
# Ollama aracılığıyla (tam model için ~336GB RAM gerektirir)
ollama pull deepseek-r1:671b-q4
# Veya 32B damıtılmış versiyonu kullanın (~20GB RAM gerektirir)
ollama pull deepseek-r1:32b
Sırada Ne Var: DeepSeek V3 ve Ötesi
DeepSeek V3 (akıl yürütme odaklı olmayan halefi), geliştirilmiş genel yeteneklerle zaten yayınlandı. DeepSeek ekibi, açık kaynaklı modellerin neler başarabileceğinin sınırlarını zorlamaya devam ediyor.
Akıl yürütme görevleri için R1 en iyi açık kaynaklı seçenek olmaya devam ediyor. Genel görevler için, 1 milyon token başına 0,28 USD / 0,42 USD maliyetiyle DeepSeek V3, mevcut en maliyet etkin modellerden biridir.
Her ikisine de tek bir API anahtarı ile LemonData üzerinden erişilebilir. Kayıtta 1 USD ücretsiz kredi tanımlanır.
R1'i yerel olarak çalıştırmayı planlıyorsanız, bir sonraki okunacak sayfa Mac Studio yerel AI rehberidir. Bir gateway üzerinden yönlendirmeyi planlıyorsanız, birleşik AI gateway rehberi daha iyi bir sonraki adımdır.
Benchmarklar Şubat 2026 itibarıyla günceldir. DeepSeek R1 ağırlıkları huggingface.co/deepseek-ai adresinde mevcuttur.
