DeepSeek R1 đã chứng minh rằng các mô hình mã nguồn mở có thể sánh ngang với khả năng suy luận của các mô hình mã nguồn đóng. Được phát hành vào tháng 1 năm 2025 theo giấy phép MIT, mô hình này đạt 79,8% trên AIME 2024 và 97,3% trên MATH-500, đưa nó vào cùng phân khúc với dòng o1 của OpenAI.
Một năm sau, R1 vẫn là một trong những mô hình suy luận hiệu quả nhất về chi phí hiện có. Với mức giá $0.55/$2.19 trên mỗi 1M token, nó rẻ hơn 5-10 lần so với các lựa chọn thay thế mã nguồn đóng tương đương. Dưới đây là những điều bạn cần biết để sử dụng nó một cách hiệu quả.
Nếu bạn đang so sánh R1 với bối cảnh lập trình và các mô hình hàng đầu rộng lớn hơn, hãy mở sẵn trang so sánh mô hình lập trình và so sánh giá cả cùng với trang này. R1 tỏa sáng nhất khi bạn đặt nó vào một hệ thống kết hợp nhiều mô hình thay vì yêu cầu nó làm mọi thứ.
Kiến trúc: Tại sao 671B Parameter không đồng nghĩa với chi phí của 671B
DeepSeek R1 sử dụng kiến trúc Mixture of Experts (MoE):
- Tổng cộng 671 tỷ parameter
- 37 tỷ parameter được kích hoạt trên mỗi forward pass
- Xây dựng trên nền tảng DeepSeek-V3-Base
- Context window 128K token
Thiết kế MoE có nghĩa là R1 có dung lượng tri thức của một mô hình 671B nhưng chi phí inference chỉ tương đương với một mô hình khoảng 37B. Mỗi token đầu vào chỉ kích hoạt một nhóm nhỏ các mạng "expert", giúp duy trì yêu cầu tính toán ở mức có thể quản lý được.
Để so sánh: việc chạy một mô hình dense 671B sẽ yêu cầu khoảng 1.3TB bộ nhớ. Kiến trúc MoE của R1 giúp giảm con số này xuống còn khoảng 336GB ở mức quantization Q4, giúp nó có thể chạy được trên phần cứng tiêu dùng cao cấp (Mac Studio M3/M5 Ultra với 512GB).
Hiệu suất Benchmark
Toán học
| Benchmark | DeepSeek R1 | OpenAI o1 | Claude Opus 4.6 |
|---|---|---|---|
| AIME 2024 | 79.8% | 83.3% | ~65% |
| MATH-500 | 97.3% | 96.4% | ~90% |
| Codeforces Elo | 2,029 | 1,891 | ~1,600 |
R1 ngang bằng hoặc vượt trội hơn o1 trên hầu hết các benchmark toán học. Xếp hạng Codeforces 2,029 đưa nó vào nhóm "Candidate Master", cạnh tranh với các lập trình viên con người trình độ cao.
Lập trình
R1 mạnh về lập trình thuật toán (lập trình thi đấu, chứng minh toán học) nhưng ít được tối ưu hóa hơn cho các tác vụ kỹ thuật phần mềm (refactoring đa tệp, thiết kế API). Trên SWE-Bench Verified, Claude Sonnet 4.6 (72,7%) vượt trội đáng kể so với R1.
Hãy sử dụng R1 để triển khai thuật toán và mã nguồn toán học. Sử dụng Claude hoặc GPT-5 cho kỹ thuật phần mềm tổng quát.
Suy luận
Quá trình suy luận chain-of-thought của R1 rất minh bạch và có thể kiểm tra được. Không giống như các mô hình mã nguồn đóng nơi việc suy luận diễn ra trong một giai đoạn "thinking" ẩn, các dấu vết suy luận của R1 là một phần của đầu ra. Điều này làm cho nó trở nên giá trị đối với:
- Debugging lỗi suy luận (bạn có thể thấy mô hình đã sai ở đâu)
- Ứng dụng giáo dục (học sinh có thể theo dõi quá trình suy luận)
- Nghiên cứu (phân tích cách các LLM tiếp cận vấn đề)
Cải tiến Huấn luyện: RL Thuần túy không cần Nhãn từ Con người
Cách tiếp cận huấn luyện của R1 là đóng góp quan trọng nhất của nó cho lĩnh vực này.
Cách tiếp cận truyền thống: thu thập các ví dụ suy luận do con người dán nhãn, sau đó fine-tune mô hình để bắt chước chúng.
Cách tiếp cận của DeepSeek: huấn luyện thông qua reinforcement learning (RL) quy mô lớn mà không cần bất kỳ dữ liệu suy luận có giám sát nào. Mô hình (DeepSeek-R1-Zero) đã tự phát triển khả năng tự xác minh, phản tư và suy luận chain-of-thought dài chỉ thông qua RL.
Ý nghĩa thực tế: R1 đã chứng minh rằng khả năng suy luận có thể nảy sinh từ việc huấn luyện RL mà không cần sự chú giải tốn kém của con người. Điều này đã mở ra cánh cửa cho các phòng thí nghiệm khác huấn luyện các mô hình suy luận hiệu quả hơn.
Mô hình R1 cuối cùng sử dụng quy trình hai giai đoạn:
- Các giai đoạn RL để phát triển các mô hình suy luận
- Các giai đoạn SFT (supervised fine-tuning) để làm sạch chất lượng đầu ra và giảm các vấn đề như lặp lại và trộn lẫn ngôn ngữ
Cách sử dụng Thực tế
Khi nào nên dùng R1
- Chứng minh và dẫn xuất toán học
- Các bài toán lập trình thi đấu
- Thiết kế và tối ưu hóa thuật toán
- Phân tích dữ liệu yêu cầu suy luận từng bước
- Các tác vụ nghiên cứu nơi suy luận minh bạch là quan trọng
- Các ứng dụng có ngân sách hạn hẹp nhưng cần khả năng suy luận
Khi nào không nên dùng R1
- Kỹ thuật phần mềm tổng quát (sử dụng Claude Sonnet 4.6)
- Viết lách sáng tạo (sử dụng Claude hoặc GPT-5)
- Hỏi đáp nhanh khi không cần quá trình suy luận (sử dụng GPT-4.1-mini)
- Tạo mã nguồn UI/frontend (R1 yếu hơn ở mảng này)
- Các tác vụ yêu cầu thông tin cập nhật mới nhất (dữ liệu huấn luyện của R1 có điểm dừng)
Tối ưu hóa việc sử dụng R1
Các dấu vết suy luận của R1 có thể rất dài dòng. Một bài toán toán học đơn giản có thể tạo ra hơn 500 token chain-of-thought trước khi đưa ra câu trả lời cuối cùng. Các mẹo để quản lý việc này:
- Thiết lập
max_tokensphù hợp. Đầu ra của R1 có thể dài hơn 3-5 lần so với các mô hình không suy luận cho cùng một tác vụ. - Trích xuất câu trả lời cuối cùng. R1 thường gói gọn kết luận của nó trong một định dạng rõ ràng sau dấu vết suy luận.
- Sử dụng các phiên bản distilled cho các tác vụ đơn giản hơn. DeepSeek cung cấp R1 distilled ở các mức 1.5B, 7B, 8B, 14B, 32B và 70B parameter. Các phiên bản 32B và 70B vẫn giữ được hầu hết khả năng suy luận với chi phí thấp hơn nhiều.
So sánh Giá cả
| Mô hình | Input / 1M | Output / 1M | Khả năng suy luận |
|---|---|---|---|
| DeepSeek R1 | $0.55 | $2.19 | Mạnh (79.8% AIME) |
| OpenAI o3 | $2.00 | $8.00 | Mạnh (~83% AIME) |
| Claude Opus 4.6 | $5.00 | $25.00 | Tốt (~65% AIME) |
| OpenAI o4-mini | $1.10 | $4.40 | Tốt (tối ưu cho tốc độ) |
R1 rẻ hơn 4 lần so với o3 ở cả đầu vào và đầu ra. Đối với các khối lượng công việc mà chất lượng suy luận tương đương (toán học, thuật toán), R1 mang lại sự tiết kiệm chi phí đáng kể.
Hệ sinh thái Mã nguồn mở
R1 được cấp phép MIT. Bạn có thể:
- Sử dụng thương mại mà không có hạn chế
- Fine-tune trên dữ liệu của riêng bạn
- Distill để huấn luyện các mô hình nhỏ hơn
- Chạy cục bộ (yêu cầu khoảng 336GB RAM ở mức Q4 cho mô hình đầy đủ)
- Triển khai trên cơ sở hạ tầng của riêng bạn
Các phiên bản distilled hiện có:
| Phiên bản | Parameter | Trường hợp sử dụng |
|---|---|---|
| R1-Distill-Qwen-1.5B | 1.5B | Thiết bị Edge, di động |
| R1-Distill-Qwen-7B | 7B | Phát triển cục bộ, thử nghiệm |
| R1-Distill-Llama-8B | 8B | Phát triển cục bộ |
| R1-Distill-Qwen-14B | 14B | Production (suy luận nhẹ) |
| R1-Distill-Qwen-32B | 32B | Production (suy luận mạnh) |
| R1-Distill-Llama-70B | 70B | Production (gần như đầy đủ khả năng) |
Phiên bản distilled 32B là lựa chọn tối ưu cho hầu hết các triển khai production: suy luận mạnh mẽ với chi phí chỉ bằng một phần nhỏ so với mô hình đầy đủ.
Đó cũng là phiên bản mà hầu hết các đội ngũ nên đánh giá trước tiên. Việc đi thẳng vào mô hình 671B đầy đủ khiến mô hình trông có vẻ tốn kém về mặt vận hành hơn so với thực tế.
Đối với nhiều đội ngũ, con đường distilled mới là quyết định sản phẩm thực sự. Mô hình đầy đủ chứng minh những gì có thể. Dòng distilled quyết định những gì thực tế.
Sự khác biệt đó rất dễ bị bỏ qua và cái giá phải trả cho việc phớt lờ nó là rất lớn.
Vị trí thực sự của R1 trong một Stack năm 2026
Sai lầm mà các đội ngũ thường mắc phải là coi R1 như một sự thay thế vạn năng cho mọi mô hình đóng.
R1 mạnh nhất khi:
- công việc mang tính thuật toán, toán học hoặc nặng về chain-of-thought
- chi phí là yếu tố quan trọng
- bạn có thể chấp nhận các dấu vết suy luận dài
- bạn muốn suy luận minh bạch thay vì "thinking" ẩn
R1 yếu hơn khi:
- tác vụ yêu cầu tạo frontend có độ hoàn thiện cao
- quy trình làm việc nặng về review hơn là nặng về suy luận
- bạn cần hành vi kỹ thuật phần mềm đa tệp tốt nhất
Đó là lý do tại sao nhiều đội ngũ hiện nay sử dụng DeepSeek R1 như một chuyên gia suy luận bên trong một nhóm mô hình rộng hơn, chứ không phải là mô hình duy nhất trong stack.
Bắt đầu
Qua API
from openai import OpenAI
client = OpenAI(
api_key="sk-lemon-xxx",
base_url="https://api.lemondata.cc/v1"
)
response = client.chat.completions.create(
model="deepseek-r1",
messages=[{
"role": "user",
"content": "Chứng minh rằng tổng của n số lẻ đầu tiên bằng n²."
}],
max_tokens=4096 # Dấu vết suy luận của R1 có thể dài
)
print(response.choices[0].message.content)
Chạy cục bộ
# Qua Ollama (yêu cầu ~336GB RAM cho mô hình đầy đủ)
ollama pull deepseek-r1:671b-q4
# Hoặc sử dụng phiên bản distilled 32B (yêu cầu ~20GB RAM)
ollama pull deepseek-r1:32b
Tiếp theo là gì: DeepSeek V3 và xa hơn nữa
DeepSeek V3 (phiên bản kế nhiệm không chuyên về suy luận) đã được phát hành với các khả năng tổng quát được cải thiện. Đội ngũ DeepSeek tiếp tục đẩy lùi các giới hạn về những gì mô hình mã nguồn mở có thể đạt được.
Đối với các tác vụ suy luận, R1 vẫn là lựa chọn mã nguồn mở tốt nhất. Đối với các tác vụ tổng quát, DeepSeek V3 với mức giá $0.28/$0.42 trên mỗi 1M token là một trong những mô hình hiệu quả nhất về chi phí hiện nay.
Cả hai đều có thể truy cập thông qua LemonData chỉ với một API key duy nhất. Tặng $1 credit miễn phí khi đăng ký.
Nếu bạn dự định chạy R1 cục bộ, hướng dẫn AI cục bộ trên Mac Studio là trang tiếp theo bạn nên đọc. Nếu bạn dự định điều hướng đến nó thông qua gateway, hướng dẫn unified AI gateway là bước tiếp theo phù hợp hơn.
Benchmark tính đến tháng 2 năm 2026. Trọng số (weights) của DeepSeek R1 có sẵn tại huggingface.co/deepseek-ai.
