Quay lại blog

Hướng Dẫn Tích Hợp LLM API: Bắt Đầu Với GPT Claude Và Kimi

Tích Hợp APILLMGPTClaudeHướng Dẫn

Hướng Dẫn Tích Hợp LLM API: Bắt Đầu Với GPT Claude Và Kimi

Khi xây dựng sản phẩm AI việc gọi API là con đường nhanh nhất để triển khai thực tế. Bài viết này giúp bạn nắm khái niệm cốt lõi chọn đúng giao thức và chạy được request đầu tiên ngay.

1) Ba khái niệm quan trọng

  • API Key dùng để xác thực và tính phí
  • Base URL là địa chỉ endpoint gốc
  • Token là đơn vị tính chi phí input và output

2) Các giao thức phổ biến

OpenAI compatible /v1/chat/completions

Phổ biến nhất dễ tích hợp nhất tương thích nhiều SDK.

Claude native /v1/messages

Phù hợp khi bạn cần hành vi và tính năng đặc thù của Claude.

Responses API /v1/responses

Hữu ích cho các tác vụ agent và tool calling.

3) Quy trình tích hợp nhanh

  1. Tạo tài khoản và sinh API key
  2. Lưu key trong biến môi trường
  3. Test bằng curl
  4. Tích hợp Python hoặc Node.js
  5. Thêm retry timeout và streaming

4) Ví dụ Python

from openai import OpenAI

client = OpenAI(api_key="YOUR_KEY", base_url="https://api.example.com/v1")
resp = client.chat.completions.create(
    model="gpt-4o",
    messages=[{"role":"user","content":"Giải thích REST API trong một câu"}]
)
print(resp.choices[0].message.content)

5) Lợi ích của nền tảng tổng hợp API

  • Một key dùng nhiều model
  • Giao thức thống nhất cho GPT Claude Kimi DeepSeek Qwen
  • Theo dõi chi phí tập trung
  • Đổi model nhanh gần như không sửa logic nghiệp vụ

6) Lỗi thường gặp

  • 401 key sai hoặc header sai
  • 402 hết số dư
  • 429 chạm giới hạn tần suất nên dùng exponential backoff
  • Timeout tăng timeout client và bật stream

Kết luận

Hãy bắt đầu bằng request nhỏ sau đó tối ưu dần theo chất lượng độ trễ và chi phí. Khi kiến trúc gọi API được chuẩn hóa việc mở rộng sang nhiều nhà cung cấp sẽ rất nhẹ nhàng.