Quick Start
Bắt đầu trong 2 phút với theo dõi token tự động.
API Reference - Events Ingestion
Tài liệu API đầy đủ cho việc nhập sự kiện sử dụng.
API Reference - Meters
Tìm hiểu cách tạo và cấu hình đồng hồ đo để thanh toán.
Usage-Based Billing Guide
Hướng dẫn toàn diện cho thanh toán theo mức sử dụng với đồng hồ đo.
Hoàn hảo cho các ứng dụng SaaS, chatbot AI, công cụ tạo nội dung và bất kỳ ứng dụng hỗ trợ LLM nào cần thanh toán theo mức sử dụng.
Khởi động nhanh
Bắt đầu với việc theo dõi token LLM tự động chỉ trong 2 phút:Get Your API Keys
Bạn sẽ cần hai khóa API:
- Khóa API Dodo Payments: Lấy từ Bảng điều khiển Dodo Payments
- Khóa API Nhà cung cấp LLM: Từ AI SDK, OpenAI, Anthropic, Groq, v.v.
Create a Meter in Dodo Payments
Trước khi theo dõi mức sử dụng, hãy tạo một đồng hồ đo trong bảng điều khiển Dodo Payments của bạn:Để biết hướng dẫn chi tiết, xem Hướng dẫn Thanh toán theo Mức sử dụng.
- Đăng nhập vào Dodo Payments Dashboard
- Điều hướng đến Products → Meters
- Nhấp “Create Meter”
- Cấu hình đồng hồ đo của bạn:
- Meter Name: Chọn tên mô tả (ví dụ: “LLM Token Usage”)
- Event Name: Đặt định danh sự kiện độc nhất (ví dụ:
llm.chat_completion) - Aggregation Type: Chọn
sumđể cộng các lần xuất token - Over Property: Chọn thứ cần theo dõi:
inputTokens- Theo dõi token đầu vào/promptoutputTokens- Theo dõi token đầu ra/hoàn thành (bao gồm token suy luận khi áp dụng)totalTokens- Theo dõi tổng token đầu vào + đầu ra
Tên Event Name bạn đặt ở đây phải khớp chính xác với những gì bạn truyền vào SDK (phân biệt hoa thường).
Cấu hình
Cấu hình Trình theo dõi
Tạo một trình theo dõi một lần tại khởi động ứng dụng với các tham số yêu cầu sau:Khóa API Dodo Payments của bạn. Lấy từ trang API Keys.
Chế độ môi trường cho bộ theo dõi.
test_mode- Dùng cho phát triển và thử nghiệmlive_mode- Dùng cho production
Tên sự kiện kích hoạt đồng hồ đo của bạn. Phải khớp chính xác với cấu hình meter trên Dodo Payments (phân biệt hoa thường).
Tên sự kiện này liên kết mức sử dụng bạn theo dõi với đồng hồ đo đúng để tính toán thanh toán.
Cấu hình Bọc
Khi bọc client LLM của bạn, cung cấp các tham số sau:Phiên bản client LLM của bạn (OpenAI, Anthropic, Groq, v.v.).
Định danh khách hàng duy nhất cho việc thanh toán. Nên khớp với ID khách hàng trên Dodo Payments.
Dữ liệu bổ sung tùy chọn để đính kèm vào sự kiện theo dõi. Hữu ích cho việc lọc và phân tích.
Ví dụ Cấu hình Hoàn chỉnh
Theo dõi tự động: SDK tự động theo dõi mức sử dụng token trong nền mà không làm thay đổi phản hồi. Mã của bạn vẫn sạch sẽ và giống như khi sử dụng SDK nhà cung cấp ban đầu.
Các Nhà cung cấp Hỗ trợ
LLM Blueprint hoạt động liền mạch với tất cả các nhà cung cấp và tổng hợp LLM lớn:AI SDK (Vercel)
AI SDK (Vercel)
Theo dõi mức sử dụng với Vercel AI SDK để hỗ trợ LLM tổng quát.Các chỉ số được theo dõi:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Tên mô hình
Khi sử dụng các mô hình có khả năng suy luận qua AI SDK (như Gemini 2.5 Flash của Google với chế độ suy nghĩ), token suy luận tự động được bao gồm trong đếm
outputTokens để đảm bảo tính toán thanh toán chính xác.OpenRouter
OpenRouter
Theo dõi mức sử dụng token trên hơn 200 mô hình thông qua API hợp nhất của OpenRouter.Các chỉ số được theo dõi:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Tên mô hình
OpenAI
OpenAI
Theo dõi mức sử dụng token từ các mô hình GPT của OpenAI một cách tự động.Các chỉ số được theo dõi:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Tên mô hình
Anthropic Claude
Anthropic Claude
Theo dõi mức sử dụng token từ các mô hình Claude của Anthropic.Các chỉ số được theo dõi:
input_tokens→inputTokensoutput_tokens→outputTokenstotalTokensđược tính toán- Tên mô hình
Groq
Groq
Theo dõi suy luận LLM siêu nhanh với Groq.Các chỉ số được theo dõi:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Tên mô hình
Google Gemini
Google Gemini
Theo dõi mức sử dụng token từ các mô hình Gemini của Google thông qua Google GenAI SDK.Các chỉ số được theo dõi:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Phiên bản mô hình
Gemini Thinking Mode: Khi sử dụng các mô hình Gemini có khả năng suy luận/ thinking (như Gemini 2.5 Pro), SDK tự động bao gồm
thoughtsTokenCount (token suy luận) trong outputTokens để phản ánh chính xác toàn bộ chi phí tính toán.Sử dụng Nâng cao
Nhiều Nhà cung cấp
Theo dõi việc sử dụng trên các nhà cung cấp LLM khác nhau với các trình theo dõi riêng biệt:Tích hợp API Express.js
Ví dụ hoàn chỉnh về việc tích hợp theo dõi LLM vào một API Express.js:Những gì được theo dõi
Mỗi cuộc gọi API LLM tự động gửi một sự kiện sử dụng đến Dodo Payments với cấu trúc sau:Các Trường Sự kiện
Định danh duy nhất cho sự kiện cụ thể này. Được SDK tạo tự động.Định dạng:
llm_[timestamp]_[random]ID khách hàng bạn cung cấp khi bao bọc client. Được dùng để thanh toán.
Tên sự kiện kích hoạt đồng hồ đo của bạn. Khớp với cấu hình bộ theo dõi.
Dấu thời ISO 8601 khi sự kiện xảy ra.
Mức sử dụng token và dữ liệu theo dõi bổ sung:
-
inputTokens- Số token đầu vào/prompt đã dùng -
outputTokens- Số token đầu ra/hoàn thành đã dùng (bao gồm token suy luận khi áp dụng) -
totalTokens- Tổng token (đầu vào + đầu ra) -
model- Mô hình LLM được sử dụng (ví dụ: “gpt-4”) -
provider- Nhà cung cấp LLM (nếu được bao gồm trong metadata wrapper) - Bất kỳ metadata tùy chỉnh nào bạn cung cấp khi bao bọc client
-
inputTokens- Số lượng token đầu vào/lời nhắc đã sử dụng -
outputTokens- Số lượng token đầu ra/hoàn thành đã sử dụng (bao gồm token lý do khi có thể) -
totalTokens- Tổng số token (đầu vào + đầu ra) -
model- Mô hình LLM đã sử dụng (ví dụ: “gpt-4”) -
provider- Nhà cung cấp LLM (nếu có trong metadata bọc) - Bất kỳ metadata tùy chỉnh nào bạn đã cung cấp khi bọc client
Token suy luận: Với các mô hình có khả năng suy luận,
outputTokens tự động bao gồm cả token hoàn thành và token suy luận.Đồng hồ đo Dodo Payments của bạn sử dụng các trường
metadata (đặc biệt là inputTokens, outputTokens hoặc totalTokens) để tính toán mức sử dụng và thanh toán.