Snabbstart
Kom igång på 2 minuter med automatisk tokenövervakning.
API-referens - Händelseinhämtning
Fullständig API-dokumentation för att hämta användningsevenemang.
API-referens - Mätare
Lär dig hur du skapar och konfigurerar mätare för fakturering.
Guide för användningsbaserad fakturering
Omfattande guide för användningsbaserad fakturering med mätare.
Perfekt för SaaS-appar, AI-chattbotar, innehållsgenereringsverktyg och alla LLM-drivna applikationer som behöver användningsbaserad fakturering.
Snabbstart
Kom igång med automatisk LLM-tokenövervakning på bara 2 minuter:1
Installera SDK
Installera Dodo Payments Ingestion Blueprints:
2
Hämta dina API-nycklar
Du behöver två API-nycklar:
- Dodo Payments API-nyckel: Hämta den från Dodo Payments Dashboard
- LLM-leverantörs API-nyckel: Från AI SDK, OpenAI, Anthropic, Groq, etc.
3
Skapa en mätare i Dodo Payments
Innan du spårar användning, skapa en mätare i din Dodo Payments-dashboard:För detaljerade instruktioner, se Guiden för användningsbaserad fakturering.
- Logga in på Dodo Payments Dashboard
- Navigera till Produkter → Mätare
- Klicka på “Skapa mätare”
- Konfigurera din mätare:
- Mätarnamn: Välj ett beskrivande namn (t.ex. “LLM Tokenanvändning”)
- Händelsenamn: Ställ in en unik händelseidentifierare (t.ex.
llm.chat_completion) - Aggregations typ: Välj
sumför att summera tokenantal - Över egenskap: Välj vad som ska spåras:
inputTokens- Spåra inmatnings-/prompt-tokensoutputTokens- Spåra utdata/slutförande-tokens (inkluderar resonemangstokens när det är tillämpligt)totalTokens- Spåra kombinerade inmatnings + utdata-tokens
Det Händelsenamn du ställer in här måste matcha exakt vad du skickar till SDK:n (skiftlägeskänsligt).
4
Spåra tokenanvändning
Wrap din LLM-klient och börja spåra automatiskt:
Det är allt! Varje API-anrop spårar nu automatiskt tokenanvändning och skickar händelser till Dodo Payments för fakturering.
Konfiguration
Tracker-konfiguration
Skapa en tracker en gång vid applikationsstart med dessa obligatoriska parametrar:Din Dodo Payments API-nyckel. Hämta den från API-nyckelsidan.
Miljöläget för trackern.
test_mode- Används för utveckling och testninglive_mode- Används för produktion
Händelsenamnet som utlöser din mätare. Måste matcha exakt vad du konfigurerade i din Dodo Payments-mätare (skiftlägeskänsligt).
Detta händelsenamn kopplar din spårade användning till rätt mätare för faktureringsberäkningar.
Wrapper-konfiguration
När du wrappar din LLM-klient, ange dessa parametrar:Din LLM-klientinstans (OpenAI, Anthropic, Groq, etc.).
Den unika kundidentifieraren för fakturering. Detta bör matcha din kund-ID i Dodo Payments.
Valfri ytterligare data att bifoga till spårningsevenemanget. Användbart för filtrering och analys.
Fullständig konfigurations exempel
Automatisk spårning: SDK:n spårar automatiskt tokenanvändning i bakgrunden utan att ändra svaret. Din kod förblir ren och identisk med att använda de ursprungliga leverantörens SDK:er.
Stödda leverantörer
LLM Blueprint fungerar sömlöst med alla större LLM-leverantörer och aggregatörer:AI SDK (Vercel)
AI SDK (Vercel)
Spåra användning med Vercel AI SDK för universellt LLM-stöd.Spårade mätvärden:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Modellnamn
När du använder modeller med resonemangskapacitet genom AI SDK (som Googles Gemini 2.5 Flash med tänkande läge), inkluderas resonemangstokens automatiskt i
outputTokens räkningen för korrekt fakturering.OpenRouter
OpenRouter
Spåra tokenanvändning över 200+ modeller via OpenRouters enhetliga API.Spårade mätvärden:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellnamn
OpenAI
OpenAI
Spåra tokenanvändning från OpenAIs GPT-modeller automatiskt.Spårade mätvärden:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellnamn
Anthropic Claude
Anthropic Claude
Spåra tokenanvändning från Anthropics Claude-modeller.Spårade mätvärden:
input_tokens→inputTokensoutput_tokens→outputTokens- Beräknad
totalTokens - Modellnamn
Groq
Groq
Spåra ultra-snabb LLM-inferens med Groq.Spårade mätvärden:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellnamn
Google Gemini
Google Gemini
Spåra tokenanvändning från Googles Gemini-modeller via Google GenAI SDK.Spårade mätvärden:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Modellversion
Gemini Tänkande Läge: När du använder Gemini-modeller med tänkande/resonemangskapacitet (som Gemini 2.5 Pro), inkluderar SDK:n automatiskt
thoughtsTokenCount (resonemangstokens) i outputTokens för att noggrant återspegla den fulla beräkningskostnaden.Avancerad användning
Flera leverantörer
Spåra användning över olika LLM-leverantörer med separata trackrar:Express.js API-integration
Fullständigt exempel på att integrera LLM-spårning i en Express.js API:Vad som spåras
Varje LLM API-anrop skickar automatiskt en användningsevenemang till Dodo Payments med följande struktur:Händelsefält
Unik identifierare för denna specifika händelse. Genereras automatiskt av SDK:n.Format:
llm_[timestamp]_[random]Kund-ID:t du angav när du wrappar klienten. Används för fakturering.
Händelsenamnet som utlöser din mätare. Matchar din tracker-konfiguration.
ISO 8601-tidsstämpel när händelsen inträffade.
Tokenanvändning och ytterligare spårningsdata:
inputTokens- Antal inmatnings-/prompt-tokens som användsoutputTokens- Antal utdata/slutförande-tokens som används (inkluderar resonemangstokens när det är tillämpligt)totalTokens- Totalt antal tokens (inmatning + utdata)model- Den LLM-modell som användes (t.ex. “gpt-4”)provider- Den LLM-leverantör (om inkluderad i wrapper-metadata)- All anpassad metadata du angav när du wrappar klienten
Resonemangstokens: För modeller med resonemangskapacitet,
outputTokens inkluderar automatiskt både slutförandetokens och resonemangstokens.Din Dodo Payments-mätare använder
metadata fälten (särskilt inputTokens, outputTokens eller totalTokens) för att beräkna användning och fakturering.