Quick Start
Inizia in 2 minuti con il monitoraggio automatico dei token.
API Reference - Events Ingestion
Documentazione API completa per l’ingestione degli eventi di utilizzo.
API Reference - Meters
Scopri come creare e configurare i contatori per la fatturazione.
Usage-Based Billing Guide
Guida completa alla fatturazione basata sull’utilizzo con i contatori.
Perfetto per app SaaS, chatbot AI, strumenti di generazione di contenuti e qualsiasi applicazione alimentata da LLM che richieda fatturazione basata sull’utilizzo.
Inizio Veloce
Inizia con il monitoraggio automatico dei token LLM in soli 2 minuti:Get Your API Keys
Ti serviranno due chiavi API:
- Chiave API di Dodo Payments: Ottienila dal Dashboard di Dodo Payments
- Chiave API del Fornitore LLM: Da AI SDK, OpenAI, Anthropic, Groq, ecc.
Create a Meter in Dodo Payments
Prima di monitorare l’utilizzo, crea un contatore nella tua dashboard di Dodo Payments:Per istruzioni dettagliate, consulta la Guida alla fatturazione basata sull’utilizzo.
- Accedi a Dodo Payments Dashboard
- Vai su Prodotti → Contatori
- Clicca “Crea contatore”
- Configura il tuo contatore:
- Nome del contatore: scegli un nome descrittivo (es. “Utilizzo token LLM”)
- Nome evento: imposta un identificatore evento univoco (es.
llm.chat_completion) - Tipo di aggregazione: seleziona
sumper sommare i conteggi dei token - Proprietà su cui operare: scegli cosa monitorare:
inputTokens- Monitora i token di input/promptoutputTokens- Monitora i token di output/completamento (include i token di ragionamento quando applicabile)totalTokens- Monitora i token combinati input + output
Il Nome evento che imposti qui deve corrispondere esattamente a quello che passi all’SDK (case-sensitive).
Configurazione
Configurazione del Tracker
Crea un tracker una sola volta all’avvio dell’applicazione con questi parametri richiesti:La tua chiave API di Dodo Payments. Ottienila dalla pagina delle chiavi API.
La modalità dell’ambiente per il tracker.
test_mode- Utilizza per sviluppo e testlive_mode- Utilizza per la produzione
Il nome dell’evento che attiva il tuo contatore. Deve corrispondere esattamente a quello configurato nel tuo contatore Dodo Payments (case-sensitive).
Questo nome evento collega l’utilizzo monitorato al contatore corretto per i calcoli di fatturazione.
Configurazione del Wrapper
Quando avvolgi il tuo client LLM, fornisci questi parametri:La tua istanza del client LLM (OpenAI, Anthropic, Groq, ecc.).
L’identificatore univoco del cliente per la fatturazione. Deve corrispondere al tuo ID cliente in Dodo Payments.
Dati aggiuntivi opzionali da allegare all’evento di monitoraggio. Utile per filtraggio e analisi.
Esempio Completo di Configurazione
Monitoraggio automatico: l’SDK monitora automaticamente l’utilizzo dei token in background senza modificare la risposta. Il tuo codice rimane pulito e identico all’utilizzo degli SDK originali del provider.
Fornitori Supportati
Il LLM Blueprint funziona senza problemi con tutti i principali fornitori e aggregatori di LLM:AI SDK (Vercel)
AI SDK (Vercel)
Monitora l’utilizzo con l’SDK Vercel AI per un supporto universale agli LLM.Metriche monitorate:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Nome del modello
Quando usi modelli con capacità di ragionamento tramite AI SDK (come il Gemini 2.5 Flash di Google con modalità thinking), i token di ragionamento sono automaticamente inclusi nel conteggio
outputTokens per una fatturazione accurata.OpenRouter
OpenRouter
Monitora l’utilizzo dei token per oltre 200 modelli tramite l’API unificata di OpenRouter.Metriche monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
OpenAI
OpenAI
Monitora automaticamente l’utilizzo dei token dei modelli GPT di OpenAI.Metriche monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
Anthropic Claude
Anthropic Claude
Monitora l’utilizzo dei token dei modelli Claude di Anthropic.Metriche monitorate:
input_tokens→inputTokensoutput_tokens→outputTokenstotalTokenscalcolato- Nome del modello
Groq
Groq
Monitora inferenze LLM ultra-veloci con Groq.Metriche monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
Google Gemini
Google Gemini
Monitora l’utilizzo dei token dei modelli Gemini di Google tramite il Google GenAI SDK.Metriche monitorate:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Versione del modello
Modalità Gemini Thinking: Quando usi i modelli Gemini con capacità di thinking/ragionamento (come Gemini 2.5 Pro), l’SDK include automaticamente
thoughtsTokenCount (token di ragionamento) in outputTokens per riflettere accuratamente il costo computazionale totale.Utilizzo Avanzato
Molteplici Fornitori
Monitora l’uso tra diversi fornitori LLM con tracker separati:Integrazione API Express.js
Esempio completo di integrazione del monitoraggio LLM in un’API Express.js:Cosa Viene Monitorato
Ogni chiamata API LLM invia automaticamente un evento di utilizzo a Dodo Payments con la seguente struttura:Campi Evento
Identificatore univoco per questo evento specifico. Generato automaticamente dall’SDK.Formato:
llm_[timestamp]_[random]L’ID cliente che hai fornito quando hai avvolto il client. Usato per la fatturazione.
Il nome evento che attiva il tuo contatore. Corrisponde alla configurazione del tracker.
Timestamp ISO 8601 in cui si è verificato l’evento.
Utilizzo dei token e dati aggiuntivi di monitoraggio:
-
inputTokens- Numero di token di input/prompt utilizzati -
outputTokens- Numero di token di output/completamento utilizzati (include i token di ragionamento quando applicabile) -
totalTokens- Token totali (input + output) -
model- Il modello LLM utilizzato (es. “gpt-4”) -
provider- Il provider LLM (se incluso nei metadati del wrapper) - Qualsiasi metadato personalizzato fornito al momento dell’avvolgimento del client
-
inputTokens- Numero di token di input/prompt utilizzati -
outputTokens- Numero di token di output/completamento utilizzati (inclusi i token di ragionamento quando applicabile) -
totalTokens- Token totali (input + output) -
model- Il modello LLM utilizzato (es. “gpt-4”) -
provider- Il fornitore LLM (se incluso nei metadati del wrapper) - Qualsiasi metadato personalizzato fornito durante l’involucro del client
Token di ragionamento: per i modelli con capacità di ragionamento,
outputTokens include automaticamente sia i token di completamento sia quelli di ragionamento.Il tuo contatore di Dodo Payments utilizza i campi
metadata (specialmente inputTokens, outputTokens o totalTokens) per calcolare l’utilizzo e la fatturazione.