Inizio Veloce
Inizia in 2 minuti con il monitoraggio automatico dei token.
Riferimento API - Ingestione Eventi
Documentazione API completa per l’ingestione degli eventi di utilizzo.
Riferimento API - Misuratori
Scopri come creare e configurare misuratori per la fatturazione.
Guida alla Fatturazione Basata sull'Uso
Guida completa alla fatturazione basata sull’uso con misuratori.
Perfetto per app SaaS, chatbot AI, strumenti di generazione di contenuti e qualsiasi applicazione alimentata da LLM che necessita di fatturazione basata sull’uso.
Inizio Veloce
Inizia con il monitoraggio automatico dei token LLM in soli 2 minuti:1
Installa l'SDK
Installa i Blueprint di Ingestione di Dodo Payments:
2
Ottieni le tue Chiavi API
Avrai bisogno di due chiavi API:
- Chiave API di Dodo Payments: Ottienila dal Dashboard di Dodo Payments
- Chiave API del Fornitore LLM: Da AI SDK, OpenAI, Anthropic, Groq, ecc.
3
Crea un Misuratore in Dodo Payments
Prima di monitorare l’uso, crea un misuratore nel tuo dashboard di Dodo Payments:Per istruzioni dettagliate, consulta la Guida alla Fatturazione Basata sull’Uso.
- Accedi al Dashboard di Dodo Payments
- Naviga a Prodotti → Misuratori
- Clicca su “Crea Misuratore”
- Configura il tuo misuratore:
- Nome Misuratore: Scegli un nome descrittivo (es. “Uso Token LLM”)
- Nome Evento: Imposta un identificatore evento unico (es.
llm.chat_completion) - Tipo di Aggregazione: Seleziona
sumper sommare i conteggi dei token - Su Proprietà: Scegli cosa monitorare:
inputTokens- Monitora i token di input/promptoutputTokens- Monitora i token di output/completamento (inclusi i token di ragionamento quando applicabile)totalTokens- Monitora i token combinati di input + output
Il Nome Evento che imposti qui deve corrispondere esattamente a ciò che passi all’SDK (case-sensitive).
4
Monitora l'Uso dei Token
Avvolgi il tuo client LLM e inizia a monitorare automaticamente:
Ecco fatto! Ogni chiamata API ora monitora automaticamente l’uso dei token e invia eventi a Dodo Payments per la fatturazione.
Configurazione
Configurazione del Tracker
Crea un tracker una sola volta all’avvio dell’applicazione con questi parametri richiesti:La tua chiave API di Dodo Payments. Ottienila dalla pagina delle Chiavi API.
La modalità ambiente per il tracker.
test_mode- Usa per sviluppo e testlive_mode- Usa per produzione
Il nome dell’evento che attiva il tuo misuratore. Deve corrispondere esattamente a ciò che hai configurato nel tuo misuratore di Dodo Payments (case-sensitive).
Questo nome evento collega il tuo utilizzo monitorato al misuratore corretto per i calcoli di fatturazione.
Configurazione del Wrapper
Quando avvolgi il tuo client LLM, fornisci questi parametri:La tua istanza del client LLM (OpenAI, Anthropic, Groq, ecc.).
L’identificatore cliente unico per la fatturazione. Questo dovrebbe corrispondere al tuo ID cliente in Dodo Payments.
Dati aggiuntivi opzionali da allegare all’evento di monitoraggio. Utile per filtrare e analizzare.
Esempio Completo di Configurazione
Monitoraggio Automatico: L’SDK monitora automaticamente l’uso dei token in background senza modificare la risposta. Il tuo codice rimane pulito e identico a quello che utilizza gli SDK del fornitore originale.
Fornitori Supportati
Il LLM Blueprint funziona senza problemi con tutti i principali fornitori e aggregatori di LLM:AI SDK (Vercel)
AI SDK (Vercel)
Monitora l’uso con l’AI SDK di Vercel per supporto universale LLM.Metriche Monitorate:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Nome del modello
Quando si utilizzano modelli capaci di ragionamento tramite AI SDK (come Google Gemini 2.5 Flash con modalità di pensiero), i token di ragionamento sono automaticamente inclusi nel conteggio dei
outputTokens per una fatturazione accurata.OpenRouter
OpenRouter
Monitora l’uso dei token su oltre 200 modelli tramite l’API unificata di OpenRouter.Metriche Monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
OpenAI
OpenAI
Monitora automaticamente l’uso dei token dai modelli GPT di OpenAI.Metriche Monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
Anthropic Claude
Anthropic Claude
Monitora l’uso dei token dai modelli Claude di Anthropic.Metriche Monitorate:
input_tokens→inputTokensoutput_tokens→outputTokens- Calcolato
totalTokens - Nome del modello
Groq
Groq
Monitora l’inferenza LLM ultra-veloce con Groq.Metriche Monitorate:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nome del modello
Google Gemini
Google Gemini
Monitora l’uso dei token dai modelli Gemini di Google tramite l’AI SDK di Google GenAI.Metriche Monitorate:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Versione del modello
Modalità di Pensiero di Gemini: Quando si utilizzano modelli Gemini con capacità di pensiero/razionamento (come Gemini 2.5 Pro), l’SDK include automaticamente
thoughtsTokenCount (token di ragionamento) in outputTokens per riflettere accuratamente il costo computazionale totale.Utilizzo Avanzato
Molteplici Fornitori
Monitora l’uso tra diversi fornitori LLM con tracker separati:Integrazione API Express.js
Esempio completo di integrazione del monitoraggio LLM in un’API Express.js:Cosa Viene Monitorato
Ogni chiamata API LLM invia automaticamente un evento di utilizzo a Dodo Payments con la seguente struttura:Campi Evento
Identificatore unico per questo specifico evento. Generato automaticamente dall’SDK.Formato:
llm_[timestamp]_[random]L’ID cliente fornito quando si avvolge il client. Usato per la fatturazione.
Il nome dell’evento che attiva il tuo misuratore. Corrisponde alla configurazione del tuo tracker.
Timestamp ISO 8601 quando si è verificato l’evento.
Utilizzo dei token e dati di monitoraggio aggiuntivi:
inputTokens- Numero di token di input/prompt utilizzatioutputTokens- Numero di token di output/completamento utilizzati (inclusi i token di ragionamento quando applicabile)totalTokens- Token totali (input + output)model- Il modello LLM utilizzato (es. “gpt-4”)provider- Il fornitore LLM (se incluso nei metadati del wrapper)- Qualsiasi metadato personalizzato fornito quando si avvolge il client
Token di Ragionamento: Per i modelli con capacità di ragionamento,
outputTokens include automaticamente sia i token di completamento che i token di ragionamento.Il tuo misuratore di Dodo Payments utilizza i campi
metadata (soprattutto inputTokens, outputTokens o totalTokens) per calcolare l’uso e la fatturazione.