Inicio Rápido
Comienza en 2 minutos con el seguimiento automático de tokens.
Referencia de API - Ingestión de Eventos
Documentación completa de la API para la ingestión de eventos de uso.
Referencia de API - Medidores
Aprende cómo crear y configurar medidores para la facturación.
Guía de Facturación Basada en el Uso
Guía completa sobre la facturación basada en el uso con medidores.
Perfecto para aplicaciones SaaS, chatbots de IA, herramientas de generación de contenido y cualquier aplicación impulsada por LLM que necesite facturación basada en el uso.
Inicio Rápido
Comienza con el seguimiento automático de tokens LLM en solo 2 minutos:1
Instalar el SDK
Instala los Planos de Ingestión de Dodo Payments:
2
Obtén tus Claves API
Necesitarás dos claves API:
- Clave API de Dodo Payments: Consíguela en el Tablero de Dodo Payments
- Clave API del Proveedor de LLM: De AI SDK, OpenAI, Anthropic, Groq, etc.
3
Crea un Medidor en Dodo Payments
Antes de rastrear el uso, crea un medidor en tu tablero de Dodo Payments:Para instrucciones detalladas, consulta la Guía de Facturación Basada en el Uso.
- Inicia sesión en el Tablero de Dodo Payments
- Navega a Productos → Medidores
- Haz clic en “Crear Medidor”
- Configura tu medidor:
- Nombre del Medidor: Elige un nombre descriptivo (por ejemplo, “Uso de Tokens LLM”)
- Nombre del Evento: Establece un identificador de evento único (por ejemplo,
llm.chat_completion) - Tipo de Agregación: Selecciona
sumpara sumar los conteos de tokens - Sobre Propiedad: Elige qué rastrear:
inputTokens- Rastrear tokens de entrada/promptoutputTokens- Rastrear tokens de salida/completación (incluye tokens de razonamiento cuando sea aplicable)totalTokens- Rastrear tokens combinados de entrada + salida
El Nombre del Evento que establezcas aquí debe coincidir exactamente con lo que envías al SDK (sensible a mayúsculas).
4
Rastrear el Uso de Tokens
Envuelve tu cliente LLM y comienza a rastrear automáticamente:
¡Eso es todo! Cada llamada a la API ahora rastrea automáticamente el uso de tokens y envía eventos a Dodo Payments para la facturación.
Configuración
Configuración del Rastreador
Crea un rastreador una vez al inicio de la aplicación con estos parámetros requeridos:Tu clave API de Dodo Payments. Consíguela en la página de Claves API.
El modo de entorno para el rastreador.
test_mode- Usar para desarrollo y pruebaslive_mode- Usar para producción
El nombre del evento que activa tu medidor. Debe coincidir exactamente con lo que configuraste en tu medidor de Dodo Payments (sensible a mayúsculas).
Este nombre de evento vincula tu uso rastreado al medidor correcto para los cálculos de facturación.
Configuración del Wrapper
Al envolver tu cliente LLM, proporciona estos parámetros:Tu instancia de cliente LLM (OpenAI, Anthropic, Groq, etc.).
El identificador único del cliente para la facturación. Esto debe coincidir con tu ID de cliente en Dodo Payments.
Datos adicionales opcionales para adjuntar al evento de seguimiento. Útil para filtrado y análisis.
Ejemplo Completo de Configuración
Seguimiento Automático: El SDK rastrea automáticamente el uso de tokens en segundo plano sin modificar la respuesta. Tu código permanece limpio e idéntico al uso de los SDKs del proveedor original.
Proveedores Soportados
El Plano LLM funciona sin problemas con todos los principales proveedores y agregadores de LLM:AI SDK (Vercel)
AI SDK (Vercel)
Rastrea el uso con el SDK de IA de Vercel para soporte universal de LLM.Métricas Rastreadas:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Nombre del modelo
Al usar modelos con capacidades de razonamiento a través del SDK de IA (como el Gemini 2.5 Flash de Google en modo de pensamiento), los tokens de razonamiento se incluyen automáticamente en el conteo de
outputTokens para una facturación precisa.OpenRouter
OpenRouter
Rastrea el uso de tokens a través de más de 200 modelos mediante la API unificada de OpenRouter.Métricas Rastreadas:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nombre del modelo
OpenAI
OpenAI
Rastrea automáticamente el uso de tokens de los modelos GPT de OpenAI.Métricas Rastreadas:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nombre del modelo
Anthropic Claude
Anthropic Claude
Rastrea el uso de tokens de los modelos Claude de Anthropic.Métricas Rastreadas:
input_tokens→inputTokensoutput_tokens→outputTokenstotalTokenscalculado- Nombre del modelo
Groq
Groq
Rastrea la inferencia ultra-rápida de LLM con Groq.Métricas Rastreadas:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nombre del modelo
Google Gemini
Google Gemini
Rastrea el uso de tokens de los modelos Gemini de Google a través del SDK de Google GenAI.Métricas Rastreadas:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Versión del modelo
Modo de Pensamiento de Gemini: Al usar modelos Gemini con capacidades de pensamiento/razonamiento (como Gemini 2.5 Pro), el SDK incluye automáticamente
thoughtsTokenCount (tokens de razonamiento) en outputTokens para reflejar con precisión el costo computacional total.Uso Avanzado
Múltiples Proveedores
Rastrea el uso a través de diferentes proveedores de LLM con rastreadores separados:Integración de API de Express.js
Ejemplo completo de integración del seguimiento de LLM en una API de Express.js:Qué se Rastrea
Cada llamada a la API de LLM envía automáticamente un evento de uso a Dodo Payments con la siguiente estructura:Campos del Evento
Identificador único para este evento específico. Generado automáticamente por el SDK.Formato:
llm_[timestamp]_[random]El ID del cliente que proporcionaste al envolver el cliente. Usado para la facturación.
El nombre del evento que activa tu medidor. Coincide con la configuración de tu rastreador.
Marca de tiempo ISO 8601 cuando ocurrió el evento.
Uso de tokens y datos adicionales de seguimiento:
inputTokens- Número de tokens de entrada/prompt utilizadosoutputTokens- Número de tokens de salida/completación utilizados (incluye tokens de razonamiento cuando sea aplicable)totalTokens- Total de tokens (entrada + salida)model- El modelo LLM utilizado (por ejemplo, “gpt-4”)provider- El proveedor de LLM (si se incluye en los metadatos del wrapper)- Cualquier metadato personalizado que proporcionaste al envolver el cliente
Tokens de Razonamiento: Para modelos con capacidades de razonamiento,
outputTokens incluye automáticamente tanto los tokens de completación como los tokens de razonamiento.Tu medidor de Dodo Payments utiliza los campos
metadata (especialmente inputTokens, outputTokens o totalTokens) para calcular el uso y la facturación.