Démarrage rapide
Commencez en 2 minutes avec le suivi automatique des tokens.
Référence API - Ingestion des événements
Documentation API complète pour l’ingestion des événements d’utilisation.
Référence API - Compteurs
Apprenez à créer et configurer des compteurs pour la facturation.
Guide de facturation basée sur l'utilisation
Guide complet sur la facturation basée sur l’utilisation avec des compteurs.
Parfait pour les applications SaaS, les chatbots IA, les outils de génération de contenu et toute application alimentée par LLM nécessitant une facturation basée sur l’utilisation.
Démarrage rapide
Commencez avec le suivi automatique des tokens LLM en seulement 2 minutes :Obtenez vos clés API
Vous aurez besoin de deux clés API :
- Clé API Dodo Payments : Obtenez-la depuis le Tableau de bord Dodo Payments
- Clé API du fournisseur LLM : Depuis AI SDK, OpenAI, Anthropic, Groq, etc.
Créez un compteur dans Dodo Payments
Avant de suivre l’utilisation, créez un compteur dans votre tableau de bord Dodo Payments :Pour des instructions détaillées, consultez le Guide de facturation basée sur l’utilisation.
- Connectez-vous au Tableau de bord Dodo Payments
- Naviguez vers Produits → Compteurs
- Cliquez sur “Créer un compteur”
- Configurez votre compteur :
- Nom du compteur : Choisissez un nom descriptif (par exemple, “Utilisation du jeton LLM”)
- Nom de l’événement : Définissez un identifiant d’événement unique (par exemple,
llm.chat_completion) - Type d’agrégation : Sélectionnez
sumpour additionner les comptes de jetons - Sur propriété : Choisissez ce que vous souhaitez suivre :
inputTokens- Suivre les jetons d’entrée/indicationoutputTokens- Suivre les jetons de sortie/complétion (inclut les jetons de raisonnement lorsque cela est applicable)totalTokens- Suivre les jetons combinés d’entrée + sortie
Le Nom de l’événement que vous définissez ici doit correspondre exactement à ce que vous passez au SDK (sensible à la casse).
Configuration
Configuration du tracker
Créez un tracker une fois au démarrage de l’application avec ces paramètres requis :Votre clé API Dodo Payments. Obtenez-la depuis la page des clés API.
Le mode d’environnement pour le tracker.
test_mode- Utilisez pour le développement et les testslive_mode- Utilisez pour la production
Le nom de l’événement qui déclenche votre compteur. Doit correspondre exactement à ce que vous avez configuré dans votre compteur Dodo Payments (sensible à la casse).
Ce nom d’événement lie votre utilisation suivie au bon compteur pour les calculs de facturation.
Configuration de l’enveloppeur
Lors de l’enveloppement de votre client LLM, fournissez ces paramètres :Votre instance de client LLM (OpenAI, Anthropic, Groq, etc.).
L’identifiant client unique pour la facturation. Cela doit correspondre à votre identifiant client dans Dodo Payments.
Données supplémentaires facultatives à attacher à l’événement de suivi. Utile pour le filtrage et l’analyse.
Exemple de configuration complète
Suivi automatique : Le SDK suit automatiquement l’utilisation des tokens en arrière-plan sans modifier la réponse. Votre code reste propre et identique à celui utilisant les SDK du fournisseur d’origine.
Fournisseurs pris en charge
Le LLM Blueprint fonctionne parfaitement avec tous les principaux fournisseurs et agrégateurs de LLM :AI SDK (Vercel)
AI SDK (Vercel)
Suivez l’utilisation avec le Vercel AI SDK pour un support LLM universel.Métriques suivies :
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Nom du modèle
Lors de l’utilisation de modèles capables de raisonnement via l’AI SDK (comme le Gemini 2.5 Flash de Google avec le mode de réflexion), les jetons de raisonnement sont automatiquement inclus dans le compte de
outputTokens pour une facturation précise.OpenRouter
OpenRouter
Suivez l’utilisation des tokens à travers plus de 200 modèles via l’API unifiée d’OpenRouter.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
OpenAI
OpenAI
Suivez automatiquement l’utilisation des tokens des modèles GPT d’OpenAI.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
Anthropic Claude
Anthropic Claude
Suivez l’utilisation des tokens des modèles Claude d’Anthropic.Métriques suivies :
input_tokens→inputTokensoutput_tokens→outputTokens- Calculé
totalTokens - Nom du modèle
Groq
Groq
Suivez l’inférence LLM ultra-rapide avec Groq.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
Google Gemini
Google Gemini
Suivez l’utilisation des tokens des modèles Gemini de Google via le SDK Google GenAI.Métriques suivies :
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Version du modèle
Mode de réflexion Gemini : Lors de l’utilisation de modèles Gemini avec des capacités de réflexion/raisonnement (comme Gemini 2.5 Pro), le SDK inclut automatiquement
thoughtsTokenCount (jetons de raisonnement) dans outputTokens pour refléter avec précision le coût computationnel total.Utilisation avancée
Plusieurs fournisseurs
Suivez l’utilisation à travers différents fournisseurs LLM avec des trackers séparés :Intégration API Express.js
Exemple complet d’intégration du suivi LLM dans une API Express.js :Ce qui est suivi
Chaque appel API LLM envoie automatiquement un événement d’utilisation à Dodo Payments avec la structure suivante :Champs d’événement
Identifiant unique pour cet événement spécifique. Généré automatiquement par le SDK.Format :
llm_[timestamp]_[random]L’ID client que vous avez fourni lors de l’enveloppement du client. Utilisé pour la facturation.
Le nom de l’événement qui déclenche votre compteur. Correspond à votre configuration de tracker.
Horodatage ISO 8601 lorsque l’événement s’est produit.
Utilisation des tokens et données de suivi supplémentaires :
inputTokens- Nombre de jetons d’entrée/indication utilisésoutputTokens- Nombre de jetons de sortie/complétion utilisés (inclut les jetons de raisonnement lorsque cela est applicable)totalTokens- Total des jetons (entrée + sortie)model- Le modèle LLM utilisé (par exemple, “gpt-4”)provider- Le fournisseur LLM (si inclus dans les métadonnées de l’enveloppe)- Toute métadonnée personnalisée que vous avez fournie lors de l’enveloppement du client
Jetons de raisonnement : Pour les modèles avec des capacités de raisonnement,
outputTokens inclut automatiquement à la fois les jetons de complétion et les jetons de raisonnement.Votre compteur Dodo Payments utilise les champs
metadata (en particulier inputTokens, outputTokens ou totalTokens) pour calculer l’utilisation et la facturation.