Démarrage rapide
Commencez en 2 minutes avec le suivi automatique des tokens.
Référence API - Ingestion des événements
Documentation API complète pour l’ingestion des événements d’utilisation.
Référence API - Compteurs
Apprenez à créer et configurer des compteurs pour la facturation.
Guide de facturation basée sur l'utilisation
Guide complet sur la facturation basée sur l’utilisation avec des compteurs.
Parfait pour les applications SaaS, les chatbots IA, les outils de génération de contenu et toute application alimentée par LLM nécessitant une facturation basée sur l’utilisation.
Démarrage rapide
Commencez avec le suivi automatique des tokens LLM en seulement 2 minutes :1
Installer le SDK
Installez les Ingestion Blueprints de Dodo Payments :
2
Obtenez vos clés API
Vous aurez besoin de deux clés API :
- Clé API Dodo Payments : Obtenez-la depuis le Tableau de bord Dodo Payments
- Clé API du fournisseur LLM : Depuis AI SDK, OpenAI, Anthropic, Groq, etc.
3
Créez un compteur dans Dodo Payments
Avant de suivre l’utilisation, créez un compteur dans votre tableau de bord Dodo Payments :Pour des instructions détaillées, consultez le Guide de facturation basée sur l’utilisation.
- Connectez-vous au Tableau de bord Dodo Payments
- Naviguez vers Produits → Compteurs
- Cliquez sur “Créer un compteur”
- Configurez votre compteur :
- Nom du compteur : Choisissez un nom descriptif (ex. : “Utilisation des tokens LLM”)
- Nom de l’événement : Définissez un identifiant d’événement unique (ex. :
llm.chat_completion) - Type d’agrégation : Sélectionnez
sumpour additionner les comptes de tokens - Sur propriété : Choisissez ce que vous souhaitez suivre :
inputTokens- Suivre les tokens d’entrée/indicationoutputTokens- Suivre les tokens de sortie/completion (inclut les tokens de raisonnement lorsque cela est applicable)totalTokens- Suivre les tokens combinés d’entrée + sortie
Le Nom de l’événement que vous définissez ici doit correspondre exactement à ce que vous passez au SDK (sensible à la casse).
4
Suivre l'utilisation des tokens
Enveloppez votre client LLM et commencez à suivre automatiquement :
C’est tout ! Chaque appel API suit maintenant automatiquement l’utilisation des tokens et envoie des événements à Dodo Payments pour la facturation.
Configuration
Configuration du tracker
Créez un tracker une fois au démarrage de l’application avec ces paramètres requis :Votre clé API Dodo Payments. Obtenez-la depuis la page des clés API.
Le mode d’environnement pour le tracker.
test_mode- Utilisez pour le développement et les testslive_mode- Utilisez pour la production
Le nom de l’événement qui déclenche votre compteur. Doit correspondre exactement à ce que vous avez configuré dans votre compteur Dodo Payments (sensible à la casse).
Ce nom d’événement lie votre utilisation suivie au bon compteur pour les calculs de facturation.
Configuration de l’enveloppeur
Lors de l’enveloppement de votre client LLM, fournissez ces paramètres :Votre instance de client LLM (OpenAI, Anthropic, Groq, etc.).
L’identifiant client unique pour la facturation. Cela doit correspondre à votre identifiant client dans Dodo Payments.
Données supplémentaires facultatives à attacher à l’événement de suivi. Utile pour le filtrage et l’analyse.
Exemple de configuration complète
Suivi automatique : Le SDK suit automatiquement l’utilisation des tokens en arrière-plan sans modifier la réponse. Votre code reste propre et identique à celui utilisant les SDK du fournisseur d’origine.
Fournisseurs pris en charge
Le LLM Blueprint fonctionne parfaitement avec tous les principaux fournisseurs et agrégateurs de LLM :AI SDK (Vercel)
AI SDK (Vercel)
Suivez l’utilisation avec le Vercel AI SDK pour un support LLM universel.Métriques suivies :
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Nom du modèle
Lors de l’utilisation de modèles capables de raisonnement via AI SDK (comme le Gemini 2.5 Flash de Google avec mode de réflexion), les tokens de raisonnement sont automatiquement inclus dans le compte de
outputTokens pour une facturation précise.OpenRouter
OpenRouter
Suivez l’utilisation des tokens à travers plus de 200 modèles via l’API unifiée d’OpenRouter.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
OpenAI
OpenAI
Suivez automatiquement l’utilisation des tokens des modèles GPT d’OpenAI.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
Anthropic Claude
Anthropic Claude
Suivez l’utilisation des tokens des modèles Claude d’Anthropic.Métriques suivies :
input_tokens→inputTokensoutput_tokens→outputTokens- Calculé
totalTokens - Nom du modèle
Groq
Groq
Suivez l’inférence LLM ultra-rapide avec Groq.Métriques suivies :
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Nom du modèle
Google Gemini
Google Gemini
Suivez l’utilisation des tokens des modèles Gemini de Google via le SDK Google GenAI.Métriques suivies :
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Version du modèle
Mode de réflexion Gemini : Lors de l’utilisation de modèles Gemini avec des capacités de réflexion/raisonnement (comme Gemini 2.5 Pro), le SDK inclut automatiquement
thoughtsTokenCount (tokens de raisonnement) dans outputTokens pour refléter avec précision le coût computationnel total.Utilisation avancée
Plusieurs fournisseurs
Suivez l’utilisation à travers différents fournisseurs LLM avec des trackers séparés :Intégration API Express.js
Exemple complet d’intégration du suivi LLM dans une API Express.js :Ce qui est suivi
Chaque appel API LLM envoie automatiquement un événement d’utilisation à Dodo Payments avec la structure suivante :Champs d’événement
Identifiant unique pour cet événement spécifique. Généré automatiquement par le SDK.Format :
llm_[timestamp]_[random]L’ID client que vous avez fourni lors de l’enveloppement du client. Utilisé pour la facturation.
Le nom de l’événement qui déclenche votre compteur. Correspond à votre configuration de tracker.
Horodatage ISO 8601 lorsque l’événement s’est produit.
Utilisation des tokens et données de suivi supplémentaires :
inputTokens- Nombre de tokens d’entrée/indication utilisésoutputTokens- Nombre de tokens de sortie/completion utilisés (inclut les tokens de raisonnement lorsque cela est applicable)totalTokens- Total des tokens (entrée + sortie)model- Le modèle LLM utilisé (ex. : “gpt-4”)provider- Le fournisseur LLM (si inclus dans les métadonnées de l’enveloppeur)- Toute métadonnée personnalisée que vous avez fournie lors de l’enveloppement du client
Tokens de raisonnement : Pour les modèles avec des capacités de raisonnement,
outputTokens inclut automatiquement à la fois les tokens de completion et les tokens de raisonnement.Votre compteur Dodo Payments utilise les champs
metadata (en particulier inputTokens, outputTokens ou totalTokens) pour calculer l’utilisation et la facturation.