Schnellstart
In 2 Minuten mit automatischer Token-Verfolgung starten.
API-Referenz - Ereignisaufnahme
Vollständige API-Dokumentation zur Aufnahme von Nutzungsevents.
API-Referenz - Zähler
Erfahren Sie, wie Sie Zähler für die Abrechnung erstellen und konfigurieren.
Leitfaden zur nutzungsbasierten Abrechnung
Umfassender Leitfaden zur nutzungsbasierten Abrechnung mit Zählern.
Perfekt für SaaS-Apps, KI-Chatbots, Content-Generierungstools und jede LLM-gestützte Anwendung, die eine nutzungsbasierte Abrechnung benötigt.
Schnellstart
Starten Sie mit der automatischen LLM-Token-Verfolgung in nur 2 Minuten:1
SDK installieren
Installieren Sie die Dodo Payments Ingestion Blueprints:
2
Holen Sie sich Ihre API-Schlüssel
Sie benötigen zwei API-Schlüssel:
- Dodo Payments API-Schlüssel: Holen Sie ihn sich vom Dodo Payments Dashboard
- LLM-Anbieter API-Schlüssel: Von AI SDK, OpenAI, Anthropic, Groq usw.
3
Erstellen Sie einen Zähler in Dodo Payments
Bevor Sie die Nutzung verfolgen, erstellen Sie einen Zähler in Ihrem Dodo Payments-Dashboard:Für detaillierte Anweisungen siehe den Leitfaden zur nutzungsbasierten Abrechnung.
- Anmelden beim Dodo Payments Dashboard
- Navigieren Sie zu Produkte → Zähler
- Klicken Sie auf “Zähler erstellen”
- Konfigurieren Sie Ihren Zähler:
- Zählername: Wählen Sie einen beschreibenden Namen (z. B. “LLM Token Nutzung”)
- Ereignisname: Legen Sie einen eindeutigen Ereignisbezeichner fest (z. B.
llm.chat_completion) - Aggregationsart: Wählen Sie
sum, um die Tokenanzahl zu summieren - Über Eigenschaft: Wählen Sie, was verfolgt werden soll:
inputTokens- Verfolgen Sie Eingabe-/Prompt-TokenoutputTokens- Verfolgen Sie Ausgabe-/Vervollständigungs-Token (einschließlich Denk-Token, wenn zutreffend)totalTokens- Verfolgen Sie kombinierte Eingabe + Ausgabe-Token
Der Ereignisname, den Sie hier festlegen, muss genau mit dem übereinstimmen, was Sie an das SDK übergeben (groß- und kleinschreibungssensitiv).
4
Token-Nutzung verfolgen
Umwickeln Sie Ihren LLM-Client und beginnen Sie automatisch mit der Verfolgung:
Das war’s! Jeder API-Aufruf verfolgt jetzt automatisch die Token-Nutzung und sendet Ereignisse an Dodo Payments zur Abrechnung.
Konfiguration
Tracker-Konfiguration
Erstellen Sie einen Tracker einmal beim Start der Anwendung mit diesen erforderlichen Parametern:Ihr Dodo Payments API-Schlüssel. Holen Sie ihn sich von der API-Schlüssel-Seite.
Der Umgebungsmodus für den Tracker.
test_mode- Verwenden Sie für Entwicklung und Testlive_mode- Verwenden Sie für die Produktion
Der Ereignisname, der Ihren Zähler auslöst. Muss genau mit dem übereinstimmen, was Sie in Ihrem Dodo Payments-Zähler konfiguriert haben (groß- und kleinschreibungssensitiv).
Dieser Ereignisname verknüpft Ihre verfolgte Nutzung mit dem richtigen Zähler für die Abrechnungsberechnungen.
Wrapper-Konfiguration
Beim Umwickeln Ihres LLM-Clients geben Sie diese Parameter an:Ihre LLM-Clientinstanz (OpenAI, Anthropic, Groq usw.).
Die eindeutige Kundenkennung für die Abrechnung. Dies sollte mit Ihrer Kunden-ID in Dodo Payments übereinstimmen.
Optionale zusätzliche Daten, die dem Verfolgungsevent angehängt werden sollen. Nützlich für Filterung und Analyse.
Vollständiges Konfigurationsbeispiel
Automatische Verfolgung: Das SDK verfolgt automatisch die Token-Nutzung im Hintergrund, ohne die Antwort zu ändern. Ihr Code bleibt sauber und identisch zur Verwendung der ursprünglichen Anbieter-SDKs.
Unterstützte Anbieter
Das LLM Blueprint funktioniert nahtlos mit allen großen LLM-Anbietern und Aggregatoren:AI SDK (Vercel)
AI SDK (Vercel)
Verfolgen Sie die Nutzung mit dem Vercel AI SDK für universelle LLM-Unterstützung.Verfolgte Metriken:
inputTokens→inputTokensoutputTokens+reasoningTokens→outputTokenstotalTokens→totalTokens- Modellname
Bei der Verwendung von Modellen mit Denkfähigkeiten über AI SDK (wie Googles Gemini 2.5 Flash im Denkmodus) werden Denk-Token automatisch in die
outputTokens-Zählung für eine genaue Abrechnung einbezogen.OpenRouter
OpenRouter
Verfolgen Sie die Token-Nutzung über 200+ Modelle über die einheitliche API von OpenRouter.Verfolgte Metriken:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellname
OpenAI
OpenAI
Verfolgen Sie automatisch die Token-Nutzung von OpenAI’s GPT-Modellen.Verfolgte Metriken:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellname
Anthropic Claude
Anthropic Claude
Verfolgen Sie die Token-Nutzung von Anthropic’s Claude-Modellen.Verfolgte Metriken:
input_tokens→inputTokensoutput_tokens→outputTokens- Berechnete
totalTokens - Modellname
Groq
Groq
Verfolgen Sie ultra-schnelle LLM-Inferenz mit Groq.Verfolgte Metriken:
prompt_tokens→inputTokenscompletion_tokens→outputTokenstotal_tokens→totalTokens- Modellname
Google Gemini
Google Gemini
Verfolgen Sie die Token-Nutzung von Googles Gemini-Modellen über das Google GenAI SDK.Verfolgte Metriken:
promptTokenCount→inputTokenscandidatesTokenCount+thoughtsTokenCount→outputTokenstotalTokenCount→totalTokens- Modellversion
Gemini Denkmodus: Bei der Verwendung von Gemini-Modellen mit Denk-/Denkfähigkeiten (wie Gemini 2.5 Pro) schließt das SDK automatisch
thoughtsTokenCount (Denk-Token) in outputTokens ein, um die gesamten Rechenkosten genau widerzuspiegeln.Erweiterte Nutzung
Mehrere Anbieter
Verfolgen Sie die Nutzung über verschiedene LLM-Anbieter mit separaten Trackern:Express.js API-Integration
Vollständiges Beispiel zur Integration der LLM-Verfolgung in eine Express.js-API:Was verfolgt wird
Jeder LLM-API-Aufruf sendet automatisch ein Nutzungsevent an Dodo Payments mit folgender Struktur:Ereignisfelder
Eindeutige Kennung für dieses spezifische Ereignis. Automatisch vom SDK generiert.Format:
llm_[timestamp]_[random]Die Kunden-ID, die Sie beim Umwickeln des Clients angegeben haben. Wird für die Abrechnung verwendet.
Der Ereignisname, der Ihren Zähler auslöst. Entspricht Ihrer Tracker-Konfiguration.
ISO 8601-Zeitstempel, wann das Ereignis aufgetreten ist.
Token-Nutzung und zusätzliche Verfolgungsdaten:
inputTokens- Anzahl der verwendeten Eingabe-/Prompt-TokenoutputTokens- Anzahl der verwendeten Ausgabe-/Vervollständigungs-Token (einschließlich Denk-Token, wenn zutreffend)totalTokens- Gesamte Token (Eingabe + Ausgabe)model- Das verwendete LLM-Modell (z. B. “gpt-4”)provider- Der LLM-Anbieter (wenn in den Wrapper-Metadaten enthalten)- Alle benutzerdefinierten Metadaten, die Sie beim Umwickeln des Clients bereitgestellt haben
Denk-Token: Bei Modellen mit Denkfähigkeiten umfasst
outputTokens automatisch sowohl die Vervollständigungs-Token als auch die Denk-Token.Ihr Dodo Payments-Zähler verwendet die
metadata-Felder (insbesondere inputTokens, outputTokens oder totalTokens), um Nutzung und Abrechnung zu berechnen.