Lokaler Browser-Token-Zähler

Modellübergreifender Token-Rechner: LLM-API-Kosten sofort schätzen

Fügen Sie Text ein oder geben Sie manuelle Zählungen ein, um Prompt-, Abschluss-, Cache- und Batch-Preise für OpenAI, Claude, Gemini und benutzerdefinierte Modellpreise vorherzusagen, ohne Daten an einen Server zu senden.

OpenAI, Claude, Gemini und benutzerdefinierte PreisePrompt-, Abschluss-, Cache- und Batch-SzenarienLokale Ausführung im Browser ohne Anmeldung

LLM-Token-Kosten-Schätzer

Verwenden Sie diesen modellübergreifenden Token-Rechner, um die API-Ausgaben für Prompts, Antworten, gecachte Präfixe, RAG-Chunks, Agenten-Schleifen und strukturierte Ausgaben zu schätzen.

Tokens
0
Words
0
Characters (no spaces)
0
Total characters
0

Current token cost snapshot

A quick read on what the current token count costs across the models you have selected.

Paste text above to generate a current token cost snapshot.

Zu vergleichende Modelle

Wählen Sie ein oder mehrere Modelle aus

Kostenaufschlüsselung

Überprüfen Sie Token-Zählungen und Preise pro Modell und exportieren Sie dann das Szenario für die Planung, Beschaffung oder Kundenangebote.

Paste text above to start counting tokens and comparing model cost.
Datenschutzhinweis

Dieser lokale Browser-Token-Zähler speichert den Prompt-Text auf Ihrem Gerät. Wir berechnen nur Token und Preise in der aktuellen Sitzung.

Preisquelle

Verwendet den integrierten Preis-Fallback, da der Live-Katalog derzeit nicht verfügbar ist.

OpenAI verwendet, wo verfügbar, lokale tiktoken-kompatible Zählungen. Anthropic, Gemini und benutzerdefinierte Modelle können Browser-seitige Annäherungen verwenden. Bestätigen Sie daher immer die endgültige Abrechnung mit den Anbieter-Dashboards für Produktionsbudgets.

Advanced cost settings

Tune response size, cache assumptions, request volume, safety margin, and custom pricing without crowding the main paste-and-count flow.

Benutzerdefinierte Modellpreise

So schätzen Sie Token-Preise über LLM-Anbieter hinweg

Befolgen Sie diese Schritte, um den Rechner als modellübergreifenden Token-Rechner, Prompt- und Abschluss-Token-Rechner und lokalen Browser-Token-Zähler zu verwenden.

  1. Quelltext einfügen oder manuelle Token-Zählungen eingeben

    Verwenden Sie den Textmodus, wenn Sie lokale Browser-Token-Zählungen aus einem Prompt, Schema, Transkript oder RAG-Chunk wünschen. Verwenden Sie den manuellen Modus, wenn Sie die Token-Anzahl bereits aus einer anderen Pipeline kennen.

  2. Anbieter und Szenario-Annahmen auswählen

    Wählen Sie OpenAI, Claude, Gemini oder ein benutzerdefiniertes Modell aus, geben Sie dann die erwarteten Ausgabe-Token, gecachten Eingabe-Token, zusätzlichen Abruf-Token, das Anfragevolumen und die monatliche Nutzung ein.

  3. Batch-, Cache- und Margeneffekte modellieren

    Aktivieren Sie den Batch-Rabatt für asynchrone Stapelaufträge, fügen Sie gecachte Prompt-Token für wiederholte Systemanweisungen hinzu und schließen Sie eine Sicherheitsmarge oder einen Kundenaufschlag ein, wenn Sie Budget-Leitplanken benötigen.

  4. Ergebnis vergleichen und exportieren

    Überprüfen Sie die Kosten pro Anfrage, die Szenario-Gesamtkosten, die monatlichen Kosten, das sichere Budget und den aufgeschlagbereinigten Preis. Exportieren Sie JSON oder CSV für Beschaffungsprüfungen, Kundenangebote oder Modell-Auswahl-Dokumente.

Fallstudien: Wo die Schätzung von Token-Kosten wichtig ist

Diese Beispiele entsprechen Suchverhalten mit hoher Absicht rund um Preisvergleiche, Caching, Batching und die Nutzung mehrsprachiger LLMs.

Fallstudie 1: Kosten-Schätzer für agentenbasierte Workflows

Profile

Ein Startup, das mehrstufige Agenten mit Planer-, Abrufer- und Prüfer-Schleifen betreibt.

Challenge

Das Team musste abschätzen, wie sich wiederholte Tool-Aufrufe und lange System-Prompts auf die Stückkosten vor dem Start auswirken würden.

Solution

Sie nutzten den Rechner, um Prompt-Token, Abschluss-Token, zusätzliche Abruf-Kontexte und Batch-Rabatte für Kandidatenmodelle zu modellieren.

Implementation

Jeder Agentenschritt wurde in den Textmodus eingefügt, dann passte das Team die monatlichen Anfragen und die Sicherheitsmarge an, bis das Szenario ihrer Produktionsprognose entsprach.

Results

Sie identifizierten die günstigste Modellkombination für den Workflow und reduzierten die prognostizierten monatlichen Kosten vor der Auslieferung um mehr als ein Drittel.

Fallstudie 2: OpenAI vs Claude API Preisrechner

Profile

Eine Support-Plattform, die GPT-4o-mini mit Claude 3.5 Sonnet für die Chat-Bearbeitung vergleicht.

Challenge

Sie benötigten eine schnelle Möglichkeit, die Prompt- und Abschluss-Token-Preise für denselben Gesprächsverlauf zu vergleichen, ohne benutzerdefinierte Skripte zu schreiben.

Solution

Der Rechner verarbeitete lokal ein repräsentatives Chat-Transkript und lieferte nebeneinanderliegende monatliche Schätzungen für beide Anbieter.

Implementation

Das Team fügte mehrere 10-Turn-Gespräche ein, legte das prognostizierte Anfragevolumen fest und verglich den aufgeschlagbereinigten Preis für Enterprise-Pläne.

Results

Sie wählten die kostengünstigere Option für Standard-Supportfälle und reservierten das Premium-Modell nur für Eskalationspfade.

Fallstudie 3: Batch-API-Kostenrechner

Profile

Ein Betriebsteam, das über Nacht Zehntausende von Produktbeschreibungen verarbeitet.

Challenge

Ihre Marge hing davon ab, ob die asynchronen Batch-Preise die Kosten für große Content-Refresh-Jobs wesentlich veränderten.

Solution

Sie modellierten den Job mit aktiviertem Batch-Rabatt und fügten einen Puffer für Long-Tail-Beschreibungen hinzu, die größer als der Durchschnitt waren.

Implementation

Das Team gab eine repräsentative Stichprobe ein, prognostizierte die Gesamtanfragezahl und exportierte die CSV zur Budgetgenehmigung.

Results

Sie verschoben die Arbeitslast in die Batch-Warteschlange mit einer klaren Kosteneinsparungsschätzung und erhielten ein vorhersehbares Budget für die nächtliche Verarbeitung.

Fallstudie 4: Anthropic Kontext-Cache-Kosten

Profile

Ein Legal-Tech-Workflow mit großen wiederverwendbaren System-Prompts und Richtliniendokumenten.

Challenge

Das Team musste verstehen, wie stark gecachte Präfixe die Kosten wiederholter Abfragen über dieselben Basis-Anweisungen reduzieren würden.

Solution

Sie verwendeten gecachte Eingabe-Token, um wiederholten Kontext zu modellieren, und verglichen die tatsächlichen monatlichen Einsparungen mit dem un-gecachten Betrieb.

Implementation

Die gemeinsamen juristischen Anweisungen wurden als gecachte Token eingegeben, während dynamische, fallspezifische Prompts und Ausgaben separat geschätzt wurden.

Results

Sie rechtfertigten das Prompt-Caching intern und reduzierten die scheinbaren Kosten von Compliance-intensiven Workflows.

Fallstudie 5: Kosten für mehrsprachige LLM-Token

Profile

Ein globales Content-Team, das Prompts und strukturierte Ausgaben in Englisch, Japanisch und Chinesisch lokalisiert.

Challenge

Die Wortanzahlen sahen ähnlich aus, aber die Token-Nutzung variierte stark je nach Sprache und Ausgabeformat.

Solution

Sie fügten lokalisierte Prompts in das Tool ein, um die Token-Inflation zu messen und die Anbieterpreise zu vergleichen, bevor sie in neuen Märkten starteten.

Implementation

Das Team duplizierte Szenarien nach Sprache, passte die erwartete Ausgabegröße an und dokumentierte die Preisdifferenz nach Markt.

Results

Sie vermieden Unterpreise in Sprachen mit vielen Token und legten marktspezifische Nutzungsrichtlinien mit größerer Sicherheit fest.

Häufig gestellte Fragen zum Token-Kosten-Schätzer

Was ist ein modellübergreifender Token-Rechner?

Es ist ein Tool, mit dem Sie die Token-Nutzung und die API-Kosten für mehrere LLM-Anbieter anhand derselben Eingabe schätzen können, um die Preise zu vergleichen, bevor Sie mit der Entwicklung beginnen.

Wie genau ist dieser LLM-Token-Kosten-Schätzer?

OpenAI-kompatible Modelle verwenden, wo verfügbar, lokale Tokenizer-Unterstützung. Andere Anbieter können auf Browser-seitige Annäherungen angewiesen sein, daher ist die Schätzung für die Planung gut, aber die Abrechnungs-Dashboards der Anbieter bleiben die endgültige Quelle der Wahrheit.

Warum Prompt- und Abschluss-Token trennen?

Die meisten Anbieter berechnen unterschiedliche Preise für Eingabe- und Ausgabetoken, und die Ausgabe ist oft viel teurer. Die Trennung macht die Schätzung für die tatsächliche Budgetierung nutzbar.

Kann ich hier die Anthropic-Kontext-Cache-Kosten schätzen?

Ja. Fügen Sie den Teil Ihres Prompts, der als gecachte Eingabe-Token wiederverwendet wird, hinzu und vergleichen Sie dann das Szenario mit un-gecachten Läufen, um zu sehen, wie sich wiederholte Präfixe auf das Budget auswirken.

Funktioniert dies als Batch-API-Kostenrechner?

Ja. Aktivieren Sie den Schalter für den Batch-Rabatt, um den niedrigeren Gesamtbetrag zu schätzen, den Sie von asynchronen Stapelverarbeitungs-Workflows erwarten würden.

Werden meine Daten gespeichert, wenn ich diesen lokalen Browser-Token-Zähler verwende?

Nein. Der Rechner ist für die lokale Ausführung in der Browsersitzung konzipiert, sodass eingefügte Prompts und Dokumente während der Schätzung auf Ihrem Gerät verbleiben.

Kann ich dies als RAG-Chunk-Token-Schätzer verwenden?

Ja. Fügen Sie einen repräsentativen Dokument-Chunk ein, fügen Sie dann zusätzliche Eingabe-Token für den Abruf-Overhead hinzu und multiplizieren Sie die Anfragen, um die Kosten von Top-K-Abrufmustern zu modellieren.

Wie schätze ich die Token-Preise für strukturierte Ausgaben von OpenAI?

Fügen Sie den Prompt und alle Schema- oder strukturierten Ausgabeanweisungen in den Textmodus ein und legen Sie dann die erwarteten Abschluss-Token fest, um zu sehen, wie sich die Formatierungs-Overhead-Kosten auf die Gesamtkosten auswirken.

Warum variieren die Kosten für mehrsprachige LLM-Token je nach Sprache?

Unterschiedliche Tokenizer teilen nicht-englischen Text unterschiedlich auf, sodass ähnliche Wortanzahlen sehr unterschiedliche Token-Gesamtwerte ergeben können. Das Testen jeder Zielsprache ist der sicherste Weg, um globale Nutzungspreise festzulegen.

Kann ich ein benutzerdefiniertes oder selbst gehostetes Modell vergleichen?

Ja. Verwenden Sie den Abschnitt für benutzerdefinierte Preise, um Ihren eigenen Modellnamen und Ihre Preise pro Million Token für Eingabe, Ausgabe und gecachte Eingabe einzugeben.