ローカルブラウザ トークンカウンター

クロスモデル トークン計算機: LLM API コストを即座に見積もる

テキストを貼り付けるか、手動でカウントを入力して、サーバーにデータを送信せずに OpenAI、Claude、Gemini、カスタムモデルの価格設定におけるプロンプト、完了、キャッシュ、バッチの価格を予測します。

OpenAI、Claude、Gemini、カスタム価格設定プロンプト、完了、キャッシュ、バッチシナリオサインアップ不要のローカルブラウザ実行

LLM トークンコスト見積もりツール

このクロスモデル トークン計算機を使用して、プロンプト、応答、キャッシュされたプレフィックス、RAG チャンク、エージェントループ、構造化出力の API 支出を見積もります。

Tokens
0
Words
0
Characters (no spaces)
0
Total characters
0

Current token cost snapshot

A quick read on what the current token count costs across the models you have selected.

Paste text above to generate a current token cost snapshot.

比較するモデル

1つ以上のモデルを選択

コストの内訳

モデルごとのトークン数と価格を確認し、シナリオをエクスポートして計画、調達、または顧客への見積もりに活用します。

Paste text above to start counting tokens and comparing model cost.
プライバシーに関する注意

このローカルブラウザのトークンカウンターは、プロンプトテキストをデバイス上に保持します。トークンと価格の計算は現在のセッションでのみ行われます。

価格情報源

ライブカタログが現在利用できないため、組み込みの価格フォールバックを使用しています。

OpenAI は、利用可能な場合はローカルの tiktoken 互換カウントを使用します。Anthropic、Gemini、カスタムモデルはブラウザ側の近似値を使用する可能性があるため、本番環境の予算については常にプロバイダーダッシュボードで最終的な請求を確認してください。

Advanced cost settings

Tune response size, cache assumptions, request volume, safety margin, and custom pricing without crowding the main paste-and-count flow.

カスタムモデルの価格設定

LLM プロバイダー間のトークン価格を見積もる方法

以下の手順に従って、この計算機をクロスモデル トークン計算機、プロンプトと完了 トークン計算機、およびローカルブラウザ トークンカウンターとして使用します。

  1. ソーステキストを貼り付けるか、手動トークン数を入力する

    プロンプト、スキーマ、トランスクリプト、または RAG チャンクからのローカルブラウザ トークンカウントが必要な場合はテキストモードを使用します。既に別のパイプラインからトークン数を知っている場合は手動モードを使用します。

  2. プロバイダーとシナリオの仮定を選択する

    OpenAI、Claude、Gemini、またはカスタムモデルを選択し、予想される出力トークン数、キャッシュされた入力トークン数、追加の取得トークン数、リクエストボリューム、月間使用量を入力します。

  3. バッチ、キャッシュ、およびマージンの影響をモデル化する

    非同期バルクジョブのバッチ割引をオンにし、繰り返し使用されるシステムインストラクションのキャッシュされたプロンプトトークンを追加し、予算ガードレールが必要な場合は安全マージンまたはクライアントマークアップを含めます。

  4. 結果を比較してエクスポートする

    リクエストあたりのコスト、シナリオ合計、月間コスト、安全な予算、マークアップ調整後の価格を確認します。JSON または CSV をエクスポートして、調達レビュー、顧客見積もり、またはモデル選択ドキュメントに活用します。

ケーススタディ: トークンコスト見積もりが重要な場面

これらの例は、価格比較、キャッシュ、バッチ処理、多言語 LLM 使用に関する高い意図を持つ検索行動に対応しています。

ケーススタディ 1: エージェントワークフローコスト見積もり

Profile

プランナー、リトリーバー、レビューアーループを備えたマルチステップエージェントを実行するスタートアップ。

Challenge

チームは、ローンチ前に繰り返し行われるツール呼び出しと長いシステムプロンプトがユニットエコノミクスにどのように影響するかを推定する必要がありました。

Solution

計算機を使用して、候補モデル間のプロンプトトークン、完了トークン、追加の取得コンテキスト、およびバッチ割引をモデル化しました。

Implementation

各エージェントステップをテキストモードに貼り付け、その後、チームはシナリオが本番環境の予測と一致するまで、月間リクエスト数と安全マージンを調整しました。

Results

ワークフローに最も安価なモデルミックスを特定し、出荷前に月間コストを 3 分の 1 以上削減しました。

ケーススタディ 2: OpenAI vs Claude API 価格計算機

Profile

チャット処理のために GPT-4o-mini と Claude 3.5 Sonnet を比較するサポートプラットフォーム。

Challenge

カスタムスクリプトを作成せずに、同じ会話履歴でプロンプトと完了トークンの価格を迅速に比較する必要がありました。

Solution

計算機は代表的なチャットトランスクリプトをローカルで処理し、両方のプロバイダーの月間推定値を並べて表示しました。

Implementation

チームは数回の 10 ターンの会話を貼り付け、予測リクエストボリュームを設定し、エンタープライズプランのマークアップ調整後の価格を比較しました。

Results

標準サポートケースにはより安価なオプションを選択し、プレミアムモデルはエスカレーションパス専用にしました。

ケーススタディ 3: バッチ API コスト計算機

Profile

一晩で数万件の製品説明を処理するオペレーションチーム。

Challenge

非同期バッチ価格設定が大規模なコンテンツ更新ジョブのコストを大幅に変更するかどうかによって、マージンが決まっていました。

Solution

バッチ割引を有効にしてジョブをモデル化し、平均よりも大きいロングテール説明のバッファーを含めました。

Implementation

チームは代表的なサンプルを入力し、総リクエスト数を予測し、CSV をエクスポートして予算承認を得ました。

Results

明確な節約額の推定値とともにバッチキューにワークロードを移行し、予測可能な一晩の処理予算を確保しました。

ケーススタディ 4: Anthropic コンテキストキャッシュコスト

Profile

大規模で再利用可能なシステムプロンプトとポリシー文書を備えたリーガルテックワークフロー。

Challenge

チームは、キャッシュされたプレフィックスが、同じ基本指示に対する繰り返しクエリのコストをどの程度削減できるかを理解する必要がありました。

Solution

キャッシュされた入力トークンを使用して繰り返しコンテキストをモデル化し、シナリオをキャッシュされていない実行と比較して、繰り返しプレフィックスが予算をどのように変更するかを確認しました。

Implementation

共有の法的指示はキャッシュされたトークンとして入力され、動的な案件固有のプロンプトと出力は個別に推定されました。

Results

プロンプトキャッシュを社内で正当化し、コンプライアンスの高いワークフローの見えるコストを削減しました。

ケーススタディ 5: 多言語 LLM トークンコスト

Profile

英語、日本語、中国語でプロンプトと構造化された出力をローカライズするグローバルコンテンツチーム。

Challenge

単語数は似ていましたが、トークン使用量は言語と出力形式によって大きく異なりました。

Solution

ローカライズされたプロンプトをツールに貼り付けてトークンインフレを測定し、新しい市場でのローンチ前にプロバイダーの価格を比較しました。

Implementation

チームは言語ごとにシナリオを複製し、予想される出力サイズを調整し、市場ごとの価格差を文書化しました。

Results

トークン数の多い言語での価格設定不足を防ぎ、より確実な市場固有の使用ポリシーを設定しました。

トークンコスト見積もりツール FAQ

クロスモデル トークン計算機とは何ですか?

同じ入力から複数の LLM プロバイダーのトークン使用量と API コストを見積もることができるツールであり、構築前に価格を比較できます。

この LLM トークンコスト見積もりツールの精度はどのくらいですか?

OpenAI 互換モデルは、利用可能な場合はローカル トークナイザー サポートを使用します。他のプロバイダーはブラウザ側の近似値に依存する可能性があるため、見積もりは計画には有効ですが、最終的な真実はプロバイダーの請求ダッシュボードとなります。

なぜプロンプトと完了トークンを分けるのですか?

ほとんどのプロバイダーは、入力トークンと出力トークンで異なる価格を設定しており、出力はしばしばはるかに高価です。これらを分割することで、実際の見積もりに使用できる見積もりになります。

ここで Anthropic のコンテキストキャッシュコストを見積もることができますか?

はい。プロンプトの再利用される部分をキャッシュされた入力トークンとして追加し、シナリオをキャッシュされていない実行と比較して、繰り返しプレフィックスが予算をどのように変更するかを確認します。

これはバッチ API コスト計算機として機能しますか?

はい。バッチ割引トグルを有効にして、非同期バルク処理ワークフローから期待される合計コストを推定します。

このローカルブラウザ トークンカウンターを使用すると、私のデータは保存されますか?

いいえ。この計算機はブラウザセッションでのローカル実行のために設計されているため、貼り付けられたプロンプトとドキュメントは、見積もり中にデバイス上に留まります。

これを RAG チャンク トークン見積もりとして使用できますか?

はい。代表的なドキュメントチャンクを貼り付け、取得オーバーヘッドのための追加入力トークンを追加し、リクエストを乗算してトップ K 取得パターンのコストをモデル化します。

OpenAI の構造化出力トークン価格を見積もるにはどうすればよいですか?

プロンプトとスキーマまたは構造化出力の指示をテキストモードに貼り付け、予想される完了トークンを設定して、フォーマットオーバーヘッドが合計コストをどのように変更するかを確認します。

多言語 LLM のトークンコストが言語によって異なるのはなぜですか?

異なるトークナイザーは非英語テキストを異なる方法で分割するため、単語数が似ていてもトークン合計が大きく異なる場合があります。各ターゲット言語をテストすることが、グローバルな使用量を価格設定する最も安全な方法です。

カスタムまたはセルフホストモデルを比較できますか?

はい。カスタム価格設定セクションを使用して、独自のモデル名と、入力、出力、キャッシュ入力の 100 万トークンあたりのレートを入力します。