Lokalny licznik tokenów w przeglądarce

Kalkulator Tokenów Między Modelami: Natychmiastowe Szacowanie Kosztów API LLM

Wklej tekst lub wprowadź ręczne liczniki, aby prognozować ceny promptów, odpowiedzi, buforowania i wsadowe dla cen OpenAI, Claude, Gemini i niestandardowych modeli, bez wysyłania danych na serwer.

Ceny OpenAI, Claude, Gemini i niestandardoweScenariusze promptów, odpowiedzi, buforowania i wsadoweWykonanie lokalne w przeglądarce bez rejestracji

Estymator kosztów tokenów LLM

Użyj tego kalkulatora tokenów między modelami, aby oszacować wydatki API na prompty, odpowiedzi, buforowane prefiksy, fragmenty RAG, pętle agentów i dane wyjściowe o ustrukturyzowanej formie.

Tokens
0
Words
0
Characters (no spaces)
0
Total characters
0

Current token cost snapshot

A quick read on what the current token count costs across the models you have selected.

Paste text above to generate a current token cost snapshot.

Modele do porównania

Wybierz jeden lub więcej modeli

Szczegółowy podział kosztów

Przejrzyj liczbę tokenów i ceny według modelu, a następnie wyeksportuj scenariusz do planowania, zakupu lub wyceny dla klienta.

Paste text above to start counting tokens and comparing model cost.
Uwaga dotycząca prywatności

Ten lokalny licznik tokenów w przeglądarce przechowuje tekst promptu na Twoim urządzeniu. Obliczamy tokeny i ceny tylko w bieżącej sesji.

Źródło cen

Korzystanie z wbudowanego mechanizmu rezerwowego cen, ponieważ katalog na żywo jest obecnie niedostępny.

OpenAI używa lokalnego zliczania zgodnego z tiktoken, gdzie jest to dostępne. Anthropic, Gemini i niestandardowe modele mogą używać przybliżeń po stronie przeglądarki, dlatego zawsze potwierdzaj ostateczne rozliczenia w panelach dostawców dla budżetów produkcyjnych.

Advanced cost settings

Tune response size, cache assumptions, request volume, safety margin, and custom pricing without crowding the main paste-and-count flow.

Ceny niestandardowych modeli

Jak oszacować ceny tokenów u różnych dostawców LLM

Wykonaj poniższe kroki, aby użyć kalkulatora jako kalkulatora tokenów między modelami, kalkulatora tokenów promptów i odpowiedzi oraz lokalnego licznika tokenów w przeglądarce.

  1. Wklej tekst źródłowy lub wprowadź ręczne liczniki tokenów

    Użyj trybu tekstowego, gdy chcesz lokalnie zliczać tokeny w przeglądarce z promptu, schematu, transkrypcji lub fragmentu RAG. Użyj trybu ręcznego, gdy już znasz liczbę tokenów z innego potoku.

  2. Wybierz dostawców i założenia scenariusza

    Wybierz OpenAI, Claude, Gemini lub niestandardowy model, a następnie podaj oczekiwane tokeny wyjściowe, buforowane tokeny wejściowe, dodatkowe tokeny pobierania, liczbę żądań i miesięczne użycie.

  3. Modeluj efekty wsadowe, buforowania i marginesów

    Włącz rabat wsadowy dla zadań wsadowych asynchronicznych, dodaj buforowane tokeny promptów dla powtarzających się instrukcji systemowych i uwzględnij margines bezpieczeństwa lub narzut klienta, jeśli potrzebujesz zabezpieczeń budżetowych.

  4. Porównaj i wyeksportuj wynik

    Przejrzyj koszt za żądanie, całkowity koszt scenariusza, miesięczny koszt, bezpieczny budżet i cenę po uwzględnieniu narzutu. Eksportuj JSON lub CSV do przeglądów zakupów, ofert dla klientów lub dokumentów wyboru modelu.

Studia przypadków: gdzie szacowanie kosztów tokenów ma znaczenie

Te przykłady odpowiadają zachowaniom wyszukiwania o wysokiej intencji związanym z porównywaniem cen, buforowaniem, przetwarzaniem wsadowym i wielojęzycznym użyciem LLM.

Studium przypadku 1: Estymator kosztów przepływu pracy agenta

Profile

Startup uruchamiający wieloetapowe agenty z pętlami planisty, pobierania i przeglądu.

Challenge

Zespół musiał oszacować, jak powtarzające się wywołania narzędzi i długie prompty systemowe wpłyną na ekonomię jednostkową przed uruchomieniem.

Solution

Użyli kalkulatora do modelowania tokenów promptów, tokenów odpowiedzi, dodatkowego kontekstu pobierania i rabatów wsadowych między kandydatami na modele.

Implementation

Każdy etap agenta był wklejany w trybie tekstowym, a następnie zespół dostosowywał miesięczne żądania i margines bezpieczeństwa, aż scenariusz odpowiadał ich prognozie produkcyjnej.

Results

Zidentyfikowali najtańszą kombinację modeli dla przepływu pracy i zmniejszyli prognozowany miesięczny koszt o ponad jedną trzecią przed wysyłką.

Studium przypadku 2: Kalkulator cen API OpenAI vs Claude

Profile

Platforma wsparcia porównująca GPT-4o-mini z Claude 3.5 Sonnet do obsługi czatu.

Challenge

Potrzebowali szybkiego sposobu na porównanie cen tokenów promptów i odpowiedzi na tej samej historii rozmowy bez pisania niestandardowych skryptów.

Solution

Kalkulator przetworzył reprezentatywną transkrypcję czatu lokalnie i zwrócił porównawcze miesięczne szacunki dla obu dostawców.

Implementation

Zespół wkleił kilka rozmów po 10 tur, ustawił prognozowaną liczbę żądań i porównał cenę po uwzględnieniu narzutu dla planów korporacyjnych.

Results

Wybrali tańszą opcję dla standardowych przypadków wsparcia i zarezerwowali model premium tylko dla ścieżek eskalacji.

Studium przypadku 3: Kalkulator kosztów wsadowych API

Profile

Zespół operacyjny przetwarzający dziesiątki tysięcy opisów produktów w nocy.

Challenge

Ich marża zależała od tego, czy ceny wsadowe asynchroniczne znacząco zmienią koszt dużych zadań odświeżania treści.

Solution

Modelowali zadanie z włączonym rabatem wsadowym i uwzględnili bufor dla opisów z długiego ogona, które były większe niż przeciętne.

Implementation

Zespół wprowadził reprezentatywną próbkę, prognozowaną całkowitą liczbę żądań i wyeksportował CSV do zatwierdzenia budżetu.

Results

Przenieśli obciążenie do kolejki wsadowej z jasnym szacunkiem oszczędności i uzyskali przewidywalny budżet na przetwarzanie nocne.

Studium przypadku 4: Koszt buforowania kontekstu Anthropic

Profile

Przepływ pracy w dziedzinie legal-tech z dużymi, możliwymi do ponownego użycia promptami systemowymi i dokumentami polityki.

Challenge

Zespół musiał zrozumieć, o ile buforowane prefiksy zmniejszą koszt powtarzających się zapytań dotyczących tych samych podstawowych instrukcji.

Solution

Użyli buforowanych tokenów wejściowych do modelowania powtarzającego się kontekstu i porównali rzeczywiste miesięczne oszczędności w porównaniu z działaniem bez buforowania.

Implementation

Wspólne instrukcje prawne zostały wprowadzone jako buforowane tokeny, podczas gdy dynamiczne prompty i odpowiedzi specyficzne dla sprawy były szacowane oddzielnie.

Results

Uzasadnili buforowanie promptów wewnętrznie i zmniejszyli pozorny koszt przepływów pracy o wysokiej zgodności.

Studium przypadku 5: Koszt tokenów wielojęzycznych LLM

Profile

Globalny zespół ds. treści lokalizujący prompty i dane wyjściowe o ustrukturyzowanej formie w języku angielskim, japońskim i chińskim.

Challenge

Liczba słów wyglądała podobnie, ale użycie tokenów znacznie różniło się w zależności od języka i formatu wyjściowego.

Solution

Wkleili zlokalizowane prompty do narzędzia, aby zmierzyć inflację tokenów i porównać ceny dostawców przed uruchomieniem na nowych rynkach.

Implementation

Zespół duplikował scenariusze według języka, dostosowywał oczekiwany rozmiar wyjściowy i dokumentował różnicę cenową według rynku.

Results

Zapobiegli niedoszacowaniu w językach o wysokiej liczbie tokenów i ustalili politykę użytkowania specyficzną dla rynku z większą pewnością.

Często zadawane pytania dotyczące estymatora kosztów tokenów

Co to jest kalkulator tokenów między modelami?

Jest to narzędzie, które pozwala oszacować użycie tokenów i koszt API u wielu dostawców LLM z tych samych danych wejściowych, aby można było porównać ceny przed rozpoczęciem budowy.

Jak dokładny jest ten estymator kosztów tokenów LLM?

Modele zgodne z OpenAI używają lokalnego wsparcia tokenizera, gdzie jest to dostępne. Inni dostawcy mogą polegać na przybliżeniach po stronie przeglądarki, więc szacunek jest mocny do planowania, ale panele rozliczeniowe dostawców pozostają ostatecznym źródłem prawdy.

Dlaczego oddzielać tokeny promptów i odpowiedzi?

Większość dostawców pobiera różne ceny za tokeny wejściowe i wyjściowe, a wyjście jest często znacznie droższe. Rozdzielenie ich sprawia, że szacunek jest użyteczny do rzeczywistego budżetowania.

Czy mogę tutaj oszacować koszt buforowania kontekstu Anthropic?

Tak. Dodaj część swojego promptu, która jest ponownie używana jako buforowane tokeny wejściowe, a następnie porównaj scenariusz z przebiegami bez buforowania, aby zobaczyć, jak powtarzające się prefiksy zmieniają budżet.

Czy działa to jako kalkulator kosztów wsadowych API?

Tak. Włącz przełącznik rabatu wsadowego, aby oszacować niższy całkowity koszt, którego można oczekiwać od przepływów pracy przetwarzania wsadowego asynchronicznego.

Czy moje dane są przechowywane podczas korzystania z tego lokalnego licznika tokenów w przeglądarce?

Nie. Kalkulator jest zaprojektowany do lokalnego wykonywania w sesji przeglądarki, więc wklejone prompty i dokumenty pozostają na Twoim urządzeniu podczas szacowania.

Czy mogę używać tego jako estymatora tokenów fragmentów RAG?

Tak. Wklej reprezentatywny fragment dokumentu, a następnie dodaj dodatkowe tokeny wejściowe dla narzutu pobierania i pomnóż żądania, aby modelować koszt wzorców pobierania top-K.

Jak oszacować ceny tokenów ustrukturyzowanych danych wyjściowych OpenAI?

Wklej prompt i wszelkie schematy lub instrukcje dotyczące ustrukturyzowanych danych wyjściowych w trybie tekstowym, a następnie ustaw oczekiwane tokeny odpowiedzi, aby zobaczyć, jak narzut formatowania wpływa na całkowity koszt.

Dlaczego koszt tokenów wielojęzycznych LLM różni się w zależności od języka?

Różne tokenizery dzielą tekst inny niż angielski inaczej, więc podobna liczba słów może generować bardzo różne sumy tokenów. Testowanie każdego docelowego języka jest najbezpieczniejszym sposobem na ustalenie cen globalnego użycia.

Czy mogę porównać niestandardowy lub hostowany samodzielnie model?

Tak. Użyj sekcji niestandardowych cen, aby wprowadzić własną nazwę modelu i stawki za milion tokenów dla wejścia, wyjścia i buforowanego wejścia.