Calcolatore di Token per ChatGPT

Calcola rapidamente l'utilizzo dei token di ChatGPT: visualizza i costi, ottimizza i prompt e risparmia tempo.

Tool Icon Calcolatore di Token per ChatGPT

ChatGPT Token Calculator

Estimate the number of tokens and cost for GPT language models

Enter Your Text or Prompt

Paste the content you want to analyze below

Supports plain text, code snippets, and markdown
Calculation History:
No calculation history yet
Understanding Tokenization:
Language Rules

English usually averages 4 characters per token.

Code Snippets

Code uses more tokens due to indentation and symbols.

Cost Efficiency

Estimating tokens helps stay within API budgets.

Context Limits

Keep prompts within model-specific context windows.

BPE Encoding

Models use Byte Pair Encoding for tokenization.

Safety Margin

Always allow for 10-20% margin in output tokens.

How to Use:
  1. Paste your text or prompt into the input area.
  2. Optionally open "Model Settings" to select a specific GPT model.
  3. Click "Calculate Tokens" to see the estimated count and cost.
  4. Save frequently used prompts to your calculation history.

Informazioni su questo strumento

Quindi, stai utilizzando ChatGPT e all'improvviso noti un aumento nell'utilizzo — oppure forse sei semplicemente curioso di sapere quanto costi effettivamente quel lungo prompt che hai inviato. È qui che entra in gioco un calcolatore di token per ChatGPT. Non è appariscente. Non cerca di venderti nulla. È semplicemente uno strumento semplice che conta i token nel tuo testo, in modo da poter stimare quanto costerà il tuo input o il tuo output con l'API di OpenAI. I token sono le porzioni di testo — parole, parti di parole, persino punteggiatura — che il modello elabora. Un singolo token può essere lungo anche un solo carattere o fino a una parola intera. Ad esempio, "hello" è un token, ma "ChatGPT" potrebbe essere diviso in due. Il calcolatore suddivide il tuo testo nello stesso modo in cui lo fa il modello, fornendoti un conteggio realistico. L'ho creato perché continuavo a fare stime errate. Un giorno credevo di essere efficiente, solo per vedere la mia fattura dell'API salire. Ora controllo prima di inviare. Mi ha fatto risparmiare tempo e qualche euro.

Caratteristiche principali

  • Conta i token sia per i prompt di input che per le risposte generate
  • Supporta più lingue — sì, anche quel mix di inglese e spagnolo che continui a digitare
  • Mostra stime dei costi basate sulle attuali tariffe di OpenAI (gpt-3.5-turbo, gpt-4, ecc.)
  • Funziona offline una volta caricato — nessun dato viene inviato da nessuna parte
  • Adatto al copia-incolla con un'interfaccia pulita e senza fronzoli
  • Analizza la tokenizzazione in modo da poter vedere esattamente come il tuo testo è stato suddiviso

Domande frequenti

Perché devo conoscere il numero di token?
Perché OpenAI addebita per token. Se stai creando un'applicazione o conducendo esperimenti, anche le piccole inefficienze si accumulano. Conoscere l'utilizzo dei token ti aiuta a ottimizzare i prompt, ridurre i costi e evitare sorprese sulla fattura.

Questo strumento memorizza il mio testo?
No. Tutto avviene nel tuo browser. Nulla viene inviato a un server. I tuoi prompt rimangono tuoi.