🧒 极简版
你写字是一笔一笔写的。AI 读文字也不是一口气读完一句话,而是把文字切成一块一块的积木,一块一块处理。
有的积木是一个完整的词(比如"hello"),有的只是半个字(比如"un"+"happy")。这些积木就叫 Token。AI 看到的世界不是文字,而是一堆编了号的积木块。
🧑 场景版
你问 ChatGPT 一个问题,系统提示"已使用 1,200 token,剩余 6,800 token"。
这是什么意思?简单说:
· 你输入的文字被切成了若干 token(每个 token ≈ 3/4 个英文单词,或 ≈ 1-2 个中文字)
· AI 的回答也消耗 token
· Token 就是 AI 的"流量"——用完了就不能继续对话了
· API 定价也按 token 计费:输入 $X/百万 token,输出 $Y/百万 token
为什么不按字数收费?因为AI 内部根本不认识"字",只认识 token。
🎓 精准版
Token 是自然语言处理中文本序列化的基本单位。现代 LLM 使用 BPE(Byte Pair Encoding)或类似算法将文本切分为子词(subword)级别的 token。
· 高频词保持完整("the" = 1 token)
· 罕见词被拆分为子词("tokenization" = "token" + "ization")
· 每个 token 映射到一个整数 ID(词表通常 32K-128K 大小)
· 模型的输入和输出都是 token ID 序列,不是文字
· 上下文窗口(如 128K token)决定了模型一次能"看到"多少内容