Large Language Model · 大语言模型
选择你认为最合理的下一个词——这就是 LLM 每时每刻在做的事
LLM 的"大"指参数数量——每个参数就像大脑里的一个"连接"
*GPT-4 参数为推测值,OpenAI 未公开。人脑约有 100 万亿个突触连接。
点击卡片翻转
你问 LLM:"为什么天是蓝的?"
LLM 内部的过程(极简版):
1. 根据"为什么天是蓝的"这个上文,预测下一个词最可能是"因为"(概率85%)
2. 有了"因为"之后,预测下一个词最可能是"阳光"(概率72%)
3. 有了"阳光"之后,预测"在"→"穿过"→"大气层"→"时"→"会"→"发生"→"散射"……
它没有"理解"光学原理。它只是读了无数篇解释天空颜色的文章,知道在"为什么天是蓝的"后面,接"因为阳光散射"是最自然的续写。