佬友们,今天测试了一下自己安装的MCP skills memory这些的消耗,发现一个“你好”的初始对话都会消耗近50k的token,也就在ds 的1M上下文还能接受,在kimi这种一下就1/4的上下文没了,请教下大家都是怎么安排的,是根据对话按需打开关闭吗?
最大头:系统提示词(每次对话固定消耗,跟你的输入无关)
- 技能清单 — ~100 个 skill 的名称+描述,每个几十到上百 token,光这就 1-2 万 token
- 工具定义 — 每个工具的 JSON Schema(参数名、类型、描述),30+ 工具,包括 Zotero MCP 十几个、Tavily 几个、Nocturne Memory 十几个、加上 bash/read/write/edit/glob/grep/task 等。每个工具的 schema 展开后很长,尤其 bash 的 prompt 本身就很长。这部分至少 2-3 万
- 系统指令 — 核心行为规则、AGENTS.md 硬约束、中文输出规范(负面清单 + 正面锚点)、记忆系统操作规范,加起来 1 万左右
- 工具调用和返回 — 我刚做的 read_memory(“system://boot”) 返回了你的全部核心记忆,内容本身也不少
1 个帖子 - 1 位参与者