如何合理分配MCP、skills的开启与关闭

佬友们,今天测试了一下自己安装的MCP skills memory这些的消耗,发现一个“你好”的初始对话都会消耗近50k的token,也就在ds 的1M上下文还能接受,在kimi这种一下就1/4的上下文没了,请教下大家都是怎么安排的,是根据对话按需打开关闭吗? 最大头:系统提示词(每次对话固定消耗,...
如何合理分配MCP、skills的开启与关闭
如何合理分配MCP、skills的开启与关闭

佬友们,今天测试了一下自己安装的MCP skills memory这些的消耗,发现一个“你好”的初始对话都会消耗近50k的token,也就在ds 的1M上下文还能接受,在kimi这种一下就1/4的上下文没了,请教下大家都是怎么安排的,是根据对话按需打开关闭吗?

最大头:系统提示词(每次对话固定消耗,跟你的输入无关)

  1. 技能清单 — ~100 个 skill 的名称+描述,每个几十到上百 token,光这就 1-2 万 token
  2. 工具定义 — 每个工具的 JSON Schema(参数名、类型、描述),30+ 工具,包括 Zotero MCP 十几个、Tavily 几个、Nocturne Memory 十几个、加上 bash/read/write/edit/glob/grep/task 等。每个工具的 schema 展开后很长,尤其 bash 的 prompt 本身就很长。这部分至少 2-3 万
  3. 系统指令 — 核心行为规则、AGENTS.md 硬约束、中文输出规范(负面清单 + 正面锚点)、记忆系统操作规范,加起来 1 万左右
  4. 工具调用和返回 — 我刚做的 read_memory(“system://boot”) 返回了你的全部核心记忆,内容本身也不少

1 个帖子 - 1 位参与者

阅读完整话题

来源: LinuxDo 最新话题查看原文