新人入坛,分享个适合普通人(非公司报销)的高性价比vibe coding 配置,能到opus 4.7(xhigh)的水平

TL;DR:omo = 国产模型 + GPT 成本 = GLM 5.1($30) + GPT($20) + MINMAX($4) tokens根本用不完 职业码农,市面上主流的 vibe coding 工具基本都摸过一遍:Copilot → Cursor → Claude Code → Antigr...
新人入坛,分享个适合普通人(非公司报销)的高性价比vibe coding 配置,能到opus 4.7(xhigh)的水平
新人入坛,分享个适合普通人(非公司报销)的高性价比vibe coding 配置,能到opus 4.7(xhigh)的水平

TL;DR:omo = 国产模型 + GPT
成本 = GLM 5.1($30) + GPT($20) + MINMAX($4) tokens根本用不完
职业码农,市面上主流的 vibe coding 工具基本都摸过一遍:Copilot → Cursor → Claude Code → Antigravity → Codex,多多少少都用过。

最后用下来的感受是:代码生成质量和上下文理解,工具背后的模型能力远比工具本身的 prompt engineering 更重要(用过cursor和 Antigravity 的老哥应该能理解我的意思)。 而且,如果不是顶级模型,比如 Opus 4.6(max)、GPT 5.4(xhigh),目前大多数模型在生产级代码场景里,幻觉问题还是比较明显。

我觉得应对这个问题,主要有两种思路:

  1. 直接上顶级模型,一把梭。
    我自己没买过每月 $200 的订阅,所以不太清楚实际耐用度怎么样。因为公司提供 Claude 的 API Key,我平时工作日一天的账单,大概会在 300~600 美元之间浮动。

  2. 让不同家的模型协同工作(harness across multi-models)。 这是我目前试下来,幻觉率最低的一种方案。

正好上个月刷到了 omo 这个项目。虽然目前网上差评不少,主要在烧 token太费钱,但我个人觉得,这个插件本身以及作者的思路(https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/agent-model-matching.md),其实非常符合我的想法。
在我看来,只要后续把 token 成本进一步优化下来,这套方案就是可用的。

我目前的角色分工大概是这样:

Orchestrator(Opus → GLM 5.1):这个角色最烧钱
Coder(GPT)
Explorer(Minimax HighSpeed)

最后贴一个我现在自己在用的配置。

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
  "agents": {
    "sisyphus": {
      "model": "zai-coding-plan/glm-5.1"
    },
    "hephaestus": {
      "model": "openai/gpt-5.4",
      "variant": "medium"
    },
    "oracle": {
      "model": "openai/gpt-5.4",
      "variant": "high"
    },
    "librarian": {
      "model": "custom/MiniMax-M2.5-highspeed"
    },
    "explore": {
      "model": "custom/MiniMax-M2.5-highspeed"
    },
    "multimodal-looker": {
      "model": "openai/gpt-5.2",
      "variant": "medium"
    },
    "prometheus": {
      "model": "openai/gpt-5.3-codex",
      "variant": "high"
    },
    "metis": {
      "model": "zai-coding-plan/glm-5.1"
    },
    "momus": {
      "model": "openai/gpt-5.4",
      "variant": "high"
    },
    "atlas": {
      "model": "openai/gpt-5.3-codex",
      "variant": "medium"
    },
    "sisyphus-junior": {
      "model": "zai-coding-plan/glm-5.1"
    }
  },
  "categories": {
    "visual-engineering": {
      "model": "openai/gpt-5.2",
      "variant": "medium"
    },
    "ultrabrain": {
      "model": "openai/gpt-5.4",
      "variant": "xhigh"
    },
    "deep": {
      "model": "openai/gpt-5.3-codex",
      "variant": "medium"
    },
    "artistry": {
      "model": "openai/gpt-5.2",
      "variant": "medium"
    },
    "quick": {
      "model": "custom/MiniMax-M2.5-highspeed"
    },
    "unspecified-low": {
      "model": "zai-coding-plan/glm-5.1"
    },
    "unspecified-high": {
      "model": "openai/gpt-5.4",
      "variant": "high"
    },
    "writing": {
      "model": "openai/gpt-5.2",
      "variant": "medium"
    }
  },
  "git_master": {
    "commit_footer": false,
    "include_co_authored_by": false
  },
  "sisyphus_agent": {
    "default_builder_enabled": true,
    "replace_plan": false
  }
}

4 个帖子 - 4 位参与者

阅读完整话题

来源: linux.do查看原文