前些天偶然间看到推上有人说GPT和Claude的性格差异,大概意思是,GPT能更好的遵守指令,越细化的指令执行的结果就越好;Claude则对指令容忍度较高。
我让GPT检索了一下来源,应该是从Cursor的这篇文章里来的。
OpenAI’s models tend to be more literal and precise in their instruction following, whereas Claude is a bit more intuitive and more tolerant to imprecise instructions.
我之前不管是用Codex还是Claude Code,都是想着功能实现然后口语化的描述给Agent让它来做,这样虽然基本都可以达到想要的效果,但是往往与想象中的状态还有很多差异,比如细节上的问题、Agent工作中遗留或未考虑到的BUG,这些都需要后续多遍甚至多个Model来Review解决,甚至可能发现不了。
这篇文章给我个启发,为什么不让Agent自己给自己写提示词或者指令?之前我试过让ChatGPT写出prompt给Codex运行,效果有很大提升,但是因为ChatGPT没有开发环境,只能泛泛的给出一个结论,有时候这个结论反而和现实项目相悖,而指令很长又导致可能发现不了这些问题。(比如项目是Vue写的,但是我让GPT描述了功能它让Codex用React写。)
目前我才用的方法是直接让Codex自己读项目,自己写prompt,优化1~2次,然后新建一个session把prompt丢进去让它做,效果提升显著。
最后,我能想到很多大佬可能早就知道这种方法了,只是作为新手的我这两天才悟过来,也算是给其他Vibe Coding的朋友分享一些我的见解吧。
哦对了,我的Coding组合是问过佬们之后采用的3个Plus扔进Sub2Api调度方案,额度基本用不完了 ![]()
10 个帖子 - 9 位参与者