分享一个prompt补丁, 关于如何让若智模型说人话

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 否 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺是永久有效的,接受社...
分享一个prompt补丁, 关于如何让若智模型说人话
分享一个prompt补丁, 关于如何让若智模型说人话
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容:
  • 我的帖子已经打上 开源推广 标签:
  • 我的开源项目完整开源,无未开源部分:
  • 我的开源项目已链接认可 LINUX DO 社区:
  • 我帖子内的项目介绍,AI生成、润色内容部分已截图发出:
  • 以上选择我承诺是永久有效的,接受社区和佬友监督:

以下为项目介绍正文内容,AI生成、润色内容已使用截图方式发出


背景: 我:实现出来 * 3;codex:如果你愿意,我下一步 * 3; - #12,来自 p369029292

现在GPT说话越来越婆婆妈妈, 而且模板性很强, 比如各种无序列表和碎片化表达来显得自己很有道理和逻辑, 经常几句话就能说清楚的东西故意洋洋洒洒一大块又圆又满, 然后给你接一句 “用一句话总结, 就是xxx”, 然后最后还要假惺惺问你一句 “如果你想的话 我可以为你xxx”,

补丁适用于所有存在类似输出范式的模型 e.g. DSv3. 这是一键部署脚本, 支持linux下的codex cc hermes, 别的环境/app不知道怎么适配的话, 可以扔给agent让改 很简单. GitHub - cut01ass/LLM-over-deference-fix · GitHub

这个成因是目前RLHF训练机制的设计缺陷导致, 具体不在这里展开, 解决方法简单说就是用显式身份声明对冲系统prompt. 添加前后效果可以自己试一下, 好很多. agent输出的有效信息密度 会高很多, 而且没有一棍子打死原来的输出范式, 保留了原本输出范式中的事实性同意 语义枚举 以及如果是高价值的followUp还是会输出.注意 用户侧不能完全解决这个问题, 因为实现思路是在配置文件注入prompt, 二进制的system prompt改不了, 他的优先级比用户的prompt高, 因此上下文变得很长后 偶尔会有遗漏.

试试效果, 看看怎么样.

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文