codex记忆混乱、记忆漂移、重新读档
我发现codex在使用过程中会经常出现记忆混乱、记忆漂移、重新读档的现象,特别是在上下文快满的时候出现。具体表现是:我经过了几轮对话 A → B → C → … F codex在执行F任务的过程中会突然跳回到对话A之后重新开始。。。。。。 3 个帖子 - 3 位参与者 阅读完整话
上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 239 篇相关文章 · 第 1 / 12 页
我发现codex在使用过程中会经常出现记忆混乱、记忆漂移、重新读档的现象,特别是在上下文快满的时候出现。具体表现是:我经过了几轮对话 A → B → C → … F codex在执行F任务的过程中会突然跳回到对话A之后重新开始。。。。。。 3 个帖子 - 3 位参与者 阅读完整话
我发现codex在使用的过程中,特别是在上下文快满的时候很容易会出现记忆混乱、记忆漂移、重新读档的现象。具体表现是:我对话几轮后A → B → C → …F ,codex正常执行任务F,突然会跳回到之前的对话A .然后又开始重复。。。。。。 4 个帖子 - 4 位参与者 阅读完整
感觉用起来思路不够发散,一遇到什么就问你要干啥,这长上下文下表现情况也不是很好。2api之后一直总结还有中断。 1 个帖子 - 1 位参与者 阅读完整话题
我用的是自建的sub2api反代plus账号,但是现在我找不到哪里可以设置模型上下文长度和自动压缩,我在本地输入/compact似乎也无法压缩上下文。我记得之前账号使用官方的登录的时候正常是300k左右上下文,可以自动压缩,换了自建就不行了 求问该怎么办 1 个帖子 - 1 位参
一个重构项目,多终端一直卡着无法debug完成,表现为ABCDE五个终端,所有输入都只会错误的输入到A终端,且经过多轮debug无法解决。 当从300K上下文Debug到400K上下文时,v4 pro max开始每轮对话添加一个小修复和日志埋点让我测试运行。然后 加埋点→收集日志
any的Claude-opus-4-7怎么接入CPA啊,我接入一直在报“400 1m 上下文已经全量可用,请启用 1m 上下文后重试”,这个要怎么改啊,gpt-5.3-codex就没有问题。还有any的gpt-5.5是不是不能用MCP啊,一直报错“The encrypted co
只有codex这样子无法滚动去看上面的内容,claude就不会出现,大家遇到过这个问题吗?有解决方案吗, 1 个帖子 - 1 位参与者 阅读完整话题
5.5上下文好少,几轮就触发压缩了,有办法吗? 5 个帖子 - 3 位参与者 阅读完整话题
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
目前的 MCP (模型上下文协议)和各种 Skills 确实让 Claude Code 变得很强,你可以让它运行构建、查询数据库、发起 PR 或关闭 Ticket 。但这些本质上仍然是被动的——只有在你敲下键盘后,Claude Code 才会行动。它对终端之外发生的事情完全没有感
今天试了试长对话,想看看闲聊后能记住多少,结果发现Gemini官网只能记住大概14轮对话,并且是以对话轮次进行计算的,无关用量。多的会被挤掉。 这可能就是为什么Gemini官网中,不能修改用户之前已发送对话的原因? 我用了这么久才知道,我不会是最后一个知道这个的吧 15 个帖子
翻了很多帖子,找不到一个有用的,大概只有一个实测最大上下文270K,怎么解决的也没个方法,现在每次api到自动上下文的时候卡死了就得切正常登录的号把这个人物跑完再切回去 3 个帖子 - 3 位参与者 阅读完整话题
有佬友知道星辰家的模型怎么支持1m上下文吗,官网上显示支持1M上下文,但是ccswitch直接按照模型名导入之后是200k 2 个帖子 - 2 位参与者 阅读完整话题
官方文档 LongCat-2.0-Preview: 上下文长度1M,最大输出长度128K Tokens,能达到1M上下文,说明有这个实力 不过or里面的输出比这个大 官方给内测用户每2小时10M 之前叫S什么的模型代号,这几天改名Longcat2.0了 官方文档叫自己高性能Age
cc搭配deepseek,是不是上下文不是1M?感觉上下文很快就用完了,然后就丢弃前面的开始出现幻觉,越改越不对了。 5 个帖子 - 4 位参与者 阅读完整话题
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
openrouter/owl-alpha 应该是longcat V2 17tps,就这速度还cc和龙虾啊 (为啥秘密代码是:ZOO-OWL-2024,难不成幻觉了,还是美团偷偷杀疯了) 3 个帖子 - 3 位参与者 阅读完整话题