codex 使用 5.4 以上版本模型压缩上下文总失败?
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 241 篇相关文章 · 第 5 / 13 页
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
各位佬友,想问下大家是如何让claude code跨project迁移session上下文的? 背景是这样的:当前从事的一个项目,因为历史包袱原因,很难重构为多git worktree并行开发,因此采用的策略是多git repo并行开发不同特性,每个git repo开启一个cla
在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,
我回答的是B,然后他说是D. 上下文只有15%. 1 个帖子 - 1 位参与者 阅读完整话题
这是源帖子地址: Claude Code 93个全命令速查手册 1. 项目管理与上下文(12个) 基础设置: /init — 生成 CLAUDE.md,让 Claude 记住项目结构和规范 /add-dir — 新增目录到上下文,多文件夹项目必用 /memory — 编辑 CLA
曾经在1月份发过类似的贴着,当时佬们的回答貌似还在吐槽上下文,智能指针。 如今opus4.6[1M] opus4.7 gpt5.4 gpt5.5 以及普惠1M的deepseekV4pro,AI发展一日千里。 嵌入式的佬们现在对于AI的应用感受如何?尤其是做应用层的嵌入式呢? 还有
1. 项目管理与上下文(12个) 基础设置: /init — 生成 CLAUDE.md,让 Claude 记住项目结构和规范 /add-dir — 新增目录到上下文,多文件夹项目必用 /memory — 编辑 CLAUDE.md,更新架构决策 /context — 查看上下文占用
[!IMPORTANT] 原文来自我的 个人博客 ,可以在这里阅读,也可以去博客 由于mermaid流程图是AI生成,本文的mermaid都是截图 不支持移动和缩放 上下文管理 [!NOTE] 本文借助CodeX辅助阅读源码,文章内容纯手工,mermaid图片为AI生成 水平有限
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
把提示词给Codex,让Codex帮忙改 提示词.txt (1.6 KB) 效果 11 个帖子 - 10 位参与者 阅读完整话题
首先感谢,佬的详细总结 GPT-5.5 / Codex 上下文相关问题 开发调优 站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文
根据 GPT5.5在触发上下文压缩的时候报错404了,这个是OpenAI上游的问题还是sub2的问题呢? · Issue #1865 · Wei-Shaw/sub2api · GitHub 这个issue的评论,把codex_cli_rs/0.104.0改成codex_cli_r
站内有很多关于 5.5 / Codex 上下文相关讨论,比较混乱,总结一下: 首先,我们要知道,gpt-5.5 满血版 是 1M 上下文,API 能用到,但是 codex 订阅只给了 400k 上下文。 这个 400K 上下文实际上是 模型上下文 ,也就是 输入+输出 模型最大能
使用官方账号登录的时候,Codex能直接根据上下文 think 并生图,接入中转站的话就不行了,有什么办法解决么? 2 个帖子 - 2 位参与者 阅读完整话题
Error running remote compact task: stream disconnected before completion: error sending request for url ( https://chatgpt.com/backend-api/co
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文