佬友们知道gpt5.5上下文一直无法压缩怎么解决吗
环境是vscode的Codex插件,plus会员,config.toml如图 1 个帖子 - 1 位参与者 阅读完整话题
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 248 篇相关文章 · 第 3 / 13 页
环境是vscode的Codex插件,plus会员,config.toml如图 1 个帖子 - 1 位参与者 阅读完整话题
各位佬友,用codex进行vibe coding时,描述背景分析项目就要把上下文窗口占满了,实现代码的时候上下文就不够用了会进行压缩,这种情况下会不会导致上下文丢失进而影响实现的代码正确性,这个问题有好的解决方法吗? 2 个帖子 - 2 位参与者 阅读完整话题
我现在在使用 ollama 的 deepseek-v4-pro, 我尝试在 CCS 中的模型名称后面加上 [1m], 但是显示调用失败, 有佬知道怎么开启吗? 3 个帖子 - 2 位参与者 阅读完整话题
感觉比 cli 里面不耐用的很,一个复杂任务 5.5 的上下文就满了…且间接导致 app 里面用着卡卡的 3 个帖子 - 3 位参与者 阅读完整话题
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
这两天chatgpt是降智了吗?一点上下文能力都没,逻辑能力也差得一p,真想换了,要不是他便宜,最近在学ue蓝图就一直用它的网页。刚刚做算法也是,写的a>b 他给我来句有问题,应该是b>a;给我气笑了 11 个帖子 - 6 位参与者 阅读完整话题
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
前言 一直想测试下各种大模型在实际场景下的上下文能力。之前尝试用《首无》做了一版,但是存在剧透,测试不全面等问题。这次灵机一动,直接告诉大模型在输出的时候直接对剧透内容进行模糊处理。所有内容都人工二次检查过,无剧透可放心食用(除了末尾的完整压缩包,那个会给出所有的原始html文件
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。 那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。 新版 Codex 里,model_context_window = 500000 可能无
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
claude code中使用gpt就会像这样缓存卡在这里,上下文增长,但是缓存不会增长了,同样的gpt账号,我用cpa反代,然后在CC中就没这个缓存的问题。还有codex中无论使用sub2api或者cpa都没有这个问题 是我sub2api设置的问题吗。使用的最新0.119版本 1
别再用LangChain搭玩具了|工业级Agent引擎手写复刻 那些抄几行Python搭的智能体,一上生产就崩? 上下文雪崩|死循环烧Token|高危命令执行|记忆断电消失 这一次不调包,纯手写Agent底层引擎 从0到1撸一个工业级ReAct循环 干掉20+工程卡点:死循环拦截
在网页版的哈基米对话,让他给我生成剧本提示词,一直在不断的调整。过了10多天之后,要生成另外类型的剧本提示词。对话过程中老是跑出来之前对话的东西,怎么改都改不掉 4 个帖子 - 4 位参与者 阅读完整话题
正常项目开发,没什么特别的操作 15 个帖子 - 13 位参与者 阅读完整话题
pro 20x,用sub2api反代的,远程压缩一直失败,换成5.4就没问题,而且5.5貌似上下文是256k,一个问题没整完就开始压缩了。。。。佬们有没有好用的config.toml推荐一下 3 个帖子 - 3 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题