上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn

上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 287 篇相关文章 · 第 6 / 15 页

Codex 上下文压缩机制解析

根据源码分析生成 auto-compact-explainer.pages.dev Codex 自动压缩源码解析 通过流程图、阈值计算器和源码索引理解 Codex auto compaction。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 11:39:50+08:00

用DeepSeek V4做编程的话还可以再等等

DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co

tech linux.do 2026-04-27 10:26:07+08:00

Claude code接入deepseek v4p默认是200k上下文

需要在模型后面添加[1m] 以下是对比图 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 09:40:28+08:00

华为数字钥匙功能上新,支持手机上下摇一摇开关前、后备箱

IT之家 4 月 27 日消息,华为乾崑智能汽车解决方案官方昨日分享了华为数字钥匙的新功能。通过华为乾崑车云,华为数字钥匙可更便捷地控车。 据介绍, 华为数字钥匙新增支持上下摇一摇开关前、后备箱 :屏幕朝上摇,可以开合前备箱;屏幕朝下摇,可以开合后备箱。 另外,华为数字钥匙还支持

tech www.ithome.com 2026-04-27 07:50:13+08:00

求助CPA+hermes上下文窗口只有128k,动不动就满了,怎么调整

RT,在windows上部署的CPA,里面放了两个gpt账号,连上wsl中的ubuntu后对话窗口只有128k,体验太差了,动不动就满了,有没有什么办法调一下 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:16:12+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 18:05:43+08:00

【求解】Codex怎么配置一百万上下文

各位佬,Codex的Cli和客户端好像都是只有25万上下文,能设置成一百万吗 10 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-26 17:38:37+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 17:05:43+08:00

2080ti 11g本地部署qwen 3.6 35b a3b,128k 上下文,67tps

我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上

tech linux.do 2026-04-26 16:52:57+08:00

Codex 上下文和token用量的关系

昨晚用codex改个项目,一共弄了十几轮,今天一看token炸了啊,一下子空了10个free号,花了80M的token,从sub2api的统计看,每次请求缓存都400多K。codex 默认启用的是1M上下文。今天新开了对话,token用量一下就降了。想请教下佬们,是不是codex

tech linux.do 2026-04-26 16:24:47+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 16:05:43+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 09:49:29+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 02:07:24+08:00

佬们更新GPT5.5有遇到这个错误吗

in遇到好几次了更新以后 看起来像是上下文超出 但是5.4的时候从来没遇到过 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 01:01:46+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 00:07:24+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 00:07:24+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 00:07:24+08:00

cc如何跨project迁移session上下文

各位佬友,想问下大家是如何让claude code跨project迁移session上下文的? 背景是这样的:当前从事的一个项目,因为历史包袱原因,很难重构为多git worktree并行开发,因此采用的策略是多git repo并行开发不同特性,每个git repo开启一个cla

tech linux.do 2026-04-25 23:08:54+08:00

[OpenAI] codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech v2ex.com 2026-04-25 23:07:24+08:00

这就是claude effort max的能力吗?我有点无力吐槽

我回答的是B,然后他说是D. 上下文只有15%. 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:13:42+08:00