上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 241 篇相关文章 · 第 4 / 13 页

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号)

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 20:20:14+08:00

请教下各位佬友是怎么监视自己的claudecode比方说工具调用 hook触发 上下文注入情况等

请教下各位佬友是怎么监视自己的claudecode,比方说工具调用 hook触发 上下文注入情况等 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 17:48:05+08:00

传Kimi K3三季度发布,参数超2.5万亿,1M上下文!

「日常焦虑帝」爆料称,Kimi K3 计划在 Q3 发布,参数规模超过 2.5 万亿;内部实验已测试远超 100 万 token 的上下文长度,但最终是否向用户开放 1M 上下文仍不确定。爆料还称,当前限制 Kimi 推出 1M 上下文的主要瓶颈不是技术,而是算力资源。 这条传闻

tech linux.do 2026-04-27 17:39:54+08:00

cc 接入 gpt-5.5 怎样适配短上下文

因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"

tech linux.do 2026-04-27 15:05:57+08:00

gpt5.5的上下文比opus短很多,可以怎么解决?

想问下佬,gpt5.5在codex的上下文比opus短很多,现在可以怎么解决呀?自动压缩似乎也比5.4的时候厉害了,压缩完gpt什么都忘记 14 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 14:45:16+08:00

OpenCode配置CPA中转站,缺少上下文容量的参数,模型的上下文参数在哪里找?

OpenCode如果直接登陆chatgpt的账号,会自动获取到每个模型的上下文容量,token超过某个阈值会自动触发压缩,但是如果通过CPA来调用,好像就缺少这个信息了,因为我只配置了模型名称。 { "cpa": { "options":

tech linux.do 2026-04-27 12:02:54+08:00

Claude 公益 key公告

主贴 https://linux.do/t/topic/1972106 由于上游的限制其上下文能力,两个主要2api渠道在30-50k之间,虽然其它能力未受到限制,但可用性受到很多限制 并且,由于主渠道封控加强注册机注册成功慢,失败率高,很难大规模应用 或将开源其中一个渠道(可能

tech linux.do 2026-04-27 11:40:21+08:00

Codex 上下文压缩机制解析

根据源码分析生成 auto-compact-explainer.pages.dev Codex 自动压缩源码解析 通过流程图、阈值计算器和源码索引理解 Codex auto compaction。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 11:39:50+08:00

用DeepSeek V4做编程的话还可以再等等

DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co

tech linux.do 2026-04-27 10:26:07+08:00

Claude code接入deepseek v4p默认是200k上下文

需要在模型后面添加[1m] 以下是对比图 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 09:40:28+08:00

求助CPA+hermes上下文窗口只有128k,动不动就满了,怎么调整

RT,在windows上部署的CPA,里面放了两个gpt账号,连上wsl中的ubuntu后对话窗口只有128k,体验太差了,动不动就满了,有没有什么办法调一下 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:16:12+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 18:05:43+08:00

【求解】Codex怎么配置一百万上下文

各位佬,Codex的Cli和客户端好像都是只有25万上下文,能设置成一百万吗 10 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-26 17:38:37+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 17:05:43+08:00

2080ti 11g本地部署qwen 3.6 35b a3b,128k 上下文,67tps

我是windows上llama.cpp部署的,先看效果图。 这里面,我用的模型是 unsloth 量化的 Qwen3.6-35B-A3B-UD-IQ1_M 模型。 得益于其超强的量化,整个模型可以完美装在 2080ti 11g 显存里面,用 q4 量化上下文可以跑到128k 的上

tech linux.do 2026-04-26 16:52:57+08:00

Codex 上下文和token用量的关系

昨晚用codex改个项目,一共弄了十几轮,今天一看token炸了啊,一下子空了10个free号,花了80M的token,从sub2api的统计看,每次请求缓存都400多K。codex 默认启用的是1M上下文。今天新开了对话,token用量一下就降了。想请教下佬们,是不是codex

tech linux.do 2026-04-26 16:24:47+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 16:05:43+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 09:49:29+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 02:07:24+08:00

佬们更新GPT5.5有遇到这个错误吗

in遇到好几次了更新以后 看起来像是上下文超出 但是5.4的时候从来没遇到过 8 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-26 01:01:46+08:00