下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 249 篇相关文章 · 第 4 / 13 页

Claude Code 现在强制要1M上下文吗?

Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 13:49:57+08:00

佬,推荐一下文字转语音

无限制最好,有方言,或者有仿明星语气那种。感谢感谢。 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 09:56:47+08:00

GPT-5.5在claude code自定义上下文长度的方法

目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然

tech linux.do 2026-04-28 08:52:04+08:00

Claude Desktop App 使用百万上下文模型时,最好手动添加模型

今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。 因为我知道这个模型有百万上下文,所以手动添加模型名称 打开1M开关 在我另一篇帖子里有添加方法: 请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已

tech linux.do 2026-04-28 07:49:31+08:00

深度研究了下,发现Claude 上下文与长期记忆不适合国产ai

一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现 Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持

tech linux.do 2026-04-28 07:41:43+08:00

claude code 记忆机制学习总结

claude code 记忆机制 为了解决三个问题 1、上下文遗忘 2、多终端同步 3、token预算控制 claude code 使用了六个维度记忆框架 指令记忆 (规则级) 如框架图所示,指令的记忆都是以规则形式放在CLAUDE.md的文件族中,那么这些文件的有什么作用呢?加

tech linux.do 2026-04-27 20:21:01+08:00

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号)

gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 20:20:14+08:00

请教下各位佬友是怎么监视自己的claudecode比方说工具调用 hook触发 上下文注入情况等

请教下各位佬友是怎么监视自己的claudecode,比方说工具调用 hook触发 上下文注入情况等 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 17:48:05+08:00

传Kimi K3三季度发布,参数超2.5万亿,1M上下文!

「日常焦虑帝」爆料称,Kimi K3 计划在 Q3 发布,参数规模超过 2.5 万亿;内部实验已测试远超 100 万 token 的上下文长度,但最终是否向用户开放 1M 上下文仍不确定。爆料还称,当前限制 Kimi 推出 1M 上下文的主要瓶颈不是技术,而是算力资源。 这条传闻

tech linux.do 2026-04-27 17:39:54+08:00

cc 接入 gpt-5.5 怎样适配短上下文

因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"

tech linux.do 2026-04-27 15:05:57+08:00

gpt5.5的上下文比opus短很多,可以怎么解决?

想问下佬,gpt5.5在codex的上下文比opus短很多,现在可以怎么解决呀?自动压缩似乎也比5.4的时候厉害了,压缩完gpt什么都忘记 14 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 14:45:16+08:00

OpenCode配置CPA中转站,缺少上下文容量的参数,模型的上下文参数在哪里找?

OpenCode如果直接登陆chatgpt的账号,会自动获取到每个模型的上下文容量,token超过某个阈值会自动触发压缩,但是如果通过CPA来调用,好像就缺少这个信息了,因为我只配置了模型名称。 { "cpa": { "options":

tech linux.do 2026-04-27 12:02:54+08:00

Claude 公益 key公告

主贴 https://linux.do/t/topic/1972106 由于上游的限制其上下文能力,两个主要2api渠道在30-50k之间,虽然其它能力未受到限制,但可用性受到很多限制 并且,由于主渠道封控加强注册机注册成功慢,失败率高,很难大规模应用 或将开源其中一个渠道(可能

tech linux.do 2026-04-27 11:40:21+08:00

Codex 上下文压缩机制解析

根据源码分析生成 auto-compact-explainer.pages.dev Codex 自动压缩源码解析 通过流程图、阈值计算器和源码索引理解 Codex auto compaction。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 11:39:50+08:00

用DeepSeek V4做编程的话还可以再等等

DeepSeek V4对AI coding最大的价值就是真正可用的1M上下文,抹平了和御三家的差距。咱们平时AI coding,多追问几句,上下文就会很长,DeepSeek V4的价值就发挥出来了。 但现在看来,DeepSeek V4还有一些兼容性问题,例如: github.co

tech linux.do 2026-04-27 10:26:07+08:00

Claude code接入deepseek v4p默认是200k上下文

需要在模型后面添加[1m] 以下是对比图 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-27 09:40:28+08:00

求助CPA+hermes上下文窗口只有128k,动不动就满了,怎么调整

RT,在windows上部署的CPA,里面放了两个gpt账号,连上wsl中的ubuntu后对话窗口只有128k,体验太差了,动不动就满了,有没有什么办法调一下 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:16:12+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 18:05:43+08:00

【求解】Codex怎么配置一百万上下文

各位佬,Codex的Cli和客户端好像都是只有25万上下文,能设置成一百万吗 10 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-26 17:38:37+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 17:05:43+08:00