[问与答] Gemini 的上下文关联是不是太过头了?
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
上下 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 287 篇相关文章 · 第 5 / 15 页
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
claude code中使用gpt就会像这样缓存卡在这里,上下文增长,但是缓存不会增长了,同样的gpt账号,我用cpa反代,然后在CC中就没这个缓存的问题。还有codex中无论使用sub2api或者cpa都没有这个问题 是我sub2api设置的问题吗。使用的最新0.119版本 1
别再用LangChain搭玩具了|工业级Agent引擎手写复刻 那些抄几行Python搭的智能体,一上生产就崩? 上下文雪崩|死循环烧Token|高危命令执行|记忆断电消失 这一次不调包,纯手写Agent底层引擎 从0到1撸一个工业级ReAct循环 干掉20+工程卡点:死循环拦截
在网页版的哈基米对话,让他给我生成剧本提示词,一直在不断的调整。过了10多天之后,要生成另外类型的剧本提示词。对话过程中老是跑出来之前对话的东西,怎么改都改不掉 4 个帖子 - 4 位参与者 阅读完整话题
正常项目开发,没什么特别的操作 15 个帖子 - 13 位参与者 阅读完整话题
pro 20x,用sub2api反代的,远程压缩一直失败,换成5.4就没问题,而且5.5貌似上下文是256k,一个问题没整完就开始压缩了。。。。佬们有没有好用的config.toml推荐一下 3 个帖子 - 3 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题
目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然
今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。 因为我知道这个模型有百万上下文,所以手动添加模型名称 打开1M开关 在我另一篇帖子里有添加方法: 请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现 Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持
rt,Claude code v2.1.119 版本,按两次 esc 进入 rewind 后,键盘上下键无反应,无法选择回退,同时 esc 和 enter 也失效,无法进入和退出。 有佬遇到这种情况嘛?求解决方案 7 个帖子 - 5 位参与者 阅读完整话题
claude code 记忆机制 为了解决三个问题 1、上下文遗忘 2、多终端同步 3、token预算控制 claude code 使用了六个维度记忆框架 指令记忆 (规则级) 如框架图所示,指令的记忆都是以规则形式放在CLAUDE.md的文件族中,那么这些文件的有什么作用呢?加
gpt5.5在codex里面没法开1m上下文,可咋办啊(账号登陆,team和plus号) 2 个帖子 - 2 位参与者 阅读完整话题
请教下各位佬友是怎么监视自己的claudecode,比方说工具调用 hook触发 上下文注入情况等 1 个帖子 - 1 位参与者 阅读完整话题
「日常焦虑帝」爆料称,Kimi K3 计划在 Q3 发布,参数规模超过 2.5 万亿;内部实验已测试远超 100 万 token 的上下文长度,但最终是否向用户开放 1M 上下文仍不确定。爆料还称,当前限制 Kimi 推出 1M 上下文的主要瓶颈不是技术,而是算力资源。 这条传闻
因为cc 默认1m 上下文,5.5 到了 256 k 就不可用了,codex plus 用户的话 好像有两种办法,CLAUDE_CODE_DISABLE_1M_CONTEXT 会让别的也变成200k? "model": "opus[1m]"
想问下佬,gpt5.5在codex的上下文比opus短很多,现在可以怎么解决呀?自动压缩似乎也比5.4的时候厉害了,压缩完gpt什么都忘记 14 个帖子 - 5 位参与者 阅读完整话题
OpenCode如果直接登陆chatgpt的账号,会自动获取到每个模型的上下文容量,token超过某个阈值会自动触发压缩,但是如果通过CPA来调用,好像就缺少这个信息了,因为我只配置了模型名称。 { "cpa": { "options":
主贴 https://linux.do/t/topic/1972106 由于上游的限制其上下文能力,两个主要2api渠道在30-50k之间,虽然其它能力未受到限制,但可用性受到很多限制 并且,由于主渠道封控加强注册机注册成功慢,失败率高,很难大规模应用 或将开源其中一个渠道(可能