[Google Gemini] Gemini 的上下文关联是不是太过头了?
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 241 篇相关文章 · 第 3 / 13 页
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
这两天chatgpt是降智了吗?一点上下文能力都没,逻辑能力也差得一p,真想换了,要不是他便宜,最近在学ue蓝图就一直用它的网页。刚刚做算法也是,写的a>b 他给我来句有问题,应该是b>a;给我气笑了 11 个帖子 - 6 位参与者 阅读完整话题
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
前言 一直想测试下各种大模型在实际场景下的上下文能力。之前尝试用《首无》做了一版,但是存在剧透,测试不全面等问题。这次灵机一动,直接告诉大模型在输出的时候直接对剧透内容进行模糊处理。所有内容都人工二次检查过,无剧透可放心食用(除了末尾的完整压缩包,那个会给出所有的原始html文件
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
今天codex更新,发现gpt5.5只有250k的上下文,之前在toml中的model_context_window配置似乎失效了。 那么依旧找gpt5.5自己尝试解决一下,啪的一下很快啊。 新版 Codex 里,model_context_window = 500000 可能无
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
比如说我先问了个局域网游戏《帝国时代》无法联机是否是 Hyper-V 虚拟交换机的问题,接着问了个 12 代 cpu 在轻薄笔记本上散热的问题, 过了一会又问了一个 Macbook Air 各代的重量。(在同一个主题下面) 它总是试图强行把前面提到的几个主题和我最后一个问题关联起
claude code中使用gpt就会像这样缓存卡在这里,上下文增长,但是缓存不会增长了,同样的gpt账号,我用cpa反代,然后在CC中就没这个缓存的问题。还有codex中无论使用sub2api或者cpa都没有这个问题 是我sub2api设置的问题吗。使用的最新0.119版本 1
别再用LangChain搭玩具了|工业级Agent引擎手写复刻 那些抄几行Python搭的智能体,一上生产就崩? 上下文雪崩|死循环烧Token|高危命令执行|记忆断电消失 这一次不调包,纯手写Agent底层引擎 从0到1撸一个工业级ReAct循环 干掉20+工程卡点:死循环拦截
在网页版的哈基米对话,让他给我生成剧本提示词,一直在不断的调整。过了10多天之后,要生成另外类型的剧本提示词。对话过程中老是跑出来之前对话的东西,怎么改都改不掉 4 个帖子 - 4 位参与者 阅读完整话题
正常项目开发,没什么特别的操作 15 个帖子 - 13 位参与者 阅读完整话题
pro 20x,用sub2api反代的,远程压缩一直失败,换成5.4就没问题,而且5.5貌似上下文是256k,一个问题没整完就开始压缩了。。。。佬们有没有好用的config.toml推荐一下 3 个帖子 - 3 位参与者 阅读完整话题
Claude Code 现在强制要1M上下文吗?那GLM5.1咋办? 2 个帖子 - 2 位参与者 阅读完整话题
目前来看,gpt-5.5只有api调用才有满血1M上下文,从codex反代出来的只有400k窗口(其中258k输入来着) 我尝试在claude code使用该模型,然而5.5没有100万上下文,强行设定的话会出问题(超出模型处理能力然后任务无法继续。。。) 然而我觉得400k虽然
今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。 因为我知道这个模型有百万上下文,所以手动添加模型名称 打开1M开关 在我另一篇帖子里有添加方法: 请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已
一直感觉cc有时候没有那么强,国产ai没那么弱,但是就是cc挺好用,最近没事研究了下cc的泄漏源码,我发现 Claude cli的长期记忆,本质上仍然是“把记忆塞回上下文”。它没有真正跳出上下文窗口,只是在上下文窗口快爆炸时,用更复杂的摘要、更聪明的筛选、更贵的模型调用,继续维持
claude code 记忆机制 为了解决三个问题 1、上下文遗忘 2、多终端同步 3、token预算控制 claude code 使用了六个维度记忆框架 指令记忆 (规则级) 如框架图所示,指令的记忆都是以规则形式放在CLAUDE.md的文件族中,那么这些文件的有什么作用呢?加