codex vscode插件上下文貌似存在错误?
佬友们有没有遇到这种情况,我用的codex vscode插件版: 我:需求A codex:A实现好了 我:需求B codex:A实现好了(与上一轮对第一次需求A的回复不完全一致,和B完全无关) 我这里最近出现这种情况的频次不低 3 个帖子 - 3 位参与者 阅读完整话题
下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第11页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 249 篇相关文章 · 第 11 / 13 页
佬友们有没有遇到这种情况,我用的codex vscode插件版: 我:需求A codex:A实现好了 我:需求B codex:A实现好了(与上一轮对第一次需求A的回复不完全一致,和B完全无关) 我这里最近出现这种情况的频次不低 3 个帖子 - 3 位参与者 阅读完整话题
一直都听到各种小道消息说deepseek要发布deepseek v4,什么百万上下文,什么超绝思维链,从年前到现在,deepseek也没见有什么动静,是不是因为大家给的期待太多了,deepseek准备憋一个大的 8 个帖子 - 8 位参与者 阅读完整话题
现在又变回128k长下文了,很难绷啊感觉在耍我们 9 个帖子 - 7 位参与者 阅读完整话题
DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。 但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。 超时报错:{“error”:{“message”:“We were unable to s
IT之家 4 月 22 日消息,今日有大量用户反馈称,DeepSeek 官方 API 已经更新到了与客户端及网页版相同的 1M tokens 上下文版本(似乎是此前曝光的 DeepSeek V4 Lite),比之前的 128k 上下文更长。 与此同时,最新 DeepSeek 的知
刚才测试了一下,突然回答自己有 1M 上下文,并且和官网一样说能吃下《三体》这么多的内容。 其他信息尚不明确,请佬友做更多测试。 1 个帖子 - 1 位参与者 阅读完整话题
API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 32 个帖子 - 27 位参与者 阅读完整话题
试了下,上下文很小 7 个帖子 - 6 位参与者 阅读完整话题
求助佬们any中 API Error: 400 {“error”:“1m 上下文已经全量可用,请启用 1m 上下文后重试”,“type”:“error”} 怎么解决 6 个帖子 - 4 位参与者 阅读完整话题
昨天发现按次计费的老帐号,不能开1m上下文,开的话自动转为max模式。 新账号就可以,,,, 什么玩意,区别对待? 1 个帖子 - 1 位参与者 阅读完整话题
最新使用gpt开发一个比较大的客户端flutter项目,后端开发还行,前端实在受不了了。用大善人any来改造前端,用的是vscode的cc插件,正常问答可以,但是只要上传几个图片,两三轮对话就报错了,错误如下 Request too large (max 32MB). Try w
某用户使用 kimi 的时候,kimi 将其他人的简历发给了他,和上下文完全不相干,被泄露简历的当事人已被 kimi pm 联系 相关帖子 3 个帖子 - 3 位参与者 阅读完整话题
就是上下文默认最大258k的情况下,一个free号会不会可能出现 一次顶格上下文的请求 完不成的情况???如果会的话,那free号实在是没什么意义了… 1 个帖子 - 1 位参与者 阅读完整话题
IT之家 4 月 21 日消息,OpenAI 为其 Codex 应用推出了 Chronicle 功能,该功能通过屏幕录制构建记忆库,Codex 可将这些记忆作为后续任务的上下文参考,从而无需用户每次重新说明,就能知晓其所指内容、使用的工具以及正在进行的项目。 据IT之家了解,Ch
聊聊大家觉得性价比最高的coding plan是哪一款,我目前用的是minimax 感觉一般,coding不是很强,上下文长了就乱答,加入到cursor里还经常回答一堆英文内容,就算提示词让他中文回答也不行 18 个帖子 - 16 位参与者 阅读完整话题
any(大概)在长上下文后一直出错,然后重试它好像还会思考一会(等了一会之后cc才再次进行重试,而且时间很长,特别的长,最后的报错我每次都等不及所以没发) 并且一旦开新会话,马上就正常了,我猜是因为上下文太长了,并且看似请求了1m,实际上不是1m(导致超了,且没有自动总结)? 1
之前 Qwen 3.6 Plus 测试的时候,好像一开始也是不支持多模态输入,应该不至于是模型本身不支持吧。 3 个帖子 - 2 位参与者 阅读完整话题
token 变贵,上下文效果拉垮,很难察觉的致命幻觉。现在都不知道到底用啥模型了
Error running remote compact task: stream disconnected before completion: err or sending request for url ( https://chatgpt.com/backend-api/c
如题。如果在cc中体验开启: oh-my-claude-code Everything Claude Code GetStuffDone(GSD) OpenSpec … 这会导致上下文很快爆炸…在一个项目里开了个 /init 直接跑了45%的 ConText… 针对这些烧toke