上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

上下文 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 241 篇相关文章 · 第 2 / 13 页

[全球工单系统] @字节跳动 贵司 RD 读了用户在豆包的上下文,是不是应该三缄其口?另请注意职业伤害

tech v2ex.com 2026-05-01 00:03:05+08:00

Openrouter上新新匿名模型openrouter/owl-alpha(longcatV2),1m上下文,看介绍为龙虾而生

openrouter/owl-alpha 应该是longcat V2 17tps,就这速度还cc和龙虾啊 (为啥秘密代码是:ZOO-OWL-2024,难不成幻觉了,还是美团偷偷杀疯了) 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-30 23:41:22+08:00

codex新建对话窗口,上下文直接占用了100k

因为老窗口上下文长,我新建了个窗口给他丢了一个md文件解读后继续写代码,突然发现才给了一个指令就占用了100多k。这是我md文件太长的问题吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 18:36:44+08:00

claude code API Error: 400 {"error":"1m 上下文已经全量可用,请启用 1m 上下文后重试","type":"error"

image|690x189 大佬们 中转设置了 api url 为什么这样呢 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-30 14:44:33+08:00

CPA接CF中转出来使用,报错524

上下文长一点就报错 API Error: 524 claude code中使用 需要/compact压缩一下上下文才能解决问题 还有什么更优雅的方式解决问题吗? 报错详情 (点击了解更多详细信息) 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 12:21:15+08:00

codex通过cpa调用codex上下文压缩失败

Error running remote compact task: stream disconnected before completion: missing field output at line 11 column 157 我之前报了连接超时,解决方案是显示为cpa添加

tech linux.do 2026-04-30 10:24:31+08:00

GPT5.5在opencode+OMO中使用感觉上下文不足

如题,之前用opencode+OMO+GPT5.4,工作流很习惯了。现在切到GPT5.5,虽然感觉能力确实明显有提升,但是经常出现几个task/tools的结果一下子塞爆上下文连compact都做不到的情况。 codex上因为有会话内自动压缩,基本不需要手动压缩,更加适配GPT

tech linux.do 2026-04-30 09:08:49+08:00

捧杀有助于破限吗

上下文太长找不到了 我今晚在跑注册机,先用的破限提示词,达到上下文压缩后道德感回来了,然后我一句 ctf 环境 + 捧杀就可以了 ,什么万能完美最强的 gpt 模型一顿夸夸 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-30 05:30:30+08:00

deepseekv4pro搞逆向如呼吸般顺畅

不会偷懒(让我写一个简单版本…)也不用去想怎么破限制,1m上下文和缓存也能使劲造,真是太爽了 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-30 05:25:33+08:00

我发现了codex的bug

不知道是不是因为我的窗口上下文太长的问题,比如在让他在修复bug,修一半他突然幻觉去回复上面已经回答过的问题。把我气的半死。有没有佬遇到跟我一样的情况 9 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-30 03:03:49+08:00

gpt 5.5 只能258k上下文, 没法干活阿, 还是换成5.4了

原来5.4 1M上下文习惯了 真干活, 很容易搞倒800k了, 我手动压缩一次 200多k要不停压缩怕质量不行 还是等1M 5.5再用把 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:55:52+08:00

DeepSeek v4 pro会忽略一部分上下文?

在使用cherry studio调用DeepSeek官方API时发现的,模型会频繁出现忽略输入内容的情况。 具体表现为,当单次输入的prompt内容较长时,比如超过10000tokens,大模型的输出结果就明显看出来,它忽略了前5000个输入token,实际使用过程中甚至出现过忽

tech linux.do 2026-04-29 21:42:59+08:00

CPA里GPT5.5 上下文的问题,问下各位佬~

听说gpt5.5不是在codex里面上下文是272k?在cpa里面反代出来上下文窗口能到多少,有知道的佬友么?400k?1M? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:52:58+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾

tech linux.do 2026-04-29 15:32:00+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。

tech www.ithome.com 2026-04-29 15:09:05+08:00

cc-switch 全局代理开启的话 如何设置1M上下文

如题 目前用的cc-switch 管理模型,但是通过全局的代理话 不知道怎么设置成1M上下文 5 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 13:18:42+08:00

佬友们知道gpt5.5上下文一直无法压缩怎么解决吗

环境是vscode的Codex插件,plus会员,config.toml如图 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:51:44+08:00

vibe coding上下文问题求助

各位佬友,用codex进行vibe coding时,描述背景分析项目就要把上下文窗口占满了,实现代码的时候上下文就不够用了会进行压缩,这种情况下会不会导致上下文丢失进而影响实现的代码正确性,这个问题有好的解决方法吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:30:59+08:00

有没有佬知道调用第三方 deepseek-v4-pro 的时候怎么在 CC 中开启 1M 上下文长度

我现在在使用 ollama 的 deepseek-v4-pro, 我尝试在 CCS 中的模型名称后面加上 [1m], 但是显示调用失败, 有佬知道怎么开启吗? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-29 11:30:57+08:00

为啥在codex app里面上下文用这么快?

感觉比 cli 里面不耐用的很,一个复杂任务 5.5 的上下文就满了…且间接导致 app 里面用着卡卡的 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 22:02:38+08:00