1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

1m - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 99 篇相关文章 · 第 3 / 5 页

GPT-5.5 配了 1M 却又显示 258K?Codex Desktop Windows 修复记录(无效)

我遇到的问题是: config.toml 里明明已经写了 GPT-5.5 的 1M 上下文,但 Codex Desktop 新开线程或重启后,界面又显示回 258K。 最后排查发现,不是 config.toml 写错,而是 Codex Desktop 会读取本地模型缓存。缓存里的

tech linux.do 2026-04-25 13:59:11+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

deepseek客户端已经是v4了吗?

专家模式: 快速模式: 快速模式居然是三个独立的球,不过交互比专家模式有意思 Claudecode支持1m上下文? 另外,之前看预告一直说v4出多模态了,还是原生多模态,和模型一起训练的,非拼接,如果客户端已经是v4的话,那就是没有多模态了吧 1 个帖子 - 1 位参与者 阅读完

tech linux.do 2026-04-24 18:59:08+08:00

我的cc /model为什么不显示1mcontext了导致any用不了了

Default (recommended) Use the default model (currently Opus 4.7) · $3/$15 per Mtok 2. claude-opus-4-7 Custom Sonnet model ❯ 3. claude-opus-4

tech linux.do 2026-04-24 18:35:59+08:00

GPT-5.5的编程能力如何

看基准测试是有进步的,不知道各位的感受如何,最关心的是能不能开1M,5.4开1M的话那个注意力都不知道飘哪里去了 16 个帖子 - 9 位参与者 阅读完整话题

tech linux.do 2026-04-24 18:12:00+08:00

GPT5.5 怎么开 1M 上下文呀

之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:03:38+08:00

codex更新后不能开启1M上下文了吗?

一直改的config.toml 之前5.4 1M效果不佳就关了,今天看GPT5.5 1M上下文的召回率提高了就又打开了,但是似乎无法生效? 有知道怎么开启的佬吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:02:03+08:00

codex 中GPT5.5 现在怎么配置 1M 上下文

[已解决]codex 上下文满太快了,有人经常遇到吗? 搞七捻三 解决方案: 改用户目录下的.codex目录的config.toml model_context_window = 1000000 我的 codex 还没怎么用,上下文就满了,大家的 GPT-4 都是 258K 吗?

tech linux.do 2026-04-24 14:53:33+08:00

DeepSeek V4 的相关影响

deepseek v4 的推出,应该对相关同行有着不小的影响。简单的像其他家的ai也要有1m上下文了啥的。光是对昇腾gpu的支持,就能把老黄逼急(前不久采访提到的不该限制gpu卖给中国的言论)。 光从模型看,哪怕公众号文章提到的性能有所差距 “目前 DeepSeek-V4 已成为

tech linux.do 2026-04-24 13:13:42+08:00

Deepseek价格恐怖如斯 好贵啊

一个hi+一个分析系统的命令 花了11m41s 消耗4.13rmb 14 个帖子 - 14 位参与者 阅读完整话题

tech linux.do 2026-04-24 12:16:36+08:00

最强开源模型 DeepSeek V4 发布,1M上下文,运行成本大降

DeepSeek V4 终于发布了,带来了 1M 上下文,代码能力明显提升,推理进入第一梯队,但知识类能力仍落后于头部闭源模型。 最重要的是:「DeepSeek-V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Spars

tech feeds.appinn.com 2026-04-24 12:05:20+08:00

DeepSeek-V4发布:进入1M上下文普惠时代

经过5个月漫长的等待,DeepSeek-V4终于发布。 首发推出 DeepSeek-V4-flash 和 DeepSeek-V4-Pro 两个版本。 V4-flash与V4-Pro定价如下图所示 同时,在DeepSeek官方公众号还提到,在今年下半年华为Asend950超节点批量

tech linux.do 2026-04-24 11:38:37+08:00