256k - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

256k - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 16 篇相关文章

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾

tech linux.do 2026-04-29 15:32:00+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。

tech www.ithome.com 2026-04-29 15:09:05+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 15:03:41+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

发现用GPT 5.5以后TOKEN额度消耗反而更慢了

第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:22:49+08:00

【慢讯】OpenCode x 腾讯 Hy3 预览版 — 免费试用 2 周

腾讯 Hy3 预览版 256K 上下文 推理 纯文本 295B (A21B) openrouter也进行免费使用,但是未充值10刀的每天限制请求100次 openrouter.ai Hy3 preview (free) - API Pricing & Providers

tech linux.do 2026-04-23 23:55:34+08:00

Qwen 3.6 Max Preview 上线百炼平台,上下文 256K 不支持多模态输入

之前 Qwen 3.6 Plus 测试的时候,好像一开始也是不支持多模态输入,应该不至于是模型本身不支持吧。 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-20 21:42:24+08:00

一个新模型,大伙猜猜是哪家的

OpenRouter 以"stealth"(隐形)悄悄上线了一个新模型—— Elephant Alpha 。 一个 100B 参数的大模型 上下文 256K 名称 openrouter/elephant-alpha 没有发布会,没有预热,大伙觉得是哪家的大模型

tech linux.do 2026-04-17 23:45:23+08:00