6K - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

6K - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 40 篇相关文章 · 第 1 / 2 页

[人工智能] 回馈佬友, 1000 元国产模型神秘小纸条

nb_dbOJXOfQeXI8A5yIL6KpU2v9M4DrFFU4dSPoOrYv4DY https://api.krill-ai.com/coding 额度跑完就停 支持 anthropic 协议、openai completion 协议 包含模型:GLM-5.1 、qwe

tech v2ex.com 2026-05-02 19:38:40+08:00

[人工智能] 回馈佬友, 1000 元国产模型神秘小纸条

nb_dbOJXOfQeXI8A5yIL6KpU2v9M4DrFFU4dSPoOrYv4DY https://api.krill-ai.com/coding 额度跑完就停 支持 anthropic 协议、openai completion 协议 包含模型:GLM-5.1 、qwe

tech v2ex.com 2026-05-02 19:38:40+08:00

Apple 发布 Apple Support App(v5.13)时,把 Claude.md 也一起发出来了

36kr.com – 2 May 26 苹果官方App误打包了Claude.md,这么大的公司也Vibe Coding啊?-36氪 苹果内部运行定制版Claude模型 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-02 19:35:44+08:00

新人报道,分享申请到的mimo2亿token给佬友们蹬

key:tp-c95uhjmhme4iqm8sehlg5qytgqutxkwsx6l6k3etdc7mzvhj 12 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-29 21:42:05+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾

tech linux.do 2026-04-29 15:32:00+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。

tech www.ithome.com 2026-04-29 15:09:05+08:00

三星推出 Odyssey G8 G80HS 显示器:32 英寸 6K 165Hz / 3K 330Hz IPS 面板,1499 欧元

IT之家 4 月 27 日消息,三星现已在德国市场推出 Odyssey G8 G80HS 显示器,搭载 32 英寸 IPS 面板,支持 6K 165Hz/3K 330Hz 双模切换,6 月 19 日出货。 据介绍 ,这款显示器具备 6144*3456@160Hz、3072*172

tech www.ithome.com 2026-04-27 22:42:55+08:00

分享一个minimax plus的token plan

sk-cp-zAhhrL76V16K0ae6w3dY76VZVAP62Tlh_-S_xb3UNt3m9yeoKhlvBrumIxowUZCzI_NySjgH9IrIYT8cueci1unqDKMt0Cweu13wUw9QuJyEcBRQfI-rm6o 2026.5.21到期,主要

tech linux.do 2026-04-26 12:05:25+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 15:03:41+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

发现用GPT 5.5以后TOKEN额度消耗反而更慢了

第一大原因是上下文256k,我会经常性新建会话 效率提升,很少问用户问题,让任务流畅执行 今天调用2000多次也只用了140M 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 00:22:49+08:00

[投资] 谁来预测下 DeepSeek-V4 发布对美股冲击会有多大

参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用

tech v2ex.com 2026-04-24 23:10:04+08:00