High - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn

High - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第4页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 114 篇相关文章 · 第 4 / 6 页

配合提示词疑似能在Deepseek官方网页版实现接近Max的思考深度?

忘了从哪看到,Deepseek网页版的深度思考的深度是High? 但是 官方的技术报告 里提到,Max思考深度使用了特定提示词。 (翻译) (翻译) 提示词: Reasoning Effort: Absolute maximum with no shortcuts permitt

tech linux.do 2026-04-25 13:47:15+08:00

gpt5.5消耗速度感人

codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:10:58+08:00

请问大家用 codex 的 5.5 选 medium 还是 high 呀

如题,好像默认是 medium 了,high 消耗 token 会很快吗 8 个帖子 - 8 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:42:48+08:00

xhigh+fast 5.5上瘾了

哈哈 之前一直两个plus用着 现在上了一个pro 用5.5 fast是真爽啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 22:35:19+08:00

[Codex] gpt codex 5.5 写代码 medium 比 high 会差多少

tech v2ex.com 2026-04-24 22:03:31+08:00

Claude Max 的 Opus 响应速度会比 Claude Pro 的 Opus 快吗?

如题,这两天在 cc 里面用 opus,claude pro 订阅,感觉 opus 真的好慢呀,xhigh 思考强度,很简单的问题都要想 1 分多钟,感觉不是很正常,是不是 pro 用户会被限速呀,max 用户有这个问题吗?正在考虑开一个 max。 8 个帖子 - 4 位参与者

tech linux.do 2026-04-24 20:59:02+08:00

codex 的输入 token 消耗巨大,跟 claude 拉开了几条街,怪不得额度消耗这么快

这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:28:43+08:00

个人不严谨盲测:ChatGPT 5.4 Xhigh VS DeepSeek V4 Pro

叠甲:这是本人第一次尝试横向评估模型能力,测试方式可能有明显的不严谨,仅作为分享,大家看个乐子即可 测试结果 github.com GitHub - YKDZ/v4-vs-5.4: AI 代码能力对比:DeepSeek V4 Pro vs ChatGPT 5.4 xhigh ——

tech linux.do 2026-04-24 15:18:47+08:00

AI读《DeepSeek-V4: Towards Highly Efficient Million-Token Context Intelligence》

使用deepseek-v4 pro的总结,配合gpt-image-2的出图 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:28:33+08:00

原来L站都是高收入家庭、

Epoch AI Claude skews high-income; Meta AI skews low-income Household income of weekly AI users ranges from 80% earning $100K+ for Claude to

tech linux.do 2026-04-24 13:15:00+08:00

GPT-5.4跑分在K2.6和DeepSeek-v4技术报告中不同

在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图

tech linux.do 2026-04-24 12:09:04+08:00

可以听听佬们的gpt5.5使用感受吗

今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:11:06+08:00

gpt 5.5 xhigh 的上下文怎么感觉消耗的好快

gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:02:46+08:00

5.5 xhigh fast 用量是有点夸张的噢

pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:14:06+08:00

CPA 更新 v6.9.36 已支持 gpt-5.5 xhigh Juice 值 768

4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 07:52:00+08:00

最近两大巨头的模型性能,在各位佬友那是怎么个排名

不考虑价格的话,gpt默认xhigh,我目前的感受是 GPT5.5>OPUS4.6>OPUS4.7>GPT5.4 GPT5.5的速度、性能相较于5.4都有了明显提升,就是codex里5.5的上下文注意力不如5.4。 不知道5.5pro用于coding是个什么水平

tech linux.do 2026-04-24 07:26:11+08:00

多少tps(每秒tokens),算快?多少速度大家可以接受?

这是某个中转的gpt5.4xhigh我用的记录,然后丢给了GPT。我体感来说,40~50每秒tokens对我来说刚好够用,属于不快也不慢 等会儿我具体测一下这个中转站到底支不支持fast,因为我是配置里是开着fast用的但我不清楚这个中转支不支持 7 个帖子 - 7 位参与者 阅

tech linux.do 2026-04-24 01:41:45+08:00

[问与答] 想要多人拼车开 gpt pro 100 刀

我开了 gpt plus ,发现 gpt5.4 xhigh 蹬的太快了,想开 100 刀的,但是个人一个月承担不起这么多,所以想拼车共享一下,我看可以用 cliproxyapi 做反代,询问一下如果只是小范围内固定几个人一起用会封号么?

tech v2ex.com 2026-04-23 18:52:24+08:00

各位佬CC配置的Opus、Sonnet、Haiku映射GPT的哪个模型?

这是我的 “ANTHROPIC_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)”, “

tech linux.do 2026-04-23 17:06:16+08:00

单价超 3.5 亿欧元,台积电张晓强称 ASML 新款 High-NA EUV 光刻机太贵暂不购买

IT之家 4 月 23 日消息,据台媒经济日报今日消息,台积电副共同营运长张晓强在 2026 年北美技术论坛上公开表示,该公司目前没有采用 ASML 阿斯麦最新高数值孔径极紫外光刻机(High-NA EUV)的计划, 这类设备单台价格超过 3.5 亿欧元 (IT之家注:现汇率约合

tech www.ithome.com 2026-04-23 09:42:57+08:00