5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn

5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 591 篇相关文章 · 第 13 / 30 页

gpt-5.5,真强、真快、真贵、『真短』

真强:废话少,直接,逻辑也比5.4清晰 真快:开启fast后,输出比5.4快很多,另外同一个任务由于废话少,体感也快很多 真贵:我的team+plus,最多2~3个小任务,5H就没了 真短:目前,codex+codex app渠道,包括cpa反代,只有270K左右上下文,并不是4

tech linux.do 2026-04-25 15:59:43+08:00

[程序员] 你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech v2ex.com 2026-04-25 15:50:42+08:00

[程序员] 你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech v2ex.com 2026-04-25 15:45:40+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 15:03:41+08:00

有人能明白逆向GPT5.4做了两天,opus4.7一轮就给我秒了的挫败感吗

哎,plus号池+2个pro做了2天了,不知道是不是我开了xhigh反而思维散发太广的缘故。5.4做了又做,就是不行,一直在绕圈子,我明明给了明确方向了,他自己跑着跑着就偏题。做完通宵搞的心态爆炸,狂骂了gpt一顿 claude有个pro,但是问两句就限制cd,就想着算了,反正秒

tech linux.do 2026-04-25 14:32:22+08:00

codex里5.5使用体验

5.5相比5.4是更强更快,但是太贵了,是5.4的两倍,奥特曼这意图是逼着客户选择买pro吗 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 13:26:25+08:00

只能说openai也是个o畜

openaiI总是一直发一些不尽人意的模型,比如5.4虽然性能在线,但是速度慢,而且喜欢说超级多的黑话。但是最近AI模型大爆发,各大厂商都在推新的模型,他出1个5.5,结果速度又快,而且也不说黑话了,而且加工能修bug一修一个准openaiI绝对有东西藏着掖着的,但是他就是一次放

tech linux.do 2026-04-25 13:21:06+08:00

升级最新版本的codex后,5.4还仍然能破限吗?

新版本的codex里面有5.5了。 看大家说都没法破限了。 那么新版本的codex里的5.4还仍然能破限吗? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 13:01:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-25 11:05:26+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:33:04+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:23:21+08:00

gpt5.5 前端能力

感觉 gpt5.5 比 5.4 前端审美、代码重构能力强了不少啊, 处理前端屎山的能力也强了,项目真实场景使用后的个人感受,不是用那些测试 case. 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-25 10:19:54+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 10:11:24+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 09:48:08+08:00

现在订阅版的codex中gpt5.5是不是不支持1m的上下文?

我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:43:14+08:00

chatgpt pro真是拉完了,heavy thking也是

一个问题,pro进阶5分钟就回答,heavy甚至一分钟,出来的答案也是拉中拉跟5.4进阶thking差不多了 6 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 09:19:20+08:00