gpt-5.5,真强、真快、真贵、『真短』
真强:废话少,直接,逻辑也比5.4清晰 真快:开启fast后,输出比5.4快很多,另外同一个任务由于废话少,体感也快很多 真贵:我的team+plus,最多2~3个小任务,5H就没了 真短:目前,codex+codex app渠道,包括cpa反代,只有270K左右上下文,并不是4
5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 591 篇相关文章 · 第 13 / 30 页
真强:废话少,直接,逻辑也比5.4清晰 真快:开启fast后,输出比5.4快很多,另外同一个任务由于废话少,体感也快很多 真贵:我的team+plus,最多2~3个小任务,5H就没了 真短:目前,codex+codex app渠道,包括cpa反代,只有270K左右上下文,并不是4
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
哎,plus号池+2个pro做了2天了,不知道是不是我开了xhigh反而思维散发太广的缘故。5.4做了又做,就是不行,一直在绕圈子,我明明给了明确方向了,他自己跑着跑着就偏题。做完通宵搞的心态爆炸,狂骂了gpt一顿 claude有个pro,但是问两句就限制cd,就想着算了,反正秒
5.5相比5.4是更强更快,但是太贵了,是5.4的两倍,奥特曼这意图是逼着客户选择买pro吗 4 个帖子 - 3 位参与者 阅读完整话题
openaiI总是一直发一些不尽人意的模型,比如5.4虽然性能在线,但是速度慢,而且喜欢说超级多的黑话。但是最近AI模型大爆发,各大厂商都在推新的模型,他出1个5.5,结果速度又快,而且也不说黑话了,而且加工能修bug一修一个准openaiI绝对有东西藏着掖着的,但是他就是一次放
新版本的codex里面有5.5了。 看大家说都没法破限了。 那么新版本的codex里的5.4还仍然能破限吗? 3 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
感觉 gpt5.5 比 5.4 前端审美、代码重构能力强了不少啊, 处理前端屎山的能力也强了,项目真实场景使用后的个人感受,不是用那些测试 case. 1 个帖子 - 1 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
一个问题,pro进阶5分钟就回答,heavy甚至一分钟,出来的答案也是拉中拉跟5.4进阶thking差不多了 6 个帖子 - 4 位参与者 阅读完整话题