[Codex] codex 中的 gpt5.5 出来了吗?
今天打开 codex 没发现有 gpt5.5 ,但是网页版的已经有了 gpt5.5 了
GP - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第183页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5211 篇相关文章 · 第 183 / 261 页
今天打开 codex 没发现有 gpt5.5 ,但是网页版的已经有了 gpt5.5 了
实操文章如下: https://mp.weixin.qq.com/s/tCKrmXlpF3kxkRF8fk1flg
https://openai.com/index/introducing-gpt-5-5/
https://openai.com/index/introducing-gpt-5-5/
在cli端先执行,如果让更新cli版本就更新下 codex --model gpt-5.5 然后再打开桌面版就有啦 1 个帖子 - 1 位参与者 阅读完整话题
进群送 3 刀 提供用户名。 评论区 5 楼 10 楼 15 楼 20 楼 以此类推间隔 5 共 10 个 提供用户名。 Q 群:1074257787 www.aitoke.top
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题
然而我已经开了350k(刚刚还试过了512k / 1m) model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto
奥特曼大坏蛋,不让我用computer use操控gpt app了 Computer Use is not allowed to use the app ‘com.openai.chat’ for safety reasons. 1 个帖子 - 1 位参与者 阅读完整话题
https://x.com/claudedevs/status/2047371123185287223?s=46 它不是知道自己错了,它只是知道自己快寄了 5 个帖子 - 5 位参与者 阅读完整话题
就问了一个配置文件问题,额度没了2%,我是team子号,这用量好像遭不住啊? 5 个帖子 - 5 位参与者 阅读完整话题
本来让他生成一个骨子哥的封面图,没想到他把里香的灵魂也融入进去了,这个真是没想到 1 个帖子 - 1 位参与者 阅读完整话题
部署在render上的,不知道是不是账号的问题 2 个帖子 - 2 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
目前让Claude一直在试,但是一直反馈说Quality字段被吞掉了,上游回复就是和设置的不匹配. 求问各位用CPA跑的,或者用其他chat路径跑image2的大大, 这个字段到底能否正常被识别且接受? Claude给的例子 3 个帖子 - 2 位参与者 阅读完整话题
我自己测的 pro 20x 号(我这个网页版可能有错!) 求一个plus的 在codex low 12 medium 24 high 96 xhigh 768 网页版 light 12 standard 24 extended 192 heavy 768 7 个帖子 - 5 位参
两年的plus会员,gpt4.5模型刚出的时候,还只有o系列模型有推理能力,4.5的那点限额让我根本就舍不得用。而现在gpt5.5不仅能推理,还能随便用,但是再没有4.5时代的感觉了。 2 个帖子 - 2 位参与者 阅读完整话题
free 账号 sub2api 能用 gpt5.5了吗 4 个帖子 - 4 位参与者 阅读完整话题
老哥们用了5.5没,怎么消耗的这么快,一个不负责,比较简单的任务直接 100% → 50%,一个带图片的修改bug, 100% → 0%,这也太快了 5.5 High 6 个帖子 - 3 位参与者 阅读完整话题