gpt5.5说自己是4o,我的模型是被降智了嘛
3 个帖子 - 3 位参与者 阅读完整话题
Gpt - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第177页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5018 篇相关文章 · 第 177 / 251 页
3 个帖子 - 3 位参与者 阅读完整话题
今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题
提示词到底怎么写啊,想要收到大家的GPT-IMAGE2 的demo图,让我开开眼界 1 个帖子 - 1 位参与者 阅读完整话题
今天打开 codex 没发现有 gpt5.5 ,但是网页版的已经有了 gpt5.5 了
实操文章如下: https://mp.weixin.qq.com/s/tCKrmXlpF3kxkRF8fk1flg
https://openai.com/index/introducing-gpt-5-5/
https://openai.com/index/introducing-gpt-5-5/
在cli端先执行,如果让更新cli版本就更新下 codex --model gpt-5.5 然后再打开桌面版就有啦 1 个帖子 - 1 位参与者 阅读完整话题
进群送 3 刀 提供用户名。 评论区 5 楼 10 楼 15 楼 20 楼 以此类推间隔 5 共 10 个 提供用户名。 Q 群:1074257787 www.aitoke.top
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题
然而我已经开了350k(刚刚还试过了512k / 1m) model = "gpt-5.5" model_reasoning_effort = "xhigh" model_context_window = 350000 model_auto
奥特曼大坏蛋,不让我用computer use操控gpt app了 Computer Use is not allowed to use the app ‘com.openai.chat’ for safety reasons. 1 个帖子 - 1 位参与者 阅读完整话题
https://x.com/claudedevs/status/2047371123185287223?s=46 它不是知道自己错了,它只是知道自己快寄了 5 个帖子 - 5 位参与者 阅读完整话题
就问了一个配置文件问题,额度没了2%,我是team子号,这用量好像遭不住啊? 5 个帖子 - 5 位参与者 阅读完整话题
本来让他生成一个骨子哥的封面图,没想到他把里香的灵魂也融入进去了,这个真是没想到 1 个帖子 - 1 位参与者 阅读完整话题
部署在render上的,不知道是不是账号的问题 2 个帖子 - 2 位参与者 阅读完整话题
1 ,输出好多了,不讲八股文了 2 ,体感变快 2 ,大上下文目测增强很多 解决了 5.4 最大的 l 几个问题,可主力使用。 我想说出早了,再等 1-2 周,Claude 继续硬着脖子说自己模型没问题。等着 claude 的口碑再烂点。奥特曼太着急了
目前让Claude一直在试,但是一直反馈说Quality字段被吞掉了,上游回复就是和设置的不匹配. 求问各位用CPA跑的,或者用其他chat路径跑image2的大大, 这个字段到底能否正常被识别且接受? Claude给的例子 3 个帖子 - 2 位参与者 阅读完整话题
我自己测的 pro 20x 号(我这个网页版可能有错!) 求一个plus的 在codex low 12 medium 24 high 96 xhigh 768 网页版 light 12 standard 24 extended 192 heavy 768 7 个帖子 - 5 位参