中转站的API类型说明了啥问题
各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题
XHigh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 62 篇相关文章 · 第 2 / 4 页
各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题
GPT5.5 xhigh-fast消耗太快了,开high-fast是不是就可以解决很多问题了 11 个帖子 - 7 位参与者 阅读完整话题
5.5 xhigh可以直接用codex,但如果想要让5.5pro来一些深度思考帮助启发没找到什么好办法,只能网页端上传文件聊天有点鸡肋 科研探索 / 研发 1 个帖子 - 1 位参与者 阅读完整话题
这样设置没有作用 3 个帖子 - 2 位参与者 阅读完整话题
我用 GPT 接入了两个公益站的 gpt,调用时是用 xhigh 模式,但是最后都被公益站拒绝,说是不支持 xhigh,这是为什么呢? 2 个帖子 - 1 位参与者 阅读完整话题
使用CC Switch 在Claude Code里用gpt,如何使用xhigh的思考? 目前的配置: 但是后台调用信息里显示还是high,并非xhigh 15 个帖子 - 5 位参与者 阅读完整话题
今天用 Windsurf 的 GPT-5.5 XHigh Thinking 玩了一下,就给了一句话: 写一个 web,写个天气预报,包括省内,山东威海乳山市,我要查乳山市天气预报,web 然后它直接给我生成了三个文件,一个 html 一个 css 一个 js,打开就是个天气预报页
换浏览器/换ip无效/指纹/无痕,均无效。thinking xhigh正常,pro不思考秒出 以上描述均为网页端 3 个帖子 - 2 位参与者 阅读完整话题
哎,plus号池+2个pro做了2天了,不知道是不是我开了xhigh反而思维散发太广的缘故。5.4做了又做,就是不行,一直在绕圈子,我明明给了明确方向了,他自己跑着跑着就偏题。做完通宵搞的心态爆炸,狂骂了gpt一顿 claude有个pro,但是问两句就限制cd,就想着算了,反正秒
哈哈 之前一直两个plus用着 现在上了一个pro 用5.5 fast是真爽啊 1 个帖子 - 1 位参与者 阅读完整话题
如题,这两天在 cc 里面用 opus,claude pro 订阅,感觉 opus 真的好慢呀,xhigh 思考强度,很简单的问题都要想 1 分多钟,感觉不是很正常,是不是 pro 用户会被限速呀,max 用户有这个问题吗?正在考虑开一个 max。 8 个帖子 - 4 位参与者
这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题
叠甲:这是本人第一次尝试横向评估模型能力,测试方式可能有明显的不严谨,仅作为分享,大家看个乐子即可 测试结果 github.com GitHub - YKDZ/v4-vs-5.4: AI 代码能力对比:DeepSeek V4 Pro vs ChatGPT 5.4 xhigh ——
在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图
今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题
gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题
pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题
4 个帖子 - 4 位参与者 阅读完整话题
不考虑价格的话,gpt默认xhigh,我目前的感受是 GPT5.5>OPUS4.6>OPUS4.7>GPT5.4 GPT5.5的速度、性能相较于5.4都有了明显提升,就是codex里5.5的上下文注意力不如5.4。 不知道5.5pro用于coding是个什么水平
这是某个中转的gpt5.4xhigh我用的记录,然后丢给了GPT。我体感来说,40~50每秒tokens对我来说刚好够用,属于不快也不慢 等会儿我具体测一下这个中转站到底支不支持fast,因为我是配置里是开着fast用的但我不清楚这个中转支不支持 7 个帖子 - 7 位参与者 阅