XHigh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

XHigh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 62 篇相关文章 · 第 2 / 4 页

中转站的API类型说明了啥问题

各位佬,中转站的openai 接口之前一直是/v1/responses,一直能看到推理强度是XHIGH,昨天突然变成了/v1/chat/completions,而且看不到推理强度了,这说明了什么问题 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 14:05:40+08:00

GPT5.5思考模式有必要开xhigh-fast吗

GPT5.5 xhigh-fast消耗太快了,开high-fast是不是就可以解决很多问题了 11 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-29 09:01:30+08:00

有佬友能分享下gpt5.5pro的使用方式吗

5.5 xhigh可以直接用codex,但如果想要让5.5pro来一些深度思考帮助启发没找到什么好办法,只能网页端上传文件聊天有点鸡肋 科研探索 / 研发 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-28 17:36:15+08:00

【求助】cc-switch使用Claude套壳gpt怎么设置 xhigh

这样设置没有作用 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 10:11:02+08:00

请问下,GPA 里接公益站的 gpt5.4,无法支持 xhigh 模式吗?

我用 GPT 接入了两个公益站的 gpt,调用时是用 xhigh 模式,但是最后都被公益站拒绝,说是不支持 xhigh,这是为什么呢? 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 10:00:25+08:00

【已解决】CC Switch 在Claude Code里用gpt,如何使用xhigh的思考?

使用CC Switch 在Claude Code里用gpt,如何使用xhigh的思考? 目前的配置: 但是后台调用信息里显示还是high,并非xhigh 15 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 18:45:20+08:00

用 Windsurf GPT-5.5 XHigh Thinking 一句话生成乳山天气预报 Web

今天用 Windsurf 的 GPT-5.5 XHigh Thinking 玩了一下,就给了一句话: 写一个 web,写个天气预报,包括省内,山东威海乳山市,我要查乳山市天气预报,web 然后它直接给我生成了三个文件,一个 html 一个 css 一个 js,打开就是个天气预报页

tech linux.do 2026-04-25 17:38:15+08:00

pro号降智问题,求解决方案

换浏览器/换ip无效/指纹/无痕,均无效。thinking xhigh正常,pro不思考秒出 以上描述均为网页端 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 15:17:08+08:00

有人能明白逆向GPT5.4做了两天,opus4.7一轮就给我秒了的挫败感吗

哎,plus号池+2个pro做了2天了,不知道是不是我开了xhigh反而思维散发太广的缘故。5.4做了又做,就是不行,一直在绕圈子,我明明给了明确方向了,他自己跑着跑着就偏题。做完通宵搞的心态爆炸,狂骂了gpt一顿 claude有个pro,但是问两句就限制cd,就想着算了,反正秒

tech linux.do 2026-04-25 14:32:22+08:00

xhigh+fast 5.5上瘾了

哈哈 之前一直两个plus用着 现在上了一个pro 用5.5 fast是真爽啊 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 22:35:19+08:00

Claude Max 的 Opus 响应速度会比 Claude Pro 的 Opus 快吗?

如题,这两天在 cc 里面用 opus,claude pro 订阅,感觉 opus 真的好慢呀,xhigh 思考强度,很简单的问题都要想 1 分多钟,感觉不是很正常,是不是 pro 用户会被限速呀,max 用户有这个问题吗?正在考虑开一个 max。 8 个帖子 - 4 位参与者

tech linux.do 2026-04-24 20:59:02+08:00

codex 的输入 token 消耗巨大,跟 claude 拉开了几条街,怪不得额度消耗这么快

这是 claude 用 opus 4.7 xhigh: 这是 codex 用 gpt 5.5 high: 同一个代码库,正常的需求分析和实现。。。 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:28:43+08:00

个人不严谨盲测:ChatGPT 5.4 Xhigh VS DeepSeek V4 Pro

叠甲:这是本人第一次尝试横向评估模型能力,测试方式可能有明显的不严谨,仅作为分享,大家看个乐子即可 测试结果 github.com GitHub - YKDZ/v4-vs-5.4: AI 代码能力对比:DeepSeek V4 Pro vs ChatGPT 5.4 xhigh ——

tech linux.do 2026-04-24 15:18:47+08:00

GPT-5.4跑分在K2.6和DeepSeek-v4技术报告中不同

在 Kimi-K2.6技术报告 中和 DeepSeek-v4技术报告 中,Terminal Bench 2.0测试结果引用的GPT-5.4 xHigh跑分不同(Gemini和Calude是相同的),引用值分别为65.4和75.1,这是有什么讲究吗? Kimi-K2.6技术报告截图

tech linux.do 2026-04-24 12:09:04+08:00

可以听听佬们的gpt5.5使用感受吗

今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:11:06+08:00

gpt 5.5 xhigh 的上下文怎么感觉消耗的好快

gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:02:46+08:00

5.5 xhigh fast 用量是有点夸张的噢

pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:14:06+08:00

CPA 更新 v6.9.36 已支持 gpt-5.5 xhigh Juice 值 768

4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 07:52:00+08:00

最近两大巨头的模型性能,在各位佬友那是怎么个排名

不考虑价格的话,gpt默认xhigh,我目前的感受是 GPT5.5>OPUS4.6>OPUS4.7>GPT5.4 GPT5.5的速度、性能相较于5.4都有了明显提升,就是codex里5.5的上下文注意力不如5.4。 不知道5.5pro用于coding是个什么水平

tech linux.do 2026-04-24 07:26:11+08:00

多少tps(每秒tokens),算快?多少速度大家可以接受?

这是某个中转的gpt5.4xhigh我用的记录,然后丢给了GPT。我体感来说,40~50每秒tokens对我来说刚好够用,属于不快也不慢 等会儿我具体测一下这个中转站到底支不支持fast,因为我是配置里是开着fast用的但我不清楚这个中转支不支持 7 个帖子 - 7 位参与者 阅

tech linux.do 2026-04-24 01:41:45+08:00