xHigh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

xHigh - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 68 篇相关文章 · 第 3 / 4 页

可以听听佬们的gpt5.5使用感受吗

今天打开论坛都是5.5用量很大,xhigh fast更是费的离谱,想问问大家的使用感受 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:11:06+08:00

gpt 5.5 xhigh 的上下文怎么感觉消耗的好快

gpt 5.5 xhigh 我就要它做了一轮的代码修复,过一会就把 1M 上下文用光了,然后自动压缩了,虽然装了 superpowers,但是也不至于这么快呀。之前 gpt 5.4 也是同样的环境,也没看见上下文消耗这么快的 7 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-24 10:02:46+08:00

5.5 xhigh fast 用量是有点夸张的噢

pro 20x 走了一遍测试环境的后端部署流程就这样了 有点夸张,20x感觉都不会够蹬 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-24 09:14:06+08:00

CPA 更新 v6.9.36 已支持 gpt-5.5 xhigh Juice 值 768

4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 07:52:00+08:00

最近两大巨头的模型性能,在各位佬友那是怎么个排名

不考虑价格的话,gpt默认xhigh,我目前的感受是 GPT5.5>OPUS4.6>OPUS4.7>GPT5.4 GPT5.5的速度、性能相较于5.4都有了明显提升,就是codex里5.5的上下文注意力不如5.4。 不知道5.5pro用于coding是个什么水平

tech linux.do 2026-04-24 07:26:11+08:00

多少tps(每秒tokens),算快?多少速度大家可以接受?

这是某个中转的gpt5.4xhigh我用的记录,然后丢给了GPT。我体感来说,40~50每秒tokens对我来说刚好够用,属于不快也不慢 等会儿我具体测一下这个中转站到底支不支持fast,因为我是配置里是开着fast用的但我不清楚这个中转支不支持 7 个帖子 - 7 位参与者 阅

tech linux.do 2026-04-24 01:41:45+08:00

[问与答] 想要多人拼车开 gpt pro 100 刀

我开了 gpt plus ,发现 gpt5.4 xhigh 蹬的太快了,想开 100 刀的,但是个人一个月承担不起这么多,所以想拼车共享一下,我看可以用 cliproxyapi 做反代,询问一下如果只是小范围内固定几个人一起用会封号么?

tech v2ex.com 2026-04-23 18:52:24+08:00

各位佬CC配置的Opus、Sonnet、Haiku映射GPT的哪个模型?

这是我的 “ANTHROPIC_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_REASONING_MODEL”: “gpt-5.4(xhigh)”, “ANTHROPIC_DEFAULT_OPUS_MODEL”: “gpt-5.4(xhigh)”, “

tech linux.do 2026-04-23 17:06:16+08:00

GPT5.4 xhigh的juice值增到了768!

今天中午gpt5.5泄露的时候测试的gpt5.5的juice值是768,刚刚测了一下gpt5.4 xhigh的居然也变成768了 12 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:07:31+08:00

gpt plus 今天重置后感觉不耐蹬了

今天大善人又重置了一次额度,跟昨天比起来感觉不耐蹬了,用的 5.4,xhigh。是我的错觉吗? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 13:58:34+08:00

gpt5.5已出

codex config.toml 直接指定gpt5.5即可 model = “gpt-5.5” model_reasoning_effort = “xhigh” 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-22 12:01:50+08:00

无聊测试了一个小问题,目前我用的只有GPT5xhigh幸存

小米16搭载什么cpu 这个问题,我用的 gork思考模型free账号 Kimi2.6t deepseek专家 doubao专家 智谱思考 gemini3.1pro 全军覆没 都说出了小米16发布了并搭载的处理器,实际上小米16并没有发布 19 个帖子 - 8 位参与者 阅读完整

tech linux.do 2026-04-21 21:46:50+08:00

chatgpt-team的额度又砍了?我这5个,没聊一会就5小时额度满了!

chatgpt-team的额度又砍了?我这5个,没聊一会就5小时额度满了! 5个号轮询,一个小时蹬完,和high有关系?还没敢用xhigh. 现在额度这么低了? 6 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 15:59:50+08:00

codex 深度用户请进

小弟此前一只用cursor, 最近很长一段时间都在用 gpt-5.4 xhigh觉得非常好用,看到codex 有windows app了就去用(还特地订阅了pro因为plus的额度俩个问题就耗光5小时窗口了),最近发现一个很要命的问题,就是codex的自动总结上下文基本十次有九次

tech linux.do 2026-04-21 13:18:06+08:00

GPT 5.4 xhigh 是不是变强了?

今天在用copilot的gpt5.4 xh,明显感觉实力非凡,体验远超上周。有一个bug我在kiro上用opus4.6聊了两天了都无法解决,而且它做的spec每次都被codex(5.4xh)喷的体无完肤。今晚上用copilot的 5.4xh,一把过,并且完成的非常好。属实是惊讶到

tech linux.do 2026-04-21 00:04:36+08:00

Team的Codex额度是不是缩水了?

佬们,想请教下,Team的Codex额度是不是缩水了?现在Xhigh-fast,一个小时使用5h就没了 14 个帖子 - 7 位参与者 阅读完整话题

tech linux.do 2026-04-20 19:49:13+08:00

官方 GPT Plus GPT 5.4 xhigh Codex GPT上下文压缩(compaction)一直失败

Error running remote compact task: stream disconnected before completion: err or sending request for url ( https://chatgpt.com/backend-api/c

tech linux.do 2026-04-20 17:51:11+08:00

codex free xhigh状态下 一个hi 用了百分之40的额度 这准确吗

如果准确 就真的废了 虽然是超高 但就一个hi 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-20 16:28:43+08:00

提问:在cliproxyapi中用codex认证得到GPT-5.4,给Claude code用时,如何把effort调成xhigh?好像没法把codex的xhigh映射成Claude的max?

提问:在cliproxyapi中用codex认证得到GPT-5.4,给Claude code用时,如何把effort调成xhigh?好像没法把codex的xhigh映射成Claude的max? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-20 12:25:01+08:00

关于claude code使用中转站公益站的gpt5.4设置推理等级xhigh的办法

用cpa反代中转站或者公益站的api就行了 不一定非要对gpt5.4设置4.7的别名 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-19 23:59:26+08:00