5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn

5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 589 篇相关文章 · 第 9 / 30 页

感觉今天GPT降智好严重

昨天感觉用的gpt5.4还听灵光的,结果今天不管是用自己的CPA还是用ccswitch的测试,都是笨笨的:( 用星火佬的这个测试指令发现直接输出27.6厘米了,只有7秒思考,感觉和不假思索没啥子区别 在另一个话题中 测试指令2 : 一个棱长为30厘米的立方体铁块,从8个角各去掉一

tech linux.do 2026-04-27 11:35:21+08:00

[推广] 新站上线,特惠 0.01r 一刀的 gpt-5.4 上线了

不玩虚的,注册登录,创建 key 选 0.01 分组,就能爽蹬 gpt-5.4 。 站点地址: https://mikuapi.org 预算什么时候烧完什么时候结束,买了 5 个 pro20x 同时上线了 image-2 体验站, https://ai.mikuapi.org 支

tech v2ex.com 2026-04-27 10:38:35+08:00

不是哥们,Codex cli gpt-5.5 12 分钟一个任务干完了一个号

这有点快啊,佬友们,我用 gpt-5.4-mini写日常需求性价比好还是哪个模型啊,5.5 有种杀鸡用牛刀的感觉 4 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-27 10:13:28+08:00

codex中gpt5.4和gpt5.5是单独计算额度吗?

有佬知道codex中gpt5.4和gpt5.5是单独计算额度吗?如果是独立的,那不是可以gpt5.5蹬完,蹬5.4,5.4蹬完蹬5.3,这样的话是不是几乎用不完。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-27 10:11:38+08:00

请问下,GPA 里接公益站的 gpt5.4,无法支持 xhigh 模式吗?

我用 GPT 接入了两个公益站的 gpt,调用时是用 xhigh 模式,但是最后都被公益站拒绝,说是不支持 xhigh,这是为什么呢? 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 10:00:25+08:00

目前gpt5.5写zig的能力咋样了?有兄弟试过吗

之前试过opus4.6和gpt5.4写zig 就是依托,完全没法舒适的vibe 不知道gpt5.5 对zig的支持有里程碑的变化吗 12 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-27 07:57:15+08:00

晚上5.5是不是有点炸,我这边plus,team的都一直重试,free的5.4倒是没问题

之前plus,team好从来没出过这种问题来着 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 23:41:20+08:00

用Claude Design做PPT的初体验,效果还是挺惊喜的

效果 (点击了解更多详细信息) 提示词 由 gpt5.4pro 直接分析论文提供,第一次生成的风格就差不多固定成图中这样了,对比其他Ai PPT产品,模版味和vibe coding前端味都少了很多,设计也挺戳我的,还可以直接上传论文原文到资源库方便对照分析修改 Claude De

tech linux.do 2026-04-26 20:21:47+08:00

copilot周限额

各位佬们有碰到过周消耗额度限制吗?想了解一下gpt5.4大概每周有多少M token的额度捏 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 19:01:03+08:00

佬们,你们的gpt5.4还能干活吗?

如题: 自从gpt5.5出了以后,我就发现gpt5.4基本不出活了,但是5.5的额度又贵死了,你们的gpt5.4还能用不,智商感觉直线下降 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 18:50:37+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 18:05:43+08:00

codex用gpt5.5如何破限

之前用的5.4的提示词和方法好像换成5.5之后不行了,有没有佬有5.5破限的方法 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-26 17:21:14+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 17:05:43+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 16:05:43+08:00

Copilot Pro+的周限何意味啊

买了Pro+想着1500次gpt5.4使劲蹬,结果今天突然给我蹦周限了 一看面板才用了20%限额 如果一周只能用20%(300请求)是不是一个月每周都用满也用不完额度了 还得接着用auto才行 还是说这个周限其实是按token数来算的? 5 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-26 15:40:44+08:00

写代码模型选择问题

目前代码使用的模型是 gpt5.3,处理的时候有时候任务很慢,想问下新的 5.4 和 5.5 提升大吗?对于前端的话 codex 感觉有些笨,是否有好的模型替代,国内的也可以推荐一下。感谢大家。 6 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-26 12:05:03+08:00

你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech www.v2ex.com 2026-04-26 11:27:52+08:00

小妙招,使用提示词注入让gpt5.4说人话。

最近在用 hermes 搭 gpt5.4,体验真的一言难尽。回复又长又绕,铺垫半天,最后还是落到如果你需要我可以怎样怎样,味太重了。 一开始还想直接给 hermes 做 soul 设定,后来想想现在都 gpt5.5 了,之后 6.0、7.0 还得一直跟着调,太折腾。 如果你和我一

tech linux.do 2026-04-26 11:12:11+08:00

你们一个月上班要用多少 token?

如题,我上个月用了 200M ,主要是 GPT5.4 和 Gemini3.1Pro

tech www.v2ex.com 2026-04-26 10:27:52+08:00

codex 使用 5.4 以上版本模型压缩上下文总失败?

在长任务里 5.4 和 5.5 总会遇到这个问题,在碰到自动压缩上下文的时候如果当前模型是 5.4 以上,极大概率触发 stream disconnected 导致自动任务失败,并且重试继续失败无法当前会话,目前看来比较靠谱的办法是手动切换到 5.3 ,回复内容触发压缩上下文后,

tech www.v2ex.com 2026-04-26 09:49:29+08:00