5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第16页 - 钛刻科技 | TCTI.cn

5.4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第16页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 591 篇相关文章 · 第 16 / 30 页

[程序员] 今天用 codex gpt5.4 感觉像降智了

今天用 codex gpt5.4 感觉像降智了,写代码一股异味,前几天一次性就能写好了,今天写个代码我要反复给他提示几次,消耗还比之前增加了

tech v2ex.com 2026-04-24 16:24:41+08:00

今天用 codex gpt5.4 感觉像降智了

今天用 codex gpt5.4 感觉像降智了,写代码一股异味,前几天一次性就能写好了,今天写个代码我要反复给他提示几次,消耗还比之前增加了

tech www.v2ex.com 2026-04-24 16:20:35+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 16:19:17+08:00

GPT5.5 怎么开 1M 上下文呀

之前 5.4 是通过改 .codex/config.toml 实现的,现在改完还是现实只有 256k 上下文,各位佬是我配置错了吗? 5 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:03:38+08:00

codex更新后不能开启1M上下文了吗?

一直改的config.toml 之前5.4 1M效果不佳就关了,今天看GPT5.5 1M上下文的召回率提高了就又打开了,但是似乎无法生效? 有知道怎么开启的佬吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 16:02:03+08:00

请问古法CODEX,可以使用5.5吗?

问一下,新出的5.5可以用吗?为什么我只能看到5.4 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:57:57+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 15:57:15+08:00

[程序员] 今天用 codex gpt5.4 感觉像降智了

今天用 codex gpt5.4 感觉像降智了,写代码一股异味,前几天一次性就能写好了,今天写个代码我要反复给他提示几次,消耗还比之前增加了

tech v2ex.com 2026-04-24 15:56:37+08:00

[GitHub Copilot] Copilot Pro 限额越来越严重了

GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan

tech v2ex.com 2026-04-24 15:52:34+08:00

[GitHub Copilot] Copilot Pro 限额越来越严重了

GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan

tech v2ex.com 2026-04-24 15:52:34+08:00

[程序员] 今天用 codex gpt5.4 感觉像降智了

今天用 codex gpt5.4 感觉像降智了,写代码一股异味,前几天一次性就能写好了,今天写个代码我要反复给他提示几次,消耗还比之前增加了

tech v2ex.com 2026-04-24 15:48:15+08:00

sub2api反代gpt可以用pro模型吗

如题,想问一下各位有经验的佬友可以在codex中使用5.4pro和5.5pro吗 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:35:49+08:00

[GitHub Copilot] Copilot Pro 限额越来越严重了

GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan

tech v2ex.com 2026-04-24 15:34:47+08:00

[GitHub Copilot] Copilot Pro 限额越来越严重了

GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan

tech v2ex.com 2026-04-24 15:31:09+08:00

个人不严谨盲测:ChatGPT 5.4 Xhigh VS DeepSeek V4 Pro

叠甲:这是本人第一次尝试横向评估模型能力,测试方式可能有明显的不严谨,仅作为分享,大家看个乐子即可 测试结果 github.com GitHub - YKDZ/v4-vs-5.4: AI 代码能力对比:DeepSeek V4 Pro vs ChatGPT 5.4 xhigh ——

tech linux.do 2026-04-24 15:18:47+08:00

token生成的好慢啊,大家日常/自动化都是用的什么模型,多少速度啊

gpt的标准系列(gpt-5.4,gpt-5.5之类的)和claude的opus/sonnet都是大约40-60token/s,好慢啊,受不了了,gpt-5.3-codex-spark我又没资格用 ,只能被迫使用gpt-5.4-mini了 大家都用的什么模型啊,多少速度啊,有没有

tech linux.do 2026-04-24 15:17:26+08:00

[GitHub Copilot] Copilot Pro 限额越来越严重了

GPT5.4 ,开了寸止,两天就跑到 97% 周限额。这下 Copilot Pro 或成最无性价比的 coding plan

tech v2ex.com 2026-04-24 15:16:30+08:00

CPA(CLIProxyAPI) 反代 GPT 5.5 的时候,容易出现 upstream stream closed before first payload, 换成 GPT 5.4正常

RT,会是CPA的问题么? 换成 sub2api 会不会好一点,其他佬有没有遇到? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 15:04:23+08:00

关于claude code使用gpt-5.5的问题

之前一直用claude code接gpt-5.4,用的是cpa转换了协议,用的/v1/messages端点 今天换成了gpt-5.5后,每次使用工具的时候都会报错,read参数永远会传错,而且自己说知道正确的传参后重试,结果还是错误的参数,一直到重复了四五次然后使用rtk rea

tech linux.do 2026-04-24 14:49:14+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-24 14:45:39+08:00