5.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn

5.5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第26页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1049 篇相关文章 · 第 26 / 53 页

灵异事件,自己调用apikey

从昨天更新完5.5之后开始,在打开codex桌面端的时候,还没开始对话cpa使用统计中就出现了调用记录,而且调用的都是5.4模型,调用几次就不再调用了 是cpa的问题还是codex的新特性呀 有佬碰到过一样的情况吗 已确认不是apikey泄露,生成的全新apikey也会出现这种情

tech linux.do 2026-04-25 13:08:52+08:00

升级最新版本的codex后,5.4还仍然能破限吗?

新版本的codex里面有5.5了。 看大家说都没法破限了。 那么新版本的codex里的5.4还仍然能破限吗? 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 13:01:24+08:00

cpa使用gpt5.5报错的

[rmcp::transport::worker::WorkerTransport<rmcp::transport::streamable_http_client::StreamableHttpClientWorker<codex_rmcp_client::http_

tech linux.do 2026-04-25 12:55:42+08:00

[Visual Studio Code] vscode 中 codex 插件加载不出来的问题

我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex

tech v2ex.com 2026-04-25 12:46:09+08:00

GPT-5.5 Juice 总结

Juice 是什么? Juice 值仅仅指示模型思考深度 。一般来说,在很多推理问题下,推理(reasoning)深度越高,推理消耗的 Token 越多,效果越好,但是: 模型智力中,思考深度仅仅是很小的一部分 不同模型的Juice不可直接比较 ,其绝对值也没有意义,Juice

tech linux.do 2026-04-25 12:23:39+08:00

[程序员] 希望 AGO 三大厂商持续竞争

gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下

tech v2ex.com 2026-04-25 12:16:56+08:00

[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x

Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro

tech v2ex.com 2026-04-25 12:08:11+08:00

[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x

Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro

tech v2ex.com 2026-04-25 12:00:09+08:00

[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x

Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro

tech v2ex.com 2026-04-25 11:42:58+08:00

Opus 4.6 还是 gpt5.5好,想跑路了

之前看佬们说gpt写代码有点面条,各位客观回答目前gpt和opus谁的编码能力更好些呢 opus渠道真的太贵了 19 个帖子 - 15 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:38:20+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:29:31+08:00

[分享发现] 网页端 GPT-5.5 Thinking 体感好快啊,这速度第一反应还以为是降智到 4o-mini 了

体感速度大概有 5 倍的提升,而且输出文字的速度也比 5.4 Thinking 快多了 之前用基本上都是问完后切别的窗口干别的事去了,现在可以等在这里,很快就回答完了 不清楚思考这么快,对能力是否有影响 与之前的不严谨对比(思考时间) GPT-5.5 Thinking GPT-5

tech v2ex.com 2026-04-25 11:23:22+08:00

[问与答] codex 使用的订阅版,选择 gpt5.5,但是没有 1m 上下文?

只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文

tech v2ex.com 2026-04-25 11:14:06+08:00

[分享发现] 网页端 GPT-5.5 Thinking 体感好快啊,这速度第一反应还以为是降智到 4o-mini 了

体感速度大概有 5 倍的提升,而且输出文字的速度也比 5.4 Thinking 快多了 之前用基本上都是问完后切别的窗口干别的事去了,现在可以等在这里,很快就回答完了 不清楚思考这么快,对能力是否有影响 与之前的不严谨对比(思考时间) GPT-5.5 Thinking GPT-5

tech v2ex.com 2026-04-25 11:12:20+08:00

gpt5.5消耗速度感人

codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:10:58+08:00

X有消息称 GPT-CODEX-5.5 已被曝光。

x 来源: OPENAI : GPT-CODEX-5.5 HAS BEEN SPOTTED IN THE WILD. 注 : 消息真实性并无验证。 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-25 11:09:37+08:00

GPT5.5 在 codex 中 credit 消耗量相比 5.4 翻倍

https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62

tech www.v2ex.com 2026-04-25 11:05:26+08:00

[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x

Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro

tech v2ex.com 2026-04-25 11:03:53+08:00

[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x

Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro

tech v2ex.com 2026-04-25 10:59:23+08:00