希望 AGO 三大厂商持续竞争
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
GPT5 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第14页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 556 篇相关文章 · 第 14 / 28 页
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
[rmcp::transport::worker::WorkerTransport<rmcp::transport::streamable_http_client::StreamableHttpClientWorker<codex_rmcp_client::http_
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
之前看佬们说gpt写代码有点面条,各位客观回答目前gpt和opus谁的编码能力更好些呢 opus渠道真的太贵了 19 个帖子 - 15 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
codex里,team,一个任务还没完成,十几分钟,5小时限制就只有48了,还是用的high 15 个帖子 - 12 位参与者 阅读完整话题
https://developers.openai.com/api/docs/pricing?latest-pricing=standard Model Input Credits Output Credits GPT-5.3-Codex 43.75 350 GPT-5.4 62
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
感觉 gpt5.5 比 5.4 前端审美、代码重构能力强了不少啊, 处理前端屎山的能力也强了,项目真实场景使用后的个人感受,不是用那些测试 case. 1 个帖子 - 1 位参与者 阅读完整话题
Ai coding 这么久以来心里总有个疑问,Claude 使用gpt的模型对比使用自家oups的模型是会有工具对模型适配或者模型对工具的适配吗?反之也是一样的问题,L站得佬辛苦答疑一波 2 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我看好像只有gpt5.4才支持1m的上下文,现在gpt5.5 只支持256k的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它的compact靠谱吗?虽然这个compact是无感的 7 个帖子 - 4 位参与者 阅读完整话题
gpt5.5 的消耗速度快了不止一点点 改一个问题就要用完5h用量了 7 个帖子 - 4 位参与者 阅读完整话题
是不是效果不好?因为几乎看不到这样作。 有没有大哥这样用的,特别是最新的gpt5.5,效果如何。 然后,想用是不是只能反代出来? 9 个帖子 - 6 位参与者 阅读完整话题
有大佬比较实际代码效果和opus4.7比起来咋样啊?感谢 6 个帖子 - 5 位参与者 阅读完整话题