[GitHub Copilot] GitHub Copilot 更新之后有 GPT 5.5 了,但是 Pro+,且 7.5x
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
但是 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第61页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2037 篇相关文章 · 第 61 / 102 页
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我看gemini有很多优惠,比如那4个月优惠链接,但是每次点进去我都是没有的,这个到底是和ip有关还是账号相关呢 4 个帖子 - 2 位参与者 阅读完整话题
下载了一个Claude code桌面版使用,但是打开后确实黑屏,重启或者重新安装也没有效果,不知道是不是环境的问题。有佬遇到过吗 2 个帖子 - 2 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
我做了一个插件可以在 V2EX 里面插入表情包或者 gif 动图, 但是因为我平常不太收集这些东西( 老登 我是有点跟不上潮流了), 所以子弹库有点贫瘠, 大家可以分享一下吗? 我实时更新到素材库里. 调试一下看看下周发布.
我做了一个插件可以在 V2EX 里面插入表情包或者 gif 动图, 但是因为我平常不太收集这些东西( 老登 我是有点跟不上潮流了), 所以子弹库有点贫瘠, 大家可以分享一下吗? 我实时更新到素材库里. 调试一下看看下周发布.
我做了一个插件可以在 V2EX 里面插入表情包或者 gif 动图, 但是因为我平常不太收集这些东西( 老登 我是有点跟不上潮流了), 所以子弹库有点贫瘠, 大家可以分享一下吗? 我实时更新到素材库里. 调试一下看看下周发布.
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
最近想vibe coding做一些东西出来,但是不知道该写什么。想听听各位佬的意见。本人是计算机硕士生。 4 个帖子 - 4 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文