[Codex] vscode 上的 codex 很慢,求解
如题,回答一个问题耗时有 15min
回答 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 90 篇相关文章 · 第 3 / 5 页
如题,回答一个问题耗时有 15min
官方的回答: Workstation GC:低延迟、响应优先,适合桌面/轻量服务 Server GC:高吞吐、并行优先,适合多核服务器/高并发服务 服务器模式会占用更多的内存,特别是微服务架构动不动是几十上百个 pod ,这也是一笔不少的内存开销 那么 web 应用就真的不适合用
Google AI Pro订阅,即便是用Fast模型,每次从问题发出去到它开始回答也要等一分钟左右,实测时间如图。 佬们用的时候有这种感觉吗?怀疑是故意的 19 个帖子 - 13 位参与者 阅读完整话题
如题,刷到有佬测试juice值,我就试了一下,得出以下回答 1 个帖子 - 1 位参与者 阅读完整话题
我的网页对话是一直在qwen的官网使用各个模型的,之前qwen3 3.5都一直这么用过来了,包括前段时间qwen-3.6 plus都用的好好的。今天想到qwen3.6-max早就发布了,就切换到max问了一个问题。结果它的回答里还参杂着俄文,我是真的第一次见,这是用什么语料训练,
用的时候发现回答风格变了,一问,果然是新模型。
用的时候发现回答风格变了,一问,果然是新模型。
用的时候发现回答风格变了,一问,果然是新模型。
用的时候发现回答风格变了,一问,果然是新模型。
刚才测试了一下,突然回答自己有 1M 上下文,并且和官网一样说能吃下《三体》这么多的内容。 其他信息尚不明确,请佬友做更多测试。 1 个帖子 - 1 位参与者 阅读完整话题
直接用普通模型控制服务器,新建对话,截图转markdown回传回答,一个会员账号多人共享。 2 个帖子 - 1 位参与者 阅读完整话题
小白~~~cliproxyap怎么搞呀有没有大佬指导下,gpt不回答这个。。 8 个帖子 - 8 位参与者 阅读完整话题
5 个帖子 - 3 位参与者 阅读完整话题
回答一个问题要接近2分钟 (使用的99一个月的版本) 2 个帖子 - 2 位参与者 阅读完整话题
我在要某个开发文档时,有佬提了这个问题,说我如果回答不上来,那要到文档也没有意义,ai仙人写不动,问题如下: 如何往urlclassloader里面强行注入类,并且跨加载器树设置回调 1 个帖子 - 1 位参与者 阅读完整话题
无聊的测试 豆包最离谱,先看他的回答 先说结论 根据我目前的简单测试结果 认识的有: ds3.2 qwen3.6 3.5max glm5.1 gemini2.5 3.1f-l 3.1p 不认识的有:Claude4.7 4.6s gpt5.3 gpt(app免费不思考) 豆包2.0
今天发现我的 copilot 也出问题了。就是提问后,也不是不回答,只是回答一部分后就中断。难道是因为我是通过 opencode 登录的 copilot 的原因嘛。我的机场买的花云的,然后开的 tun 模式,不至于是梯子的问题吧。 copilot 要是也没了,天才程序员就真的陨落
今天发现我的 copilot 也出问题了。就是提问后,也不是不回答,只是回答一部分后就中断。难道是因为我是通过 opencode 登录的 copilot 的原因嘛。我的机场买的花云的,然后开的 tun 模式,不至于是梯子的问题吧。 copilot 要是也没了,天才程序员就真的陨落
今天发现我的 copilot 也出问题了。就是提问后,也不是不回答,只是回答一部分后就中断。难道是因为我是通过 opencode 登录的 copilot 的原因嘛。我的机场买的花云的,然后开的 tun 模式,不至于是梯子的问题吧。 copilot 要是也没了,天才程序员就真的陨落
今天发现我的 copilot 也出问题了。就是提问后,也不是不回答,只是回答一部分后就中断。难道是因为我是通过 opencode 登录的 copilot 的原因嘛。我的机场买的花云的,然后开的 tun 模式,不至于是梯子的问题吧。 copilot 要是也没了,天才程序员就真的陨落