cpa使用gpt5.5报错的
[rmcp::transport::worker::WorkerTransport<rmcp::transport::streamable_http_client::StreamableHttpClientWorker<codex_rmcp_client::http_
PT - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第162页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 5289 篇相关文章 · 第 162 / 265 页
[rmcp::transport::worker::WorkerTransport<rmcp::transport::streamable_http_client::StreamableHttpClientWorker<codex_rmcp_client::http_
我在最新版本中使用 GPT-5.5 的 Codex 插件时,遇到加载对话内容不出来的问题。具体情况如下: 在服务器和 WSL2 中都会出现。 我已更新到最新的 VSCode 版本,更新后 VSCode 自带了一个“聊天”选项。点开“聊天”再切回 Codex ,有时能让 codex
Juice 是什么? Juice 值仅仅指示模型思考深度 。一般来说,在很多推理问题下,推理(reasoning)深度越高,推理消耗的 Token 越多,效果越好,但是: 模型智力中,思考深度仅仅是很小的一部分 不同模型的Juice不可直接比较 ,其绝对值也没有意义,Juice
结合一些帖子,用豆包专家模式探讨低价gpt plus来源,佬友们评价一下是否合理,这么说的话伪造收据理论上可以嫖好多好多gpt plus了。只要有足够的需求,就会有相应的供给呀 1 个帖子 - 1 位参与者 阅读完整话题
粗略看了下,基本都对 仔细看的话,好多问题,看来还得努力进化才行 生成中国大陆护照可以免签的国家与地区介绍,用世界地图展示,截止时间为2026年 11 个帖子 - 7 位参与者 阅读完整话题
gpt5.5 一发布,claude 降智问题就被修复了,gemini cli 里面的 3.1 也变得可用了(虽然很慢 是不是说明了市场竞争对我们小老百姓可太重要了啊 没啥主题,就是感慨一下
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
欢迎大家五一来沈阳玩! (别人分享的)原提示词,大家可以修改按照自己想法:设计一张xx春季城市海报。米白纸质背景,大面积留白。画面右下角仅有一个极小的划船者、行走者或旅人,主体动作带出一条流动主线,这条线逐渐演化为城市河流/街道/天际线,内部串联地标建筑、老城区、桥梁、公园、水岸
佬友们好,如果官网订阅20xpro的话,我看菲律宾地区便宜,佬友们有什么订阅方案吗,或者友其他地区和官方订阅 菲律宾的话怎么去订阅会稳 4 个帖子 - 3 位参与者 阅读完整话题
闲鱼是什么抽象应用啊…一堆违禁词还天天封号,没事就说什么货品涉及ChatGPT直接下架,这次更是喜提7天封号。。。 哎,但是闲鱼上面确实客户需求多,可惜啊 2 个帖子 - 2 位参与者 阅读完整话题
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
gpt image 2还是太好用了() 2 个帖子 - 2 位参与者 阅读完整话题
Pro 没有,另外我看 Cli 的 Pro+ 里还有 Opus 4.6 ,还能用吗?我是 Pro
补充:目前处于pro5X翻倍阶段 1 个帖子 - 1 位参与者 阅读完整话题
最近自己折腾了一个在线生图工具,主要是想把 GPT-image-2 、Grok 图片和 Grok 视频这些模型放到一个页面里,平时测试提示词、做参考图、生成一些海报/头像/封面会方便一点。 网站地址: https://grok.17nas.com/ 目前网站可以直接免费试用,不过
最近自己折腾了一个在线生图工具,主要是想把 GPT-image-2 、Grok 图片和 Grok 视频这些模型放到一个页面里,平时测试提示词、做参考图、生成一些海报/头像/封面会方便一点。 网站地址: https://grok.17nas.com/ 目前网站可以直接免费试用,不过
之前看佬们说gpt写代码有点面条,各位客观回答目前gpt和opus谁的编码能力更好些呢 opus渠道真的太贵了 19 个帖子 - 15 位参与者 阅读完整话题
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
只有 gpt5.4 才支持 1m 的上下文,现在 gpt5.5 只支持 256k 的上下文,在做长任务的时候发现这个上下文一下就用完了,你们在做长任务的时候是怎么搞的呢?它虽然有 compact ,但是不知道这个 compact 好不好用,是否真的可以最大程度的保留上下文
hermes agent 稳定运行了一周,今天突然登录不上了,订阅渠道 Google play ,发现被取消订阅了,邮箱也没收到任何提醒,就这么水灵灵的给我取消了?还能救一下吗?中间有两次限速了 是不是觉得我薅的太狠了。