gpt pro 5x 弹add phone
在opencode里用着用着,提示hit limit了,在codex里一看,5h和周限额全清零了。重新登录又弹add phone,在herosms上试了好多国家的号码,没一个接到,不会寄了吧,130买的,才用了半个月 16 个帖子 - 8 位参与者 阅读完整话题
OpenCode - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 257 篇相关文章 · 第 2 / 13 页
在opencode里用着用着,提示hit limit了,在codex里一看,5h和周限额全清零了。重新登录又弹add phone,在herosms上试了好多国家的号码,没一个接到,不会寄了吧,130买的,才用了半个月 16 个帖子 - 8 位参与者 阅读完整话题
这个问题可能问的有点蠢,请大家见谅。我在网上看到很多对openclaw的上下文管理和安全机制的质疑,我就好奇,为什么它不去抄opencode,codex,gemini cli的作业呢,要自己做一套更差的出来。明明那三个都是开源的 5 个帖子 - 3 位参与者 阅读完整话题
大佬们,我用cpa反代出codex模型之后,突然发现模型不会调用工具改代码了,思考完之后直接输出计划干啥,然后让他继续,又重复输出下一步计划,就是不修改,我选择的是build模式,前几天还好好的呢,大佬们有碰到过吗,求助 1 个帖子 - 1 位参与者 阅读完整话题
近期使用opencode go套餐模型更新挺快的,glm5.1 、ds v4 pro第一时间就上了,且kimi 2.6还有三倍额度。但之前都是直接在opencode中直接用的。 昨天想通过opencode go的模型接入claude code,也按照站内一些教程在cc-switc
做个可以自由旋转的魔方的前端页面历经5轮对话,功能才能勉强实现。 第6轮对话让他模型更精致点,结果就功能失常,还在检修中 win 版 opencode ============================================= 思考5分钟,问题没有解决,有的难受。
请问佬友们,有用trae国际版的吗?自定义模型接入deepseek-v4为什么很慢呢? 我用opencode使用deepseek-v4的速度就很正常 1 个帖子 - 1 位参与者 阅读完整话题
如题,之前用opencode+OMO+GPT5.4,工作流很习惯了。现在切到GPT5.5,虽然感觉能力确实明显有提升,但是经常出现几个task/tools的结果一下子塞爆上下文连compact都做不到的情况。 codex上因为有会话内自动压缩,基本不需要手动压缩,更加适配GPT
congig的配置文件 一定要加上wire_api = “responses” ,而go的端点是 https://opencode.ai/zen/go/v1/chat/completions,,,,completions的,,然后我再cc switch怎么配置都不行,实现没办法了
在一个大型仓库中 使用 opencode 对 pro 以及 flash 分别让其根据代码库分析三个问题。pro 回答更好,更符合人的预期。flash 稍差一些,但是基本也能够分析到,只是结论总结的不如 pro,但是速度更快。 本次测试主要关注的价格: 价格方面 6 轮问答 多次检
受够 Codex 了又慢又卡,要不是图他便宜 怎么能在 Claude Code 或者 OpenCode 上面用啊 9 个帖子 - 7 位参与者 阅读完整话题
同一个模型下,claude code、opencode、cursor、windsurf、kilocode等等这些代码agent外壳谁做的更好呢? 10 个帖子 - 8 位参与者 阅读完整话题
暂时不考虑各种插件和 skill,只考虑开箱即用 glm 5.1 搭配这两个 agent,谁的效果更好? 有没有熟悉的佬友出来说说 9 个帖子 - 7 位参与者 阅读完整话题
WSL 与 Windows 双环境 OpenCode 配置同步实践 背景 在 WSL 和 Windows 双环境下使用 OpenCode 时,希望两边配置和会话数据能够同步,避免手动切换环境时丢失上下文。 主要分为两块:配置目录同步和会话数据库同步。把步骤直接丢给agent应该就
目前我用的字节的coding plan,虽然额度消耗非常夸张,但kimi支持图片理解,不过我才几天就要把额度给蹬完了。 现在想转向go,仔细翻阅了官网介绍,压根就没提图片理解的事,有没有佬验证过kimi-2.6啊 4 个帖子 - 3 位参与者 阅读完整话题
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
URL: http://filter/trans/https/opencode.ai/zen/go sk-JFja5sI6ogDvTFUDwtZre0IgyZqBbvghgiyAa5T2gdqHDXhdOPm40xcq34v8xIxN 7 个帖子 - 4 位参与者 阅读完整话题
啥玩意儿? 刚刚拿着刚到手的2亿token到Opencode里试了试 MIMO 2.5 Pro告诉我,它找到了一件石器遗物 这是上下文大了之后爆了吗? 说实话,用AI那么久了,我还是第一次看见完完全全和上下文无关的回复 看着回复 我是怀疑它这多模态没怎么训练好 14 个帖子 -
一直用 codex ,但黑车坐不上了,plus 套餐马上也到期。 昨天评测了下 mimo 2.5 pro 和 deepseek v4 ,基本也都满足需要。 付费了 opencode go 套餐,量非常大。 但问题来了: 1.opencode 不支持接入现在的 codex 工具,协