[推广] 火山方舟的 coding plan 上线新模型了,支持最新开源的 glm 5.1, kimi 2.6 和 minimax-m2.7
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
5.1 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第14页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 335 篇相关文章 · 第 14 / 17 页
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
如果有为了用glm想要购买的佬友,不建议购买了 1 个帖子 - 1 位参与者 阅读完整话题
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
方舟 Coding Plan 支持 Doubao 、GLM 、DeepSeek 、Kimi 、MiniMax 等模型,工具不限,现在订阅 9 折,低至 36 元,订阅越多越划算!立即订阅: https://volcengine.com/L/D5ATMsA5zYg/ 邀请码:8BC
想使用 GLM 5.1 模型,抢不到 Coding plan,现在哪个平台比较稳、性价比高? 9 个帖子 - 8 位参与者 阅读完整话题
早上看佬友们发字节coding plan上新了glm-5.1,之前用阿里coding plan,全是老模型,于是赶紧开通试用。通过cpa中转方便看次数,openclaw调用,4句话达到5h限额(流程排障,工具调用会多点),cpa调用显示如下 总用时一个小时不到,字节显示限额 也就
最近发现一个奇怪的现象,openclaw接三个不同公益站glm5.1、gemini、grok等模型都无法调用工具,其中glm5.1和gemini直接发类似这样的文本 <tool_call>exec](command=“cd ~/openclaw &&
总算是上新了,马上都要过期了结果告诉我上线新模型了,不过火山非豆包模型之前用经常限流卡顿,之前kimi2.5就一直卡,用都用不了,这次看看非官模型使用体验如何 12 个帖子 - 7 位参与者 阅读完整话题
如题,之前只有 glm 4.7,全是老模型,这波直接一个大更新。 拉完了直接变夯爆了,而且还不限购。 管他有没有隐藏倍率,就模型来讲所有国内 Coding Plan 第一了吧,先买个 lite 占坑。 9 个帖子 - 7 位参与者 阅读完整话题
说一下心中哪个最好 以及自己在使用上的一些差异,或者是说区别 听听各位佬的看法 4 个帖子 - 4 位参与者 阅读完整话题
自己买得 用下来觉得一般 比gml 5.1 差太多了给需要得佬友 大概还可以用15天把 最小得哪个套餐 sk-cp-FOg8sl77Prq0J8DagcWguIciIGG3XBlEMhVndoy5bhhI72t-wek9aaa3h5IRxUM7tjO239yU5ISZHPVFSw
cpa反代出来的gpt模型已经不支持5.1即以下版本了,有什么方法可以搭建可以用的旧模型的中转站吗(比openai官网api便宜的方法) 3 个帖子 - 2 位参与者 阅读完整话题
今天试了试codex的gpt5.1模型,发现mini和max都用不了了,报错{“type”:“error”,“status”:400,“error”:{“type”:“invalid_request_error”,“message”:“The ‘gpt-5.1-codex-max
这下好了,他都快没了,笑死,赶快手动续费一下 1 个帖子 - 1 位参与者 阅读完整话题
最近看了很多佬友和网络上对glm 5.1以及kimi 2.6的评测,我个人由于生产环境原因不太敢直接在我的代码中使用这些模型,包括gpt和opus我也是多次审查使用。 请问各位使用较多的佬友,这些模型是否基本已经达到了opus4.5满血的水准?还是尚有差距呢。这里的评判标准不仅仅
一、环境及提示词 订阅情况: GLM-5.1 : 智谱国内站 新Max套餐(460元)。 Kimi-k2.6: kimi 199元档位套餐。 Claude Opus-4.7: Max满血中转(经测试未降智且支持1M上下文)。 本次测试中CC均设置为200K上下文窗口。毕竟这个小项