opencode go套餐的deepseek v4如何开启max
如题,最近入了opencode go,里面适配ds的v4 pro,但是不知道如何开这个思考max,还有调整1m上下文,看了opencode.json的配置文件,里面是没有opencode go的配置信息的 10 个帖子 - 7 位参与者 阅读完整话题
deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第22页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1347 篇相关文章 · 第 22 / 68 页
如题,最近入了opencode go,里面适配ds的v4 pro,但是不知道如何开这个思考max,还有调整1m上下文,看了opencode.json的配置文件,里面是没有opencode go的配置信息的 10 个帖子 - 7 位参与者 阅读完整话题
glm 买不到 kimi 高峰算力不足,高峰算力不足,。。。 deepseek 没有 coding plan 兜底,怕扣钱太快。 mimo 感觉实力不行,用的欲望不大,也没有性价比。 Qwen 没有用过,大家有用过的评价下。 minimax 你是谁??? 各位大佬们,可以提供一些
glm 买不到 kimi 高峰算力不足,高峰算力不足,。。。 deepseek 没有 coding plan 兜底,怕扣钱太快。 mimo 感觉实力不行,用的欲望不大,也没有性价比。 Qwen 没有用过,大家有用过的评价下。 minimax 你是谁??? 各位大佬们,可以提供一些
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
9 个帖子 - 6 位参与者 阅读完整话题
刚去刷新ollama 发现也出来这个deepseek v4 pro 可以使用了 1 个帖子 - 1 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
DeepSeek正在重新定义大模型普惠的边界。4月26日,DeepSeek官方发布API价格调整公告,全系API输入缓存命中价格降至首发价的十分之一,V4‑Pro更叠加限时2.5折,百万Tokens输入缓存命中低至0.025元,创全球大模型价格新低。 根据DeepSeek官方AP
官方api昨天花了100 如果考虑大量用 这个是最优解吗? 12 个帖子 - 9 位参与者 阅读完整话题
在最初使用时我发现 mcp 和 skill 的调用都会出现失败的情况,在看了 x 教程和官方文档做了修改,发现都可以正常使用了,发出来作为分享 我主要使用v4-flash,可以根据你的需求替换模型型号 官 key 如果需要使用 1m 上下文就在模型名字后面加上[1M] 配置文件以
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
glm 买不到 kimi 高峰算力不足,高峰算力不足,。。。 deepseek 没有 coding plan 兜底,怕扣钱太快。 mimo 感觉实力不行,用的欲望不大,也没有性价比。 Qwen 没有用过,大家有用过的评价下。 minimax 你是谁??? 各位大佬们,可以提供一些
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
IT之家 4 月 27 日消息,腾讯云官方今日宣布 QClaw 发布 v0.2.14 版本更新。据介绍,这是该项目迄今为止力度最大的一次版本更新。 本次升级中,QClaw 正式接入支持 Hermes 框架,用户可创建并运行 Hermes 类型的 Agent,实现单一应用内同时运行
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我的应用里面内置了AI搜索,都是找一些冷门的东西,目前用grok挺好的,ds官网上目前用的还是v3,无法应证,想有个备用,有人试过吗? 1 个帖子 - 1 位参与者 阅读完整话题