ollama cloud支持v4pro了
貌似是因为有bug所以迟迟不上 13 个帖子 - 7 位参与者 阅读完整话题
v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第15页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1024 篇相关文章 · 第 15 / 52 页
貌似是因为有bug所以迟迟不上 13 个帖子 - 7 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
IT之家 4 月 27 日消息,腾讯云官方今日宣布 QClaw 发布 v0.2.14 版本更新。据介绍,这是该项目迄今为止力度最大的一次版本更新。 本次升级中,QClaw 正式接入支持 Hermes 框架,用户可创建并运行 Hermes 类型的 Agent,实现单一应用内同时运行
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
写代码时应该开启还是不开启,1m的提升大吗?其他模型500左右就开始失忆和胡言乱语的情况会出现吗 1 个帖子 - 1 位参与者 阅读完整话题
我的应用里面内置了AI搜索,都是找一些冷门的东西,目前用grok挺好的,ds官网上目前用的还是v3,无法应证,想有个备用,有人试过吗? 1 个帖子 - 1 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
一般都是搭配自己家的最合适 可惜本家没出 有没有佬试过多家对比 哪个效果好? 5 个帖子 - 4 位参与者 阅读完整话题
平时一直用codex,这次使用opencode测试了下,看输出速度应该还行,最后的质量也不错,就是耗时比codex多太多,codex app我也没有使用多agent。 DeepSeek v4 pro - high: 16分钟 codex GPT5.5 - high: 3+2=5分
opencode 1.14.26 兼容了response_content参数的版本 deepseek v4 flash,默认参数 在opencode里面, 一个简单问题也可能让deepseek flash反复思考10分钟,甚至出现修改了一轮后,在下一轮重复思考的时候把上一个修改重
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
gpt 老要哄,然后做成做成中途又不肯干了,ds就不同了,直抒胸臆,说我要写 gpt 注册机,他就开干了 11 个帖子 - 7 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
使用CC配置DeepSeekV4完成一个不算太复杂但是工程量比较大的任务: 模型:deepseek-v4-pro 思考深度:max cost: ¥8.35 改动文件数:30 最终context:100% 耗时:约1h 相关截图: 评价: 这个价格能接受,如果换到opus要花¥30
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我在 Claude Desktop App 开发者第三方接入其它公益站都没问题,但接入 https://api.deepseek.com/anthropic 后重启直接说对方拒绝,试着填入 https://api.deepseek.com 没有报错,但就是不回答问题,转圈打滚:s