[程序员] glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
DEEPSEEK - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第25页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1306 篇相关文章 · 第 25 / 66 页
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
Deepseek理解了我的需求,写出计划。 就可以开始操控代码牛马GPT5.5 开始干活了。 顺便吧GPT5.5的数据喂给梁圣。 严肃支持梁圣训练更强大的代码模型。 1 个帖子 - 1 位参与者 阅读完整话题
比较好奇, 如果硬要给一个 DeepSeek, KIMI, GLM 和 GPT, Claude, Gemini 的相似性配对, 佬友们会怎么配对 (角度和理由不定, 言之有理即可) 1 个帖子 - 1 位参与者 阅读完整话题
从 deepseek 官方优惠更新 缓存1折(更新:永久1折) 继续讨论: 以防佬友们不知道,ds的缓存创建时间比A÷良心太多了,我真的不想当赛博监工时刻去盯着cc防止缓存过期 8 个帖子 - 4 位参与者 阅读完整话题
想使用 DeepSeek 的 api,非编码工作,想要充分发挥 DeepSeek 的能力,该选择哪个客户端呢? Cherry Studio、Open WebUI、Lobe Chat 或是其他?对这方面不是很了解,求推荐 10 个帖子 - 6 位参与者 阅读完整话题
今天我就在claude desktop的code里发了一句hello,它就回了我一句话。结果刚才发现它居然向deepseek的api发了120多次请求,输入花了52万token???这是claude的问题吗?? 20 个帖子 - 7 位参与者 阅读完整话题
我曾两度打折 意思很明显了 大家多贡献点优质数据 至于gpt claude 我手上也有 但是我决定放一放 或者提高dsv4的使用占比 现在ds很明显更需要我们的行动支持而不是金钱支持 2 个帖子 - 2 位参与者 阅读完整话题
看到梁子大降价,不知性能如何?有无佬友实际对比过? 1 个帖子 - 1 位参与者 阅读完整话题
全系列模型,输入缓存命中的价格已降至首发价格的 1/10。 1 个帖子 - 1 位参与者 阅读完整话题
梁圣这是在做什么,deepseek v4 pro打完2.5折之后,缓存还能打一折,这是真圣人吗 4 个帖子 - 4 位参与者 阅读完整话题
缓存命中再打一折 今天用了一天 亏了 昨天的 9 个帖子 - 6 位参与者 阅读完整话题
一开始看的价格: 刷新了一下,看的价格: 谁懂我的心情啊,刚用api,又双降价,缓存这个价格降到首发的1/10 我觉得这次降价,结合首发所说的下半年使用华为的推理显卡,算力上来以后的大幅降价,会不会比现在便宜。目前来看,输入不到3分钱/百万token,输出限时2.5折。下半年的降
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
缓存一折好像是常驻优惠了?这也太狠了吧。这个价格无敌了 19 个帖子 - 13 位参与者 阅读完整话题
官方文档 10 个帖子 - 10 位参与者 阅读完整话题
缓存再打折 补充 好像不是临时缓存1折 是永久 33 个帖子 - 29 位参与者 阅读完整话题
我感觉打折的之后的费用还挺不错的,只不过只到5.5号,要是一直有这个就好了 1 个帖子 - 1 位参与者 阅读完整话题
据说一个910B2服务器能稳定服务20路,这个什么水平,明天去问问价格看看 1 个帖子 - 1 位参与者 阅读完整话题
cherry 昨天有一个 commit 做了 DeepSeek V4 的 reasoning_effort 的适配。但还没发新的 release。 但我很急,我现在就要测 V4 pro max!!!!!所以有没有佬知道 cherry 怎么手动往请求体里塞一个 reasoning_
更新:参考佬友们的意见,增加了远程 MCP 调用、tts 语音等功能,可以使用免费的微软接口,也可以自定义 openai 兼容接口 效果: 使用建议 在“自动朗读”的时候关闭 MCP 工具调用,否则会朗读无关内容 在需要朗读时可以通过另一个脚本注入提示词:不要使用 emoji、颜