glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
能力 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第8页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 405 篇相关文章 · 第 8 / 21 页
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
请教佬们一个问题,有一个商用的agent,对AI 操作浏览器的能力非常强,其实就是类似于Agent browser,但是他们对这个做了极致优化,比如说正常的高自主agent比如cc 配合一个agent browser 可能都需要好多步骤的,他利用云端agent + 四五个工具调用
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我买了Chatgpt Pro号,用newapi接的,可以让codex正常调用中转的gpt-5.5模型,请问,我怎么通过API的方式调用gpt-image-2模型生图呢?别人中转站的生图模型我直接接是可以用的,我想直接用自己的pro额度,怎么实现,求佬友帮助啊 6 个帖子 - 3
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
这个是周六用 gpt-5.5 按照我的想法给我自己的 AIHub2API 中转站新加个功能:trace 自主分析 平时我们分析 trace ,得来回在 perfetto 的时间线页面放大,缩小,来回看调度,高级一点的就自己写个 sql 查询指定的函数调用之类的,很费劲 但是现在有
各位佬友大家好,最近有个困惑一直在我脑子里转。AI编程的能力很强,像 vibe coding 这种模式,感觉普通人用AI就能写出以前本科毕业设计水平的作品,一些小项目靠简单对话都能搭出来。 还有必要从头学语法、刷算法、跟着视频一行行敲代码吗,还是这样学,会不会学完发现自己花几年学
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
我的应用里面内置了AI搜索,都是找一些冷门的东西,目前用grok挺好的,ds官网上目前用的还是v3,无法应证,想有个备用,有人试过吗? 1 个帖子 - 1 位参与者 阅读完整话题
主贴 https://linux.do/t/topic/1972106 由于上游的限制其上下文能力,两个主要2api渠道在30-50k之间,虽然其它能力未受到限制,但可用性受到很多限制 并且,由于主渠道封控加强注册机注册成功慢,失败率高,很难大规模应用 或将开源其中一个渠道(可能
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6