我宣布deepseek pro max比Gemini3.1 high和Claude opus4.6强
同样的问题,用Gemini3.1 high和Claude opus4.6改了一个小时没改好,用deepseek pro max 10分钟搞定 5 个帖子 - 5 位参与者 阅读完整话题
Deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1347 篇相关文章 · 第 13 / 68 页
同样的问题,用Gemini3.1 high和Claude opus4.6改了一个小时没改好,用deepseek pro max 10分钟搞定 5 个帖子 - 5 位参与者 阅读完整话题
我现在在使用 ollama 的 deepseek-v4-pro, 我尝试在 CCS 中的模型名称后面加上 [1m], 但是显示调用失败, 有佬知道怎么开启吗? 3 个帖子 - 2 位参与者 阅读完整话题
百炼的 token Plan deepseek api 还是智谱或者 kimi的 plan 还是 codex 啥的 希望能用好用,物美价廉 4 个帖子 - 4 位参与者 阅读完整话题
(话题已被作者删除) 1 个帖子 - 1 位参与者 阅读完整话题
如题,最近没有gpt用了,没招了,想换到公益站的glm或ds 2 个帖子 - 2 位参与者 阅读完整话题
https://github.com/antirez/llama.cpp-deepseek-v4-flash
之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,
有佬友们对比过这俩模型在代码生成方面的性能吗?同事跟我说MiMo的性能要更好,感觉有点不太相信 3 个帖子 - 3 位参与者 阅读完整话题
之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,
昨天NVIDIA 模型deepseek-v4相关的模型还是Free Endpoint。今天发现已经取消了标签Free Endpoint,而且v4-flash从昨天开始一直是不可用状态 2 个帖子 - 2 位参与者 阅读完整话题
让他帮我处理一个数据集,结果一顿操作把数据本身搞没了,不是哥们… 1 个帖子 - 1 位参与者 阅读完整话题
猛蹬一天只花了一块多(我是flash和pro混用),编程能力个人感觉接近GLM5.1,最主要的优点就是特别省token,同样的任务消耗的token数量几乎是其他模型的80%左右,再加上1M的长上下文,真感觉特别适合CC,CX这些智能体。 然后今天看了一眼API价格, 官方直接把
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
DeepSeek官网更新了优惠时间,延长到5月31了 1 个帖子 - 1 位参与者 阅读完整话题
最近看咸鱼上好多商家也纷纷推出了deepseek v4系列的服务,不知道是自己搭建的还是中转的官方的,自己搭建的话它的性能按理说是保证不了同时多人使用的,在一个成本相对也高,虽然长期看也会赚钱,毕竟一次性投入。如果是中转的官方的话,感觉价格太低了。。那得多大关系才能谈到这个价。有
这个月真的相当神奇啊,先是opus4.7出现但是大家觉得能力下降,再到后续的deepseek和gpt5.5双日凌空,接着是deepseek超级大折扣和昨天雷总送token。 昨天早上看到我才活了两三天的的team号被取消了,然后就是看到以后白嫖team就没有了,今早起来甚至说op
佬们,我想问一下有没有软件可以集成gpt和gemini deepseek等大模型的 2 个帖子 - 2 位参与者 阅读完整话题
在改项目 也有可能是我没用过好的,额度勉强够用 不够的用反重力补一下 号池那边没有gpt5.5 但是你要让我用5.4 我不接受 因为被折磨过 之前就是开的fast xhigh 结果7分钟没了 7 个帖子 - 5 位参与者 阅读完整话题