帮大家试过了 V4 变强了,但是也太贵了,早点出 coding plan 吧
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第34页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1314 篇相关文章 · 第 34 / 66 页
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
大家好, 我准备尝试 DeepSeek V4 模型。请问我应该把它和 Claude Code 一起使用,还是和 Codex 一起使用?哪一个会更好?为什么? 感谢大家的时间。 English: Hi everyone, I am going to try the DeepSeek
不是很多但速度是真的快啊! flash|每秒175 tokens pro|每秒81 tokens 我觉得等大家都完善配置了速度还能起飞 12 个帖子 - 9 位参与者 阅读完整话题
参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用
1、CSA和HCA两种sparse attention 2、mHC 3、Muon优化器 4、GRPO+OPD 想问一下这次的engram去哪里了,没办法scale up? 1 个帖子 - 1 位参与者 阅读完整话题
智慧星:你知道吗?上海的老破小租售比可高了,前段时间我一口气拍下了几千套,租售比三点五诶! 蜜袖姐:我也跟了,每套房子每个月的租金除了还房贷,都有大几千的盈余,关键是到时候拆迁了,还能用新房赔旧房,赚的可不止亿点点。 小鲸鱼:这钱你们想赚就去赚吧!反正我不会去跟,以租养贷看起来很
参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用
在官网对话,还是V3,没有多模态的能力 4 个帖子 - 4 位参与者 阅读完整话题
竟然没人做那就只好我亲自动手了() 允许转载 其中: Gemini 3.1 Pro 报告了 128K 与 1M 上下文窗口时的数据 Claude 两款模型报告了 256K 和 1M 下的数据 实心点为数据点 13 个帖子 - 7 位参与者 阅读完整话题
参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用
Pro现在的API价格太贵了,想问flash模型在实际任务的表现能超过Claude Sonnet 4.5吗 1 个帖子 - 1 位参与者 阅读完整话题
参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用
DeepSeek v4好不好,到底有多好,和同行对比如何?一眼就能看出来。 连接不同大模型,给aipy任务提示词: 打开windows画图软件,控制鼠标,画一辆小汽车。接下来看图回答问题:谁的最丑?谁的最抽象?国外谁最好?国内谁最好?DeepSeek进步如何?谁进步最大? 答对有
参考文章: https://36kr.com/p/3780399181878528 -DeepSeek-V4 明确支持华为昇腾 950 芯片 支持国产芯片的 v4 下半年 token 价格还会大幅降低,DeepSeek 内部体验评价优于 Claude Sonnet 4.5 ,能用
早期,我用 deepseek-reasoner 连最基本的问题在生产项目都搞不定。但是 V4 确实能力比之前强很多了。token 也很贵,一个简单的问题 V4 Pro 花了我 5 块钱多钱
from openai import OpenAI client = OpenAI( api_key="sk-", base_url="https://api.deepseek.com" ) response = client.chat.c
Chat 体感上慢,事实上貌似也慢 看 Nao 佬的报告 ,Flash 的平均耗时甚至都超过大多数模型了 Tokens 消耗是别家的两倍甚至三倍,不过看见那么长的思考输出好像就释然了 可能是纯算力的原因吗(thinking 1 个帖子 - 1 位参与者 阅读完整话题
今天看到deepseek v4的价格, 又想到原来看到的一个讨论: 普通人的翻身机会 = “token出海”. 感觉说的就是deepseek吧. 价格屠夫, 而且又不会被卡脖子. 锋哥牛逼!!! 1 个帖子 - 1 位参与者 阅读完整话题
前情提要: 分享一个利用LLM干逆向工程的神奇小妙招 - 开发调优 - LINUX DO 正常人都应该能从我prompt的隐含语义里得出我想要的 funcptr_name是 CCSPlayerController_XXXXXX这种有意义的函数名,并且我的Example: 里写的也
deepseek v4 pro thinking=enabled reasoning_effort=max prompt_chars 8405 一次请求10分钟才响应这真的正常吗? 8 个帖子 - 6 位参与者 阅读完整话题