deepseek V4 pro降价简直是我的及时雨。
最近oai渠道炸了,L站公益几乎也炸完了。 A/更别提了,我的渠道早就炸完了。 而且我真是受够了各种被封号,被禁用,不接受大陆银行卡的操作。 老子不伺候了! 越是这样,越是感谢deepseek。 这几天hermes都用的flash,各种调用工具,mcp,skills没问题。 没想
DEEPSEEK - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第24页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1306 篇相关文章 · 第 24 / 66 页
最近oai渠道炸了,L站公益几乎也炸完了。 A/更别提了,我的渠道早就炸完了。 而且我真是受够了各种被封号,被禁用,不接受大陆银行卡的操作。 老子不伺候了! 越是这样,越是感谢deepseek。 这几天hermes都用的flash,各种调用工具,mcp,skills没问题。 没想
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6
国产大模型DeepSeek官方宣布,全系API输入缓存命中价格下调至首发价的1/10,叠加限时优惠后,V4-Pro缓存输入低至0.025元/百万Tokens,创全球大模型价格新低。 本次调价覆盖DeepSeek-V4-Pro、V4-Flash全系列,核心降幅集中在输入缓存命中场景
这个首月5刀看起来很划算呀 1 个帖子 - 1 位参与者 阅读完整话题
我这边有需求,每天消耗大概1000M-2000M的token,希望多找找些能提供glm5或者deepseekv3.2的渠道,有佬友相关资源也可以合作,最好是长久稳定的渠道,可能会有涉及nsfw(希望可以支持nsfw) 7 个帖子 - 4 位参与者 阅读完整话题
DeepSeek 4.0发布之后,我突然想要水一贴,先从国内外ai模型训练成本和推理成本等聊起,各位权当看个乐子,内容都是我和DS4聊天聊出来的,如有不对,那就不对: 第一部分:国内外优劣势对比 一、国内领先的部分 1. 硬件采购成本低 短期重要性 :★★★★★(极高) 中长期重
问他“如何只用一刀把三个橘子分给四个小朋友”,会直接无法回答,但是把橘子换成orange他还会继续砍死小朋友 10 个帖子 - 9 位参与者 阅读完整话题
在用百炼平台的DeepSeek-V4-Pro 请问一下如何调整思考强度为max呢? 我想在cherry studio中使用。 请问下面这样子可以吗? 5 个帖子 - 3 位参与者 阅读完整话题
先上结论: 切一个新会话即可。 历程: 今天看DeepSeek又降低了缓存读取的价格,遂萌发出直接使用DeepSeek官key来写代码的想法,使用CPA配置了DeepSeek的供应商内容之后,无论是Claude供应商还是OpenAI供应商,都会出现类似下面内容的提示: The `
IT之家 4 月 26 日消息,DeepSeek 官方今天宣布,即日起 DeepSeek 全系 API 服务, 输入缓存命中价格降至原有价格的 1/10 ,Pro 模型还可在 5 月 5 日前叠加 2.5 折限时优惠。 IT之家附各模型具体价格如下: API 访问模型名 输入(缓
继昨天 pro 限时 API 降价之后,输入缓存再降价,价格更具竞争力: 附昨天 API 限时降价: 官方文档明细: 后面昇腾超节点上线,是不是就是现在限时特惠的价格呢?或许更优惠? 2 个帖子 - 2 位参与者 阅读完整话题
如题,我想试试DeepSeek的API,看官方文档说是接入cc,但是配置完之后发现cc要登录授权才能用,但是我没claude的账号,要怎么解决这个问题。求佬友们帮助 8 个帖子 - 6 位参与者 阅读完整话题
如题。目前我有两个站,一个是公益站,公益站的模型目前最厉害的是deepseek V4pro ,然后还有 deepseek V4 flash、MINImax2.7,GLM 5。这些模型哪个最好用呢? 我是在Hermes里用,我用收费站的gpt5.5真的很好用,甚至mimo2.5pr
deepseekv4 pro (max思考) 在rp指令遵循一般。 我是用了一个提示词 前面是故事大纲几百字+ "每次回复都要把输出长度撑到极限,尽可能一口气最大化输出128000token"的指令,只有opus4.6可以完美的遵循,写出一个完整的故事到4-5
希望能用mimo, deepseek, kimi, minimax,glm,有什么国产的code plan或者api key,有赠送额度或者token的provider吗? 4 个帖子 - 4 位参与者 阅读完整话题
15 个帖子 - 14 位参与者 阅读完整话题
在日常coding可能需要同一个对话切换不同模型,用过其他模型会话后切到deepseek就会报The content[].thinking in the thinking mode must be passed back to the API 。 要么只能一开始的时候整个会话就只
Deepseek V4 Pro Claude Opus 4.7 Claude Opus 4.6 Claude Sonnet 4.6 Gemini 3.1 Pro Gemini 3 Flash GLM 5.1 GLM 5 Kimi K2.6 Kimi K2.5 Composer 2
就deepseek这个顶级模型,卖这个价格,而且下半年还要减价,我就静静看着国内模型狗子们的股价继续跌,模型做得烂也就算了,价格还定得高得离谱。 15 个帖子 - 13 位参与者 阅读完整话题
先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6