Deepseek官方API正在更换为新模型
之前还以为是我幻觉,跑了一下自我介绍前端,和以前风格完全不一样。 以前风格参考: 【深夜无聊图一乐】跑了国内外目前几乎所有主流大模型的自我介绍页面(Claude 4.7 好惊艳) 搞七捻三 缺少GLM5.1,所以没测试。 测试环境统一为Vscode Lim-Code编程插件(除了
deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第64页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1352 篇相关文章 · 第 64 / 68 页
之前还以为是我幻觉,跑了一下自我介绍前端,和以前风格完全不一样。 以前风格参考: 【深夜无聊图一乐】跑了国内外目前几乎所有主流大模型的自我介绍页面(Claude 4.7 好惊艳) 搞七捻三 缺少GLM5.1,所以没测试。 测试环境统一为Vscode Lim-Code编程插件(除了
从 DeepSeek API模型发生变化 继续讨论: 世界知识已经与官网一致,只是部分问题略有差别 同问题专家模式如下: 专家模式直觉上更对,兴许是概率() 这是之前Deepseek V3.2-Thinking的回答,特地做了对比: 7 个帖子 - 6 位参与者 阅读完整话题
API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 32 个帖子 - 27 位参与者 阅读完整话题
之前不是看到新闻gemini 、gpt、 claude code三家合作抵制蒸馏嘛? 难不成deepseek 受影响了? 3 个帖子 - 3 位参与者 阅读完整话题
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
如何准确地预测Deepseek v4发布情况 ~~~~~今天不会发布~~~~~~ 1 个帖子 - 1 位参与者 阅读完整话题
2 个帖子 - 2 位参与者 阅读完整话题
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习
比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习