[分享发现] DeepSeekV4 来了, 希望可以抗衡御三家

模型细节 模型 deepseek-v4-flash* deepseek-v4-pro BASE URL (OpenAI 格式) https://api.deepseek.com BASE URL (Anthropic 格式) https://api.deepseek.com/anthropic 模型...
[分享发现] DeepSeekV4 来了, 希望可以抗衡御三家
[分享发现] DeepSeekV4 来了, 希望可以抗衡御三家

模型细节

  • 模型 deepseek-v4-flash* deepseek-v4-pro
  • BASE URL (OpenAI 格式) https://api.deepseek.com
  • BASE URL (Anthropic 格式) https://api.deepseek.com/anthropic
  • 模型版本 DeepSeek-V4-Flash DeepSeek-V4-Pro
  • 思考模式 支持非思考与思考模式(默认)
  • 切换方式详见思考模式
  • 上下文长度 1M
  • 输出长度 最大 384K
  • 功能 Json Output 支持 支持
  • Tool Calls 支持 支持
  • 对话前缀续写( Beta ) 支持 支持
  • FIM 补全( Beta ) 仅非思考模式支持 仅非思考模式支持
  • 价格 百万 tokens 输入(缓存命中) 0.2 元 1 元
  • 百万 tokens 输入(缓存未命中) 1 元 12 元
  • 百万 tokens 输出 2 元 24 元

  • deepseek-chat 与 deepseek-reasoner 两个模型名将于日后弃用。出于兼容考虑,二者分别对应 deepseek-v4-flash 的非思考与思考模式。
来源: v2ex.com查看原文