deepseek-v4-pro 模型限时 2.5 折
优惠期至北京时间 2026/05/05 23:59 2 个帖子 - 2 位参与者 阅读完整话题
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第57页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2580 篇相关文章 · 第 57 / 129 页
优惠期至北京时间 2026/05/05 23:59 2 个帖子 - 2 位参与者 阅读完整话题
前段时间用gpt5.4,感觉每次回话都是长篇大论,不知道大家都用什么模型呢 6 个帖子 - 6 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
DeepSeek官网上刚刚发布当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 简直是人类之光了,大伙速冲! 21 个帖子 - 21 位参与者 阅读完整话题
有没有佬友知道ANY在CCSWITCH中用来测活的那个名字叫什么?我给忘记了 4 个帖子 - 4 位参与者 阅读完整话题
6 个帖子 - 3 位参与者 阅读完整话题
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
Zen | OpenCode 分别是蚂蚁的百灵2.6flash和腾讯的混元3 2 个帖子 - 2 位参与者 阅读完整话题
国内其他大模型几乎没有做得对的,特别第二题,gpt用上代码解释器也得做非常久 (k2.6能对第一题,但明显背出来的,一上来就在验证正确答案) 2 个帖子 - 2 位参与者 阅读完整话题
当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 4 个帖子 - 4 位参与者 阅读完整话题
api-docs.deepseek.com 模型 & 价格 | DeepSeek API Docs 下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 t
api-docs.deepseek.com 模型 & 价格 | DeepSeek API Docs 下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 t
当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 来源官方: 模型 & 价格 | DeepSeek API Docs 39 个帖子 - 33 位参与者 阅读完整话题
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一
最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一