模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第57页 - 钛刻科技 | TCTI.cn

模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第57页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 2580 篇相关文章 · 第 57 / 129 页

deepseek-v4-pro 模型限时 2.5 折

优惠期至北京时间 2026/05/05 23:59 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 22:07:08+08:00

现在大家用Hermes 都用什么模型啊?

前段时间用gpt5.4,感觉每次回话都是长篇大论,不知道大家都用什么模型呢 6 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-25 22:05:57+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 22:05:33+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 22:05:33+08:00

DeepSeek限时2.5折,夯爆了!

DeepSeek官网上刚刚发布当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 简直是人类之光了,大伙速冲! 21 个帖子 - 21 位参与者 阅读完整话题

tech linux.do 2026-04-25 22:00:10+08:00

ANY模型健康度

有没有佬友知道ANY在CCSWITCH中用来测活的那个名字叫什么?我给忘记了 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:58:07+08:00

国内各家大模型api价格对比

6 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:48:54+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 21:45:41+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 21:45:41+08:00

【慢讯】opencode zen上新了两款模型

Zen | OpenCode 分别是蚂蚁的百灵2.6flash和腾讯的混元3 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:45:35+08:00

感觉dsv4的数学能力应该是国内第一

国内其他大模型几乎没有做得对的,特别第二题,gpt用上代码解释器也得做非常久 (k2.6能对第一题,但明显背出来的,一上来就在验证正确答案) 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:23:47+08:00

ds v4 pro限时降价了

当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:12:42+08:00

关于deepseek降价,限时2.5折,随便聊聊

api-docs.deepseek.com 模型 & 价格 | DeepSeek API Docs 下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 t

tech linux.do 2026-04-25 21:11:15+08:00

DeepSeek V4 Pro 模型限时 2.5 折!

api-docs.deepseek.com 模型 & 价格 | DeepSeek API Docs 下表所列模型价格以“百万 tokens”为单位。Token 是模型用来表示自然语言文本的的最小单位,可以是一个词、一个数字或一个标点符号等。我们将根据模型输入和输出的总 t

tech linux.do 2026-04-25 21:10:49+08:00

deepseek官方v4pro降价 2.5折 输出6元

当前 deepseek-v4-pro 模型限时 2.5 折,优惠期至北京时间 2026/05/05 23:59 来源官方: 模型 & 价格 | DeepSeek API Docs 39 个帖子 - 33 位参与者 阅读完整话题

tech linux.do 2026-04-25 21:03:03+08:00

写了个 OpenCode 插件:再也不用手动维护模型参数了

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-04-25 20:46:52+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00

我做了个工具让 8GB 显卡跑 30B 模型从 3 tok/s 提到 21 tok/s,记录一下技术发现

最近在折腾本地大模型,发现一个核心问题:Ollama 和 LM Studio 能让模型跑起来,但参数全靠猜——上下文长度、KV cache 类型、MoE expert 放哪、ubatch 多大……用默认参数基本是在浪费显卡。 于是做了个工具自动找最优配置,过程中踩了不少坑,记录一

tech www.v2ex.com 2026-04-25 20:44:05+08:00