deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第65页 - 钛刻科技 | TCTI.cn

deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第65页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1359 篇相关文章 · 第 65 / 68 页

如何准确地预测Deepseek v4发布情况

如何准确地预测Deepseek v4发布情况 ~~~~~今天不会发布~~~~~~ 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:30:09+08:00

deepseek-v4下周发布,各位都有什么期待,能超越sonnet4.6?

2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 19:14:28+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:06:54+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:04:12+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 18:55:36+08:00

多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech www.v2ex.com 2026-04-21 18:36:33+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

逆天Deepseek

谁放我手机里的!!!,快丢出去! 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 17:05:05+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 16:17:12+08:00

【疑似】全新Deepseekv4.0新模型测试结果

网传:全新Deepseekv4.0新模型测试结果(二更:存疑,仅供娱乐,不过大家可以期待一下) 15 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:00:05+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 15:56:02+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:43:31+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:33:27+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 14:34:19+08:00

AI里的缓存命中机制是怎么样的

AI里的缓存命中机制是怎么样的,充了十块的deepseek按量付费,让他分析项目和写简单模块消耗差不多,和读的上下文多少有关? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 14:32:47+08:00

都在狙击DeepSeek啊,DeepSeek 压力满满

这周又是模型大混战,昨天千问刚发布 Qwen3.6-Max-Preview,今天 Moonshot 连夜开源 Kimi 2.6,推特上看到有说混元这周很可能也要发布新模型。 接下来就看 DeepSeek v4 的了,总不能比 GLM、Kimi 和 Qwen 的新模型差吧。 希望能

tech linux.do 2026-04-21 12:59:12+08:00

DeepSeek V4 快发了,但我在意的不是跑分

训它的卡,是不是真的换成昇腾了。 跳票一年多,说是底层从 CUDA 搬华为全家桶了。要是这波真在国产卡上跑出万亿 MoE,那 V4 最大的看点就不是跑分,是这条路到底走不走得通。 跑赢了最好,跑不赢也认。起码没在英伟达一棵树上吊死。 10 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-21 11:29:19+08:00