deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第66页 - 钛刻科技 | TCTI.cn

deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第66页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1393 篇相关文章 · 第 66 / 70 页

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 17:52:14+08:00

逆天Deepseek

谁放我手机里的!!!,快丢出去! 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 17:05:05+08:00

天才交易员,陨落!

从早上开始,我的Deepresearch就无法使用,现在试了一次还是不能用,复盘无望。佬友的Gemini遇到相似的情况吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:47:14+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 16:29:13+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 16:17:12+08:00

【疑似】全新Deepseekv4.0新模型测试结果

网传:全新Deepseekv4.0新模型测试结果(二更:存疑,仅供娱乐,不过大家可以期待一下) 15 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-21 16:00:05+08:00

关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech www.v2ex.com 2026-04-21 15:56:02+08:00

大家今天的Gemini Deep Research 还能用吗

我一直显示 I'm sorry, I'm experiencing unusually high traffic right now and am at full capacity. Please try again later. 1 个帖子 - 1 位参与者

tech linux.do 2026-04-21 15:51:17+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:43:31+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 15:33:27+08:00

[OpenAI] 关于“AI 思考”长度

感觉现在的模型都被 DeepSeek 带“歪”了,现在无论是 qwen3.5 、qwen3.6 ,以及 Gemma4 的思维链,都好久。 硬件配置跟不上的情况下需要等待更长的时间。 PS: https://chat.qwen.ai 上面的 Qwen3.6-Max-Preview

tech v2ex.com 2026-04-21 14:34:19+08:00

AI里的缓存命中机制是怎么样的

AI里的缓存命中机制是怎么样的,充了十块的deepseek按量付费,让他分析项目和写简单模块消耗差不多,和读的上下文多少有关? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-21 14:32:47+08:00

都在狙击DeepSeek啊,DeepSeek 压力满满

这周又是模型大混战,昨天千问刚发布 Qwen3.6-Max-Preview,今天 Moonshot 连夜开源 Kimi 2.6,推特上看到有说混元这周很可能也要发布新模型。 接下来就看 DeepSeek v4 的了,总不能比 GLM、Kimi 和 Qwen 的新模型差吧。 希望能

tech linux.do 2026-04-21 12:59:12+08:00

DeepSeek V4 快发了,但我在意的不是跑分

训它的卡,是不是真的换成昇腾了。 跳票一年多,说是底层从 CUDA 搬华为全家桶了。要是这波真在国产卡上跑出万亿 MoE,那 V4 最大的看点就不是跑分,是这条路到底走不走得通。 跑赢了最好,跑不赢也认。起码没在英伟达一棵树上吊死。 10 个帖子 - 10 位参与者 阅读完整话题

tech linux.do 2026-04-21 11:29:19+08:00

DSv4还能上吗

deepseek到底是什么情况了,从年前说发布到今天还没影,跟老贾一样了,永远都是下周,遥遥无期。codex-free的额度一砍再砍,好多号也杀了,再不出来就要回到古法编程了。 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-21 10:59:13+08:00

现代汽车集团将基于 DEEPX DX-M2 芯片打造未来机器人物理 AI 计算平台

IT之家 4 月 21 日消息,韩国 AI 芯片企业 DEEPX 当地时间今日发布公告, 将与现代汽车集团机器人实验室 (Robotics LAB) 一道打造基于 DX-M2 新品的新一代机器人物理 AI 计算平台 ,支持本地实时运行大型 LLM。 IT之家注意到,DEEPX 的

tech www.ithome.com 2026-04-21 10:10:28+08:00

[问与答] 国内有哪些能免费用 Deep Research 的平台?

现在试过: 豆包 搜索的网页足够多,不错。 LongCat 搜索的网页比豆包还多。 秘塔 还行,但资料找的感觉没前两个丰富。 Z.AI 深度搜索功能无了,但多了一个“Agent 模式”数据分析,似乎算能用。 MiroThinker 很不错,但注册送 3000 点,差不多每个号只能

tech v2ex.com 2026-04-20 22:02:15+08:00

[问与答] 国内有哪些能免费用 Deep Research 的平台?

现在试过: 豆包 搜索的网页足够多,不错。 LongCat 搜索的网页比豆包还多。 秘塔 还行,但资料找的感觉没前两个丰富。 Z.AI 深度搜索功能无了,但多了一个“Agent 模式”数据分析,似乎算能用。 MiroThinker 很不错,但注册送 3000 点,差不多每个号只能

tech v2ex.com 2026-04-20 22:02:15+08:00