Deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第64页 - 钛刻科技 | TCTI.cn

Deepseek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第64页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1359 篇相关文章 · 第 64 / 68 页

[分享发现] DeepSeek API 更新新模型了?

用的时候发现回答风格变了,一问,果然是新模型。

tech v2ex.com 2026-04-22 17:15:49+08:00

Deepseek于2026年4月22日上线的新模型api

api换成app的模型了,大的可能真的要来力,今天用api时候发现的提示词已经改了 11 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-22 17:14:11+08:00

关于新DeepSeek api模型的上下文测试

DeepSeek开放平台疑似更新了后端的模型,模型自认知上下文均为1m。体感类似于web端先前更新的。 但是实际测试中,上下文只有在200k以下才能正常使用,超过200k会报600s超时。 超时报错:{“error”:{“message”:“We were unable to s

tech linux.do 2026-04-22 17:09:20+08:00

[分享发现] DeepSeek API 更新新模型了?

用的时候发现回答风格变了,一问,果然是新模型。

tech v2ex.com 2026-04-22 17:04:41+08:00

DeepSeek API 更新百万 Token 上下文,看齐 App 及网页版

IT之家 4 月 22 日消息,今日有大量用户反馈称,DeepSeek 官方 API 已经更新到了与客户端及网页版相同的 1M tokens 上下文版本(似乎是此前曝光的 DeepSeek V4 Lite),比之前的 128k 上下文更长。 与此同时,最新 DeepSeek 的知

tech www.ithome.com 2026-04-22 16:48:24+08:00

用佬友的大海捞针测试了一下现在的Deepseek API

使用的是这里面的测试文档: ⧉ 模型【大海捞针】测试!(含附件)这次肯定没有被预训练过!! 搞七捻三 (\ _ /) ( ・-・) /っ 上个贴说著名的小说可能被预训练过了 所以,这次来个肯定没有被预训练的数据集: 大海捞针测试《请不要把互联网上的戾气带来这里!》.txt (49

tech linux.do 2026-04-22 16:15:03+08:00

DeepSeek API 疑似正在替换 1M 上下文版本

刚才测试了一下,突然回答自己有 1M 上下文,并且和官网一样说能吃下《三体》这么多的内容。 其他信息尚不明确,请佬友做更多测试。 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-22 16:02:26+08:00

Deepseek官方API正在更换为新模型

之前还以为是我幻觉,跑了一下自我介绍前端,和以前风格完全不一样。 以前风格参考: 【深夜无聊图一乐】跑了国内外目前几乎所有主流大模型的自我介绍页面(Claude 4.7 好惊艳) 搞七捻三 缺少GLM5.1,所以没测试。 测试环境统一为Vscode Lim-Code编程插件(除了

tech linux.do 2026-04-22 15:47:05+08:00

Deepseek API模型已切换

从 DeepSeek API模型发生变化 继续讨论: 世界知识已经与官网一致,只是部分问题略有差别 同问题专家模式如下: 专家模式直觉上更对,兴许是概率() 这是之前Deepseek V3.2-Thinking的回答,特地做了对比: 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:34:09+08:00

DeepSeek API模型发生变化

API模型已切换为1M上下文,25.5知识库的版本的版本 TPS很高,目测为v4lite,与官网一致 32 个帖子 - 27 位参与者 阅读完整话题

tech linux.do 2026-04-22 15:26:32+08:00

deepseek v4 什么时候会出呢?

之前不是看到新闻gemini 、gpt、 claude code三家合作抵制蒸馏嘛? 难不成deepseek 受影响了? 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-22 09:25:28+08:00

多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech www.v2ex.com 2026-04-22 00:39:31+08:00

多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech www.v2ex.com 2026-04-21 23:39:31+08:00

多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech www.v2ex.com 2026-04-21 22:39:31+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 22:39:31+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 22:09:53+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:59:13+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:45:06+08:00

阿里云 Token Plan 来了

文本生成:qwen3.6-plus、glm-5、MiniMax-M2.5、deepseek-v3.2 图像生成:qwen-image-2.0、qwen-image-2.0-pro、wan2.7-image、wan2.7-image-pro 19 个帖子 - 12 位参与者 阅读完

tech linux.do 2026-04-21 19:38:33+08:00

[Local LLM] 多台 GPU 之间怎么组网互联?

比如要部署 deepseek 满血版,总不能用一台跑对吧,那比如有三台 SXM 版的 8 卡 A100 的 GPU 服务器 好奇问一下,想学习学习

tech v2ex.com 2026-04-21 19:30:33+08:00