DeepSeek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn

DeepSeek - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第6页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1306 篇相关文章 · 第 6 / 66 页

这个deepseek-tui作者好抽象,deepseek这个翻译...

5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-01 23:10:45+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 22:55:06+08:00

[程序员] 联通云 coding plan 的 deepseek v4 系列被强行关闭思考模式了,用户无法强行开启

用了一堆的参数覆盖,没有任何的思考输出: { "reasoning_effort": "max", "reasoning": "true", "enable_thinking":

tech v2ex.com 2026-05-01 22:49:24+08:00

[程序员] 联通云 coding plan 的 deepseek v4 系列被强行关闭思考模式了,用户无法强行开启

用了一堆的参数覆盖,没有任何的思考输出: { "reasoning_effort": "max", "reasoning": "true", "enable_thinking":

tech v2ex.com 2026-05-01 22:38:36+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 22:03:32+08:00

六大国产大模型全球热度google trend

1. Kimi 在国外更火 2. Deepseek在中国更火热,特别是V4的发布 3. 剩下四家都是小透明 平均下来,mimo和glm几乎差不多,不可思议。 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-01 21:45:47+08:00

又重度用了几天,DeepSeekV4的幻觉问题还是要注意

使用环境:deepseek官方接口+最新版OpenCode DeepSeekV4 pro-max(以下简称v4)的上下文能力,阅读能力,简单的推理理解能力毋庸置疑。但是最近重度用了一阵子发现,就算和kimi比,v4还是存在幻觉问题。 举个例子,我让agent去读取我的大论文并扩写

tech linux.do 2026-05-01 20:49:06+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 20:03:32+08:00

在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能?

在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token

tech linux.do 2026-05-01 20:03:10+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 19:58:42+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 19:25:44+08:00

deepseek-v4-pro在cc中开启了max,但显示high effort正常吗

如图,在配置文件里设置了思考力度为max "CLAUDE_CODE_EFFORT_LEVEL": "max" 但显示effort是high,手动切换为max依然显示是high,有没有用过的佬看看正常就是这样的吗 12 个帖子 - 3 位参与

tech linux.do 2026-05-01 19:20:55+08:00

佬友们有无DeepSeek低价渠道

RT,主要就3个要求: 必须是真的DeepSeek-V4-Flash 必须能思考 并发不要太低 用量有点大的离谱,保守估计是以亿Token为单位,所以用官方正价不太现实。纯跑数据清洗抽取的,所以不需要工具调用,逆向也行。 因为并发可能不低,也不太好意思去占用别人家公益站,有无推荐

tech linux.do 2026-05-01 19:11:17+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 18:57:01+08:00

BlazeAI 的 DeepSeek v4 Flash 和 Pro 同倍率?

OAI 的 Pro Plus 都暴毙了 ZP 的 Plan 也用完贤者了 翻找还有哪些能用的发现 Blaze 上新了不少模型 倍率感人,不知是否满血 兴冲冲接入配置 推荐用法 (点击了解更多详细信息) 发现他们家疑似非中转平台而是自己部署的,速度慢的惊人 啊?你说怎么没有看到 v

tech linux.do 2026-05-01 18:14:54+08:00

第三方deepseek接入cc运行一会就报错400

有没有佬遇到过这种问题,知道如何解决的 { “env”: { “ANTHROPIC_BASE_URL”: “ https://ai.centos.hk ”, “ANTHROPIC_MODEL”: “deepseek-v4-pro”, “ANTHROPIC_DEFAULT_HAIK

tech linux.do 2026-05-01 17:50:43+08:00

[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的

如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常

tech v2ex.com 2026-05-01 17:31:20+08:00

为什么现在没有国内ai的逆向了

无论是gpt/gemini/grok 逆向 中转 层出不穷,但是国内deepseek等却没有活跃的逆向项目了 14 个帖子 - 14 位参与者 阅读完整话题

tech linux.do 2026-05-01 17:25:29+08:00

便宜没好货atomcode问了3个问题负载过高了

本来想搞个超算中心的20包月,冒出个atomcode,白嫖一个月,有deepseek-v4-flash(之前好像有minimax2.7,更新后没了)。 今天闲着没事搞一个小玩意,第一次提示词,出了一版,算顺利,能直接用, 然后让加上图片、导出功能,之后报了个错,再问就负载过高了,

tech linux.do 2026-05-01 16:39:00+08:00

opencode接入deepseek报错

The reasoning_content in the thinking mode must be passed back to the API. 我用的opencode的/connect链接的但是运行一半报错了请问有啥解决方法吗? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-05-01 15:55:16+08:00