[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
v4 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第5页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1022 篇相关文章 · 第 5 / 52 页
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
如图,在配置文件里设置了思考力度为max "CLAUDE_CODE_EFFORT_LEVEL": "max" 但显示effort是high,手动切换为max依然显示是high,有没有用过的佬看看正常就是这样的吗 12 个帖子 - 3 位参与
RT,主要就3个要求: 必须是真的DeepSeek-V4-Flash 必须能思考 并发不要太低 用量有点大的离谱,保守估计是以亿Token为单位,所以用官方正价不太现实。纯跑数据清洗抽取的,所以不需要工具调用,逆向也行。 因为并发可能不低,也不太好意思去占用别人家公益站,有无推荐
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
OAI 的 Pro Plus 都暴毙了 ZP 的 Plan 也用完贤者了 翻找还有哪些能用的发现 Blaze 上新了不少模型 倍率感人,不知是否满血 兴冲冲接入配置 推荐用法 (点击了解更多详细信息) 发现他们家疑似非中转平台而是自己部署的,速度慢的惊人 啊?你说怎么没有看到 v
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
本来想搞个超算中心的20包月,冒出个atomcode,白嫖一个月,有deepseek-v4-flash(之前好像有minimax2.7,更新后没了)。 今天闲着没事搞一个小玩意,第一次提示词,出了一版,算顺利,能直接用, 然后让加上图片、导出功能,之后报了个错,再问就负载过高了,
佬友们好,本人是通信工程大一学生,目前用的ChatGPT Plus + 京东云Coding Plan ,感觉京东云的Coding Plan 性价比不是很高,也没有GLM 5.1或者 Deepseek V 4,在考虑要不要把京东云的Coding Plan 换成 Deepseek 官
DeepSeek V4发布已经一周时间了,期间三次降价或者优惠,还发了视觉大模型,本代大模型布局基本完成。相比去年的DeepSeek R1,这次的DeepSeek V4发布之后争议更多,主要是没有之前R1那种技术上领先的感觉了,各种AI榜单上实际上也落后于美国公司开发的AI大模型
好奇对比效果,这俩现在的定位是差不多的吧,都是opus4.7和gpt5.5外的次优选择 7 个帖子 - 7 位参与者 阅读完整话题
可爱的DeepSeek娘终于摘下眼罩了! 前几期: 听到DeepSeek V4发布的AI娘们的反应是……(AI娘们的互动小剧场 一) 搞七捻三 [generated (78)] gpt image 2还是太好用了() AI娘们的互动小剧场(二)~ 搞七捻三 [generated1
之前一直用antigravity和codex,今天充了deepseek想试一下,结果显示不能识别图片 13 个帖子 - 10 位参与者 阅读完整话题
如图:我没用过官方calude模型,不知道是不是跟我通过使用deepseek-cursor-proxy和ccswitch 来调用deepseekV4有关系 有的时候还会遇到:当前工具调用通道出现了持续性问题——所有工具调用(Bash/Write/Edit/PowerShell)都
现在主工作流就是glm5.1,但是上下文太小了,经常压缩,想看看dsv4pm怎么样 18 个帖子 - 9 位参与者 阅读完整话题
如下图,让 Claude code 从 开源项目 screenshot-to-code 中,理解代码逻辑,制作了 /screenshot-to-code 技能。(包含出图,以及截图与设计图对比,矫正一次) 其中 gemini 使用 gemini-cli, gpt-5.5 使用 c
接了个2api,调了半天 toolcall 使能还以为是自己瞎改 ds2api 导致的奇妙问题,结果上号一看气笑了,模型在自己意淫 toolcall 结果 10 个帖子 - 7 位参与者 阅读完整话题
如图所示,某站上的截图,有大佬去试试咸淡不?我试了好像可以官网都可以问问题。不涉及推广。网址是这个:base64:aHR0cHM6Ly9rbm94LmNoYXQ= 1 个帖子 - 1 位参与者 阅读完整话题