[问与答] 除了沉浸式翻译,有什么别的浏览器字幕翻译扩展能自接 api 的
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
什么 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第20页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 3476 篇相关文章 · 第 20 / 174 页
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
佬们有什么好的逆向js网页的mcp推荐吗,今天用js reverse给我用红温了,用mimo,ds,gpt三个都没有用明白这个mcp,一直跳出来新的页面 ,太奇怪了,可能是我的手法不行吧,还有没有不那么吃操作的mcp呢 7 个帖子 - 7 位参与者 阅读完整话题
Codexmobile的最佳方案是什么各位佬?期待官方早日做一个。 10 个帖子 - 7 位参与者 阅读完整话题
之前直接导入 clash 客户端就能用,现在怎么都是自己的客户端,问题是不是那么好用啊?
怎么去修改 omx 的提交记录规范。现在写一长串,全都是 ai 痕迹 7 个帖子 - 3 位参与者 阅读完整话题
之前直接导入 clash 客户端就能用,现在怎么都是自己的客户端,问题是不是那么好用啊?
如题 目前在用沉浸式翻译,开双语字幕,接的官方 api 的 deepseek-v4-flash 。 大部分情况都还好,但是一到翻译长句,原文译文就很割裂。 比如: 原文在字幕里分了三段显示,译文就只显示在前两段,第二段译文会带上第三段的译文,导致第三段显示时就只有原文。也不是经常
之前直接导入 clash 客户端就能用,现在怎么都是自己的客户端,问题是不是那么好用啊?
之前直接导入 clash 客户端就能用,现在怎么都是自己的客户端,问题是不是那么好用啊?
有没有什么方法可以做到 现在调用 API 用量太大的话,还是有点贵。要是能实现这个的话那价格就相当低了 7 个帖子 - 5 位参与者 阅读完整话题
在 iOS 上,大家公认的方案是 nPlayer 看视频,ComicShare 看漫画。它们很出色,我也曾是忠实用户。但作为一名开发者,我发现这两个“重量级”选手的共同痛点: 缓存空间的无形吞噬: 它们为了追求所谓的流畅预览,往往会占用大量的闪存做缓存。对于存储空间告急的 iOS
感觉codex 的token消耗变快了,一打开发现开了1.5倍速 下午额度用完了临时去用了个中转买了6.6刀的用量用完了 晚上5小时的额度现在也要用完了 还有什么拼车的渠道吗? 3 个帖子 - 2 位参与者 阅读完整话题
rt,最近在摸各种需要编译到 native 的语言,什么 Rust,CUDA,C++ 之类的 整个机器常年是这种状态: 很明显的就是编译的时候要等超级久 Rust 和 CUDA 还好,项目比较小,编译一般两三分钟就可以开始测了 C++这边简直了,用到的库有一大坨 template
求推荐 推荐有没有好用一些的国产模型GPT这几天风控太严重了 11 个帖子 - 9 位参与者 阅读完整话题
目前感觉Claude Opus4.7实在太消耗token了,一个20x感觉不要半周都要用完.. 又不敢再开个切换着用. 看到有大佬反馈GPT比较适合coding, 然后计划类用claude, 就想把他们俩结合在一起, 问题是如何结合合理呢? 谁做主呢?用什么方式驱动另一方做事呢?
之前直接导入 clash 客户端就能用,现在怎么都是自己的客户端,问题是不是那么好用啊?
在 iOS 上,大家公认的方案是 nPlayer 看视频,ComicShare 看漫画。它们很出色,我也曾是忠实用户。但作为一名开发者,我发现这两个“重量级”选手的共同痛点: 缓存空间的无形吞噬: 它们为了追求所谓的流畅预览,往往会占用大量的闪存做缓存。对于存储空间告急的 iOS