deepseek v4 flash翻译挺不错的
尝试用ai优化过的calibre translator插件接入,发现翻译速度非常快,而且非常好的遵循提示词,以往会出现行数不一致的情况,deepseek v4 flash都不会有。 可以猛猛瞪了! 之前在网页测试感觉现在ai翻译都大差不差,不过我需要的专有名词保留以及尽量说人话的
as - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1290 篇相关文章 · 第 44 / 65 页
尝试用ai优化过的calibre translator插件接入,发现翻译速度非常快,而且非常好的遵循提示词,以往会出现行数不一致的情况,deepseek v4 flash都不会有。 可以猛猛瞪了! 之前在网页测试感觉现在ai翻译都大差不差,不过我需要的专有名词保留以及尽量说人话的
求问各位佬,DeepSeek-V4-Pro的编码能力和GLM-5.1谁更强? DeepSeek-V4-Flash和DeepSeek-V4-Pro的能力又差多少呢? 4 个帖子 - 4 位参与者 阅读完整话题
⎿ Please run /login · API Error: 403 {“RequestId”:“1-69eac8f6-16ccc3-886f3524 7745”,“Code”:“AccessDenied”,“Message”:“Current user is in debt
大家都是在哪用的dsv4编码呀 trae和cursor都没适配吧?“error”:{“message”:"The reasoning_content in the thinking mode must be passed back to the API. } 3 个帖子
我这个 d 吹感觉超级舒服
我平常是在codexapp里使用的自己的cpa服务器,之前5.4时期就有配过。 当时看到有佬友说config.toml中加入 service_tier = "fast" 然后在cpa中的payload中加入如下配置就行 不知道现在是否还能这样配置 这是我目前的
我这个 d 吹感觉超级舒服
我这个 d 吹感觉超级舒服
我这个 d 吹感觉超级舒服
刚刚站里有开公益站的佬新上线了ds v4。并发布了cdk,但是加密的所以我就丢到官方渠道的ds v4pro上,思考了足足900秒才给出结果。。。。 是因为用的人太多导致的吗? gpt-5.4倒是很快 grok-4.3 beta 思考了22s 8 个帖子 - 7 位参与者 阅读完整
We’re releasing GPT‑5.5, our smartest and most intuitive to use model yet, and the next step toward a new way of getting work done on a comp
2 个帖子 - 2 位参与者 阅读完整话题
提示词 (点击了解更多详细信息) Pro3.7s完成任务 而Flash一直在猜测,思考了100多s,我就懒得继续了,直接终止对话 其实是怕本来不多的余额没了 GPT那边的回答见 GPT 5.5 / Pro 你这让我怎么相信你?16+2=24 你怎么敢说的?做这个题你还不如阉割版o
关于 Atlas Cloud Atlas Cloud 是一家快速发展的 AI 基础设施初创公司,专注于模型即服务( MaaS ) 和 基础设施即服务( IaaS )。 公司总部位于纽约,在硅谷、北京和加拿大卡尔加里设有团队,为全球客户提供 大语言模型( LLM )训练、微调与推理
来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题
我手上有些 SAS 碟一直没有用。加上之前是用 HPE SmartArry P420 组成 RAID 6 ,这些阵列的 host 机器坏掉了,一直没有修复。 这次想买入那些被淘汰的服务器,一个来做 JBOD ,外接出 SFF 接口,再接入一台二手的服务器的 RAID 卡,拿来组成
官方给的V4-Flash和Pro对比V3.2的表格如下: 在编程性能上面好像没怎么有提升,BigCodeBench是V3.2领先,HumanEval倒是V4 Pro领先,不知道实际使用的效果如何 1 个帖子 - 1 位参与者 阅读完整话题
论坛上有佬友公益站上线deepseekv4-pro,用base64压缩cdk发放链接,我就试着用deepseek新模型解下码,结果一般,最终还是暂停掉了 这是gpt5.5-thinking的,很快就出来了 2 个帖子 - 2 位参与者 阅读完整话题
flash比原本的chat便宜,但是它应该就是这几天时不时偷偷更新的那个lite pro的强度想必是ok的,但价格更是蹭蹭涨 3 个帖子 - 2 位参与者 阅读完整话题
openclaw 培养了我们使用 agent 的习惯后,我觉得 V4 的 flash 版本将会是绝杀,输入百万 token才 1 块,命中缓存才 0.2,输出才 2 块。 openclaw 那些查询 memory,查询 skills 的操作将变得毫无负担,这可能又一次革了那些 t