as - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn

as - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第44页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1290 篇相关文章 · 第 44 / 65 页

deepseek v4 flash翻译挺不错的

尝试用ai优化过的calibre translator插件接入,发现翻译速度非常快,而且非常好的遵循提示词,以往会出现行数不一致的情况,deepseek v4 flash都不会有。 可以猛猛瞪了! 之前在网页测试感觉现在ai翻译都大差不差,不过我需要的专有名词保留以及尽量说人话的

tech linux.do 2026-04-24 13:51:14+08:00

DeepSeekV4的编码能力和GLM5.1谁更强?

求问各位佬,DeepSeek-V4-Pro的编码能力和GLM-5.1谁更强? DeepSeek-V4-Flash和DeepSeek-V4-Pro的能力又差多少呢? 4 个帖子 - 4 位参与者 阅读完整话题

tech linux.do 2026-04-24 13:50:33+08:00

调用claudecode报错,这是没钱了吗?Current user is in debt.

⎿ Please run /login · API Error: 403 {“RequestId”:“1-69eac8f6-16ccc3-886f3524 7745”,“Code”:“AccessDenied”,“Message”:“Current user is in debt

tech linux.do 2026-04-24 13:40:35+08:00

deepseekv4编码

大家都是在哪用的dsv4编码呀 trae和cursor都没适配吧?“error”:{“message”:"The reasoning_content in the thinking mode must be passed back to the API. } 3 个帖子

tech linux.do 2026-04-24 13:24:54+08:00

[问与答] deepseek v4 可以的, 即使是 flash 也比原来的 v3.2 在编码上强太多

我这个 d 吹感觉超级舒服

tech v2ex.com 2026-04-24 13:17:05+08:00

cpa反代codex 5.5怎么开启fast模式

我平常是在codexapp里使用的自己的cpa服务器,之前5.4时期就有配过。 当时看到有佬友说config.toml中加入 service_tier = "fast" 然后在cpa中的payload中加入如下配置就行 不知道现在是否还能这样配置 这是我目前的

tech linux.do 2026-04-24 13:15:06+08:00

[问与答] deepseek v4 可以的, 即使是 flash 也比原来的 v3.2 在编码上强太多

我这个 d 吹感觉超级舒服

tech v2ex.com 2026-04-24 13:09:13+08:00

[问与答] deepseek v4 可以的, 即使是 flash 也比原来的 v3.2 在编码上强太多

我这个 d 吹感觉超级舒服

tech v2ex.com 2026-04-24 12:41:15+08:00

[问与答] deepseek v4 可以的, 即使是 flash 也比原来的 v3.2 在编码上强太多

我这个 d 吹感觉超级舒服

tech v2ex.com 2026-04-24 12:41:15+08:00

deepseek v4pro解 base64加密

刚刚站里有开公益站的佬新上线了ds v4。并发布了cdk,但是加密的所以我就丢到官方渠道的ds v4pro上,思考了足足900秒才给出结果。。。。 是因为用的人太多导致的吗? gpt-5.4倒是很快 grok-4.3 beta 思考了22s 8 个帖子 - 7 位参与者 阅读完整

tech linux.do 2026-04-24 12:18:25+08:00

无人在意的角落,gpt5.5上主页了

We’re releasing GPT‑5.5, our smartest and most intuitive to use model yet, and the next step toward a new way of getting work done on a comp

tech linux.do 2026-04-24 12:17:59+08:00

Atlas 950超节点的算力与集群规模

2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 12:08:31+08:00

Deepseek-V4-Pro & Flash 24点测试

提示词 (点击了解更多详细信息) Pro3.7s完成任务 而Flash一直在猜测,思考了100多s,我就懒得继续了,直接终止对话 其实是怕本来不多的余额没了 GPT那边的回答见 GPT 5.5 / Pro 你这让我怎么相信你?16+2=24 你怎么敢说的?做这个题你还不如阉割版o

tech linux.do 2026-04-24 11:58:50+08:00

[酷工作] [AI 公司招聘] AI 方向工程师(北京、远程不限)

关于 Atlas Cloud Atlas Cloud 是一家快速发展的 AI 基础设施初创公司,专注于模型即服务( MaaS ) 和 基础设施即服务( IaaS )。 公司总部位于纽约,在硅谷、北京和加拿大卡尔加里设有团队,为全球客户提供 大语言模型( LLM )训练、微调与推理

tech v2ex.com 2026-04-24 11:52:50+08:00

DeepseekV4Pro的私有Coding测试集评测结果

来自知乎toyama佬 网站: LLM Benchmark Dashboard 附:其他未测完的国模 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:52:40+08:00

二手服务器组 RAID 与 JBOD 方案,山寨 JBOD 是否可用

我手上有些 SAS 碟一直没有用。加上之前是用 HPE SmartArry P420 组成 RAID 6 ,这些阵列的 host 机器坏掉了,一直没有修复。 这次想买入那些被淘汰的服务器,一个来做 JBOD ,外接出 SFF 接口,再接入一台二手的服务器的 RAID 卡,拿来组成

tech www.v2ex.com 2026-04-24 11:47:40+08:00

DeepSeek V4就这么悄悄地端了上来

官方给的V4-Flash和Pro对比V3.2的表格如下: 在编程性能上面好像没怎么有提升,BigCodeBench是V3.2领先,HumanEval倒是V4 Pro领先,不知道实际使用的效果如何 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:47:22+08:00

deepseek-v4pro测试(初体验不太好)

论坛上有佬友公益站上线deepseekv4-pro,用base64压缩cdk发放链接,我就试着用deepseek新模型解下码,结果一般,最终还是暂停掉了 这是gpt5.5-thinking的,很快就出来了 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:46:29+08:00

好消息,V4发起了进攻,但是……

flash比原本的chat便宜,但是它应该就是这几天时不时偷偷更新的那个lite pro的强度想必是ok的,但价格更是蹭蹭涨 3 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-24 11:42:55+08:00

openclaw 时代,我觉得 V4-flash 才是绝杀

openclaw 培养了我们使用 agent 的习惯后,我觉得 V4 的 flash 版本将会是绝杀,输入百万 token才 1 块,命中缓存才 0.2,输出才 2 块。 openclaw 那些查询 memory,查询 skills 的操作将变得毫无负担,这可能又一次革了那些 t

tech linux.do 2026-04-24 11:39:46+08:00