flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 192 篇相关文章 · 第 1 / 10 页

deepseek-v4-flash/mimo-v2.5的js俄罗斯方块游戏对比

使用自己开发的 AQBot桌面客户端 来小测deepseek/mino的前端能力,都是用的默认的推理程度,然后搭配一样的skills,一样的prompt: Deepseek-v4-flash 最终Agent生成结果: Mimo-v2.5 最终Agent生成结果: 觉得谁更胜一筹~

tech linux.do 2026-05-04 10:44:09+08:00

目前aistudio免费层级key可用模型有哪些?每日额度多少

rt 有十几个号,想玩3flash、flash lite和嵌入模型,一个免费key一天大概能用多少次? 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-03 23:26:21+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 19:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 18:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:24:52+08:00

deepseek 的快速和专家模式

请问各位佬,deepseek 的快速模式和专家模式是背后对应的模型不同吗?快速是 v4flash,专家是 v4pro? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-03 16:14:18+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:10:34+08:00

用Claude code做文字类任务不做编程类任务,DeepSeek Pro好还是Flash好?

我用Claude code做一些文字类任务,根据大家的反馈似乎Flash思考等级拉到Max效果与Pro差不多,在此求最近常用DeepSeek的大佬分享分享经验。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-03 15:52:49+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:32:55+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:17:40+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:47:07+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

分享一下自用的longcat 美团家的模型 可以coding可以对话 openai和claude都支持

可用模型: LongCat-Flash-Lite 已使用:0 / 50,000,000 LongCat-Flash-Chat LongCat-Flash-Thinking-2601 LongCat-Flash-Omni-2603 已使用:50 / 5,000,000 这个是key

tech linux.do 2026-05-03 11:47:45+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 06:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 06:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 05:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 04:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 02:34:07+08:00