flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 194 篇相关文章 · 第 1 / 10 页

实测维普论文降AI率攻略

最近搞论文降AI率从44到现在的12,给大家分享一个站内佬之前分享的。用的是aistudio的2.5flash,(2.5pro用两下就限额了,如果有渠道的佬可以试试) https://linux.do/t/topic/620470?u=kakazeoo ,这个是佬开源的提示词,发

tech linux.do 2026-05-04 15:31:31+08:00

免费领取Token Plan 商汤科技

商汤科技内测Token Plan,注册即可领取。可以使用DeepSeek v4 Flash 公测期完全免费开放,各模型单独计量,具体请参照文档说明。(同账户所有 Key 共享)公测期间免费畅享Token Plan,各模型 5 小时窗口独立计数,账户下所有 Key 共享配额。 地址

tech linux.do 2026-05-04 11:23:48+08:00

deepseek-v4-flash/mimo-v2.5的js俄罗斯方块游戏对比

使用自己开发的 AQBot桌面客户端 来小测deepseek/mino的前端能力,都是用的默认的推理程度,然后搭配一样的skills,一样的prompt: Deepseek-v4-flash 最终Agent生成结果: Mimo-v2.5 最终Agent生成结果: 觉得谁更胜一筹~

tech linux.do 2026-05-04 10:44:09+08:00

目前aistudio免费层级key可用模型有哪些?每日额度多少

rt 有十几个号,想玩3flash、flash lite和嵌入模型,一个免费key一天大概能用多少次? 7 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-03 23:26:21+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 19:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 18:27:09+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:24:52+08:00

deepseek 的快速和专家模式

请问各位佬,deepseek 的快速模式和专家模式是背后对应的模型不同吗?快速是 v4flash,专家是 v4pro? 5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-03 16:14:18+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 16:10:34+08:00

用Claude code做文字类任务不做编程类任务,DeepSeek Pro好还是Flash好?

我用Claude code做一些文字类任务,根据大家的反馈似乎Flash思考等级拉到Max效果与Pro差不多,在此求最近常用DeepSeek的大佬分享分享经验。 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-03 15:52:49+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:32:55+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 15:17:40+08:00

[DeepSeek] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:47:07+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:36:38+08:00

deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech www.v2ex.com 2026-05-03 14:16:24+08:00

[程序员] deepseek-v4-flash 好像没大家说的这么智能啊?

感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林

tech v2ex.com 2026-05-03 14:16:24+08:00

分享一下自用的longcat 美团家的模型 可以coding可以对话 openai和claude都支持

可用模型: LongCat-Flash-Lite 已使用:0 / 50,000,000 LongCat-Flash-Chat LongCat-Flash-Thinking-2601 LongCat-Flash-Omni-2603 已使用:50 / 5,000,000 这个是key

tech linux.do 2026-05-03 11:47:45+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 06:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 06:06:17+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 05:06:17+08:00