flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn

flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 193 篇相关文章 · 第 2 / 10 页

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-03 02:34:07+08:00

“gemini3.0flash”坐稳小文字排行榜第一:疑似谷歌更新了其指向模型

5.2 全局文字榜在16名 超越比他更新的模型,比如glm5.1… 用户可用文字榜(没有贵模型)目前排第一 似乎保持很久了 应该没掉过前三 (标题骗你的,这个就是小文字榜w) 网友反映能力「已接近3.1p」 相关视频: https://upos-sz-mirrorcos.bili

tech linux.do 2026-05-02 21:26:54+08:00

github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps

https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod

tech www.v2ex.com 2026-05-02 21:05:12+08:00

Google 疑似在 Arena(竞技场) 秘密测试新版 Gemini 3.1 Flash:性能跃升,迫近Gemini 3.1 Pro

LMArena发现,一个标注为 Gemini 3 Flash 的模型出现频率异常增高。根据实际测试反馈,该模型的性能表现远超当前版本,甚至直逼 Gemini 3.1 Pro。 有测试者表示,在最近的 7 次抽卡中,该模型出现了 6 次。这种行为与此前 DeepSeek 测试 V4

tech linux.do 2026-05-02 20:37:49+08:00

Gpt 5.5甚至不如Gemini 3 flash了

Gpt 5.5 high甚至不如Gemini 3 flash,每次回答都有错误,这是什么情况,这么弱了吗 47 个帖子 - 39 位参与者 阅读完整话题

tech linux.do 2026-05-02 00:47:44+08:00

CC 里面接入 V 4可以做到用 Pro 思考调度分解任务,然后用 Flash 执行吗

有没有什么方法可以做到 现在调用 API 用量太大的话,还是有点贵。要是能实现这个的话那价格就相当低了 7 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-05-01 21:24:03+08:00

在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能?

在沉浸式翻译插件中使用 API 形式调用 DeepSeek V4 Flash 模型时,如何设置关闭该模型的 Thinking 功能? 另外,DeepSeek-V4-Flash 模型的 Thinking 功能如果不显式关闭的话,是否会默认启用,从而导致在进行翻译时多消耗 Token

tech linux.do 2026-05-01 20:03:10+08:00

佬友们有无DeepSeek低价渠道

RT,主要就3个要求: 必须是真的DeepSeek-V4-Flash 必须能思考 并发不要太低 用量有点大的离谱,保守估计是以亿Token为单位,所以用官方正价不太现实。纯跑数据清洗抽取的,所以不需要工具调用,逆向也行。 因为并发可能不低,也不太好意思去占用别人家公益站,有无推荐

tech linux.do 2026-05-01 19:11:17+08:00

BlazeAI 的 DeepSeek v4 Flash 和 Pro 同倍率?

OAI 的 Pro Plus 都暴毙了 ZP 的 Plan 也用完贤者了 翻找还有哪些能用的发现 Blaze 上新了不少模型 倍率感人,不知是否满血 兴冲冲接入配置 推荐用法 (点击了解更多详细信息) 发现他们家疑似非中转平台而是自己部署的,速度慢的惊人 啊?你说怎么没有看到 v

tech linux.do 2026-05-01 18:14:54+08:00

便宜没好货atomcode问了3个问题负载过高了

本来想搞个超算中心的20包月,冒出个atomcode,白嫖一个月,有deepseek-v4-flash(之前好像有minimax2.7,更新后没了)。 今天闲着没事搞一个小玩意,第一次提示词,出了一版,算顺利,能直接用, 然后让加上图片、导出功能,之后报了个错,再问就负载过高了,

tech linux.do 2026-05-01 16:39:00+08:00

ollama不再允许白嫖gemini-3-flash

报错 [status 403] this model requires a subscription, upgrade for access: 登录 最好的gemini-3-flash白嫖渠道已死 9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:14:05+08:00

一个简单的世界知识问题把DS搞到了无限循环,gemini flash则直接给出了答案

在看视频的时候被推送到了科普BB(n)的视频,然后突发奇想问了这么一个问题: `1RB0LD_1RC0RF_1LC1LA_0LE1RZ_1LF0RB_0RC0RE` 这串字符是什么意思?如果答案是问题或算式,则一并给出解答 想看看AI会怎么答,然后gemini 3.1 flash

tech linux.do 2026-05-01 01:42:08+08:00

DeepSeek的新视觉模型基于新的视觉框架,基底模型是v4 flash

DeepSeek联合北京大学、清华大学发布论文《Thinking with Visual Primitives》,提出一种新的多模态推理框架。 该框架的核心做法是将空间标记——坐标点和边界框——提升为模型思维链中的“最小思考单元”,在推理过程中直接交织使用,使模型在"思

tech linux.do 2026-04-30 20:54:57+08:00

沉浸式翻译搭配deepseek v4 flash ,速度无敌了,秒翻

速度快而且非常便宜,梁圣继续给我冲,期待多模态的版本开放,如果后训练再侧重coding领域就更舒服了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-30 16:14:35+08:00

claude code接入gemini-3-flash-preview问题

各位佬,claude code使用cc-switch接入gemini-3-flash-preview模型后,在cli中使用正常问答没问题,但是需要写代码读文件的时候就会报错无效的参数,这是啥原因? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-30 10:35:28+08:00

ASUSTOR 预热 Flashstor Gen3 全闪 NAS,用上 8640U

IT之家 4 月 30 日消息,ASUSTOR(华芸 / 爱速特)昨日发布 COMPUTEX 2026 台北国际电脑展预热,宣布 将推出新一代全闪存 NAS 产品 Flashstor Gen3 (FS8) 。 该系列总共包括 2 款产品,分别是 Flashstor 6 Gen3

tech www.ithome.com 2026-04-30 09:37:08+08:00

DeepSeek V4实测-价格

在一个大型仓库中 使用 opencode 对 pro 以及 flash 分别让其根据代码库分析三个问题。pro 回答更好,更符合人的预期。flash 稍差一些,但是基本也能够分析到,只是结论总结的不如 pro,但是速度更快。 本次测试主要关注的价格: 价格方面 6 轮问答 多次检

tech linux.do 2026-04-29 21:00:48+08:00

deepseek v4 逆向出奇的好用

利用 v4 flash 逆向一个网站的 加密下载接口,一顿操作猛如虎,工具调用丝滑,几十轮的抓包没有一次报错,仅仅不到五分钟完全破解登录 POW 密钥和隐藏下载接口。 成本 2 毛 5。 更新一下最终成果: 虽然 gpt 也可以完成,但是他贵呀! 15 个帖子 - 7 位参与者

tech linux.do 2026-04-29 18:21:40+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

ithome.com 科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文 - IT之家 星火 X2-Flash 采用 MoE 架构,总参数 30B,最大支持 256K 上下文,宣称在智能体、代码等能力上实现了大幅提升,基于华为昇腾

tech linux.do 2026-04-29 15:32:00+08:00

科大讯飞星火 X2-Flash 模型发布:基于华为昇腾 910B 集群训练,最大 256K 上下文

IT之家 4 月 29 日消息,科大讯飞星火 X2-Flash 模型今日正式发布,同步开放 API。 星火 X2-Flash 采用 MoE 架构, 总参数 30B,最大支持 256K 上下文 ,宣称在智能体、代码等能力上实现了大幅提升,基于 华为昇腾 910B 集群 训练完成。

tech www.ithome.com 2026-04-29 15:09:05+08:00