flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn

flash - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第3页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 193 篇相关文章 · 第 3 / 10 页

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 12:04:14+08:00

[问与答] [讨论] 最近出来的 deepseek v4 flash 感觉价格上很适合,如果想用作个人生活助手,请问大家有什么比较好的使用场景吗?

之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,

tech v2ex.com 2026-04-29 11:52:39+08:00

[问与答] [讨论] 最近出来的 deepseek v4 flash 感觉价格上很适合,如果想用作个人生活助手,请问大家有什么比较好的使用场景吗?

之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,

tech v2ex.com 2026-04-29 11:52:39+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 11:14:08+08:00

[问与答] [讨论] 最近出来的 deepseek v4 flash 感觉价格上很适合,如果想用作个人生活助手,请问大家有什么比较好的使用场景吗?

之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,

tech v2ex.com 2026-04-29 11:09:17+08:00

[问与答] [讨论] 最近出来的 deepseek v4 flash 感觉价格上很适合,如果想用作个人生活助手,请问大家有什么比较好的使用场景吗?

之前一直没有购买过相关的 api , 但今天看到个帖子说:使用 openclaw + deepseek v4 flash 跑 13 个小时需要调度的任务只花了不到 1 块钱。 感觉这个价格就很亲民了, 就想订阅一下,用来做个人助手。 昨天和朋友聊天就说到一点“很多时候是没有观点,

tech v2ex.com 2026-04-29 10:57:24+08:00

只反代反重力的Gemini Flash会被封吗

佬们,我之前反代反重力Claude用被封了很多号.不敢用了.最近需要两个有判断力和视觉的小模型做辅助模型.我突然想起来反重力有很多Flash额度,所以想问一下,现在再去买号反代Flash..会被封吗.假如不能反代…谷歌普号直接丢newapi里是不是也可以种flash呀 1 个帖子

tech linux.do 2026-04-29 10:56:12+08:00

DeepSeek 的恩情还不完🙏

猛蹬一天只花了一块多(我是flash和pro混用),编程能力个人感觉接近GLM5.1,最主要的优点就是特别省token,同样的任务消耗的token数量几乎是其他模型的80%左右,再加上1M的长上下文,真感觉特别适合CC,CX这些智能体。 然后今天看了一眼API价格, 官方直接把

tech linux.do 2026-04-29 10:20:56+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 10:02:42+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:51:37+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:31:12+08:00

蚂蚁集团百灵大模型开源 Ling-2.6-flash,提供 BF16、FP8、INT4 等版本

IT之家 4 月 29 日消息,蚂蚁集团旗下的百灵大模型今日宣布, Ling-2.6-flash 正式开源 。同步提供 BF16、FP8、INT4 等多个版本,方便开发者根据不同硬件环境、推理成本和部署需求灵活选择。 Ling-2.6-flash 是一款总参数量 104B、激活参

tech www.ithome.com 2026-04-29 09:27:20+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 07:02:07+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 03:57:42+08:00

【快讯】Step Plan拟上线DeepSeek V4 Pro

信息来源官方交流群 他们的step-3.5-flash一直以来都是最快的coding 模型,虽然智商不咋地 如果v4pro可以达到一半的tps,就足够用了 3 个帖子 - 3 位参与者 阅读完整话题

tech linux.do 2026-04-28 23:46:50+08:00

colab可以直接免费用Gemini 2.5 flash哦w

colab.research.google.com Google Colab 谷歌官方的例子w) ff之前好像发过一篇,但是貌似没有人看明白欸ww 具体用法就是先获取一下模型然后直接用就好啦w # @title Formatted streaming example from g

tech linux.do 2026-04-28 21:09:01+08:00

沉浸式翻译 deepseekv4关闭思考

如题,v4-flash 关闭翻译按照下面设置就行了吗? 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-04-28 16:35:06+08:00

刚在本地搭建好了DeepSeek V4 Flash模型,分享下技术路径

无任何违规内容,纯技术分享,求过审,给需要的佬们自己动手试试。 手上有一台8卡A100,单卡40G显存的版本,NVLink形式,由于ollama还没有提供本地部署的版本,尝试了几种方法,在github上找到了一个可行的方式,另外还看到了MacBook Pro上的版本,这个我没试过

tech linux.do 2026-04-28 14:50:57+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 14:27:48+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 13:41:48+08:00