用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
https://github.com/antirez/llama.cpp-deepseek-v4-flash
Deep - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第18页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 1347 篇相关文章 · 第 18 / 68 页
https://github.com/antirez/llama.cpp-deepseek-v4-flash
deepseek v4 pro写一些灰产的东西是完全不废话的阿,claude 4.6跟gpt 5.4完全不让写,这下爽了,刚刚搭配opencode一下就完成了,直接充了100,不过感觉消耗确实有点快阿就算是在2.5折的情况下 10 个帖子 - 8 位参与者 阅读完整话题
IT之家 4 月 28 日消息,据每日经济新闻报道,DeepSeek 上周发布长达 58 页的 V4 技术报告,一份近 300 人的“研究与工程”作者名单引发关注。 创始人梁文锋与所有研究员、工程师并列署名。 名单中 10 人标注“已离职” ,其中不乏王炳宣、魏浩然、郭达雅等核心
比较出名的国内外模型基本都个人掏腰包购买使用过(除了claude,那个一直风控只蹭过一点朋友的),但是不得不说deepseek v4(以下简称v4)这波给我的仍然是王炸级的震撼,尤其是连续降价以后。下面讲讲我觉得震撼在哪: 某种程度上,v4算是树立了一个“新的标杆”。在以前,我们
这几天因为新模型体验了一下 DeepSeek 的 API,发现它的缓存命中率很高!(而且又打折了,泪目了) 所以有点好奇咋做的,就去翻了翻官方文档。才发现ds原来用的是硬盘存的缓存,有点没想到。 据说会保存几小时到几天(相比之下分钟级我不好评价,虽然推测可能他们用的是内存存缓存吧
生成的长度非常短,虽然能够很好的完成任务,但相对于 gemini 和豆包,不会发散性的做关联研究和阐述
生成的长度非常短,虽然能够很好的完成任务,但相对于 gemini 和豆包,不会发散性的做关联研究和阐述
TechCrunch – 27 Apr 26 DeepMind's David Silver just raised $1.1B to build an AI that learns without... Ineffable Intelligence, a Britis
最近高强度使用 deepseek v4 flash / pro 总体效果还是很棒的。 但是小鲸鱼总是喜欢英文思考,或者代码注释也参杂英文,即使修改系统提示词也无济于事。 后来发现 deepseek 的用户提示词权重要高于系统提示词(奇奇怪怪,利好 RP)。 于是便尝试在开始第一句
生成的长度非常短,虽然能够很好的完成任务,但相对于 gemini 和豆包,不会发散性的做关联研究和阐述
如图,思考了几个小时。我想问问有人知道这个思考时间是如何计算的吗,我一共打开的时间也没有这么久 1 个帖子 - 1 位参与者 阅读完整话题
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天使用一个第三方API提供的 DeepSeek-V4-Pro模型时,显示只有200K上下文。 因为我知道这个模型有百万上下文,所以手动添加模型名称 打开1M开关 在我另一篇帖子里有添加方法: 请教:Claude Desktop App 不能接入 Deepseek-V4 吗?(已
不知道是我的提示词太烂,还是什么原因,输出的 markdown 文档写到一半就丢了分隔符,我还得自己去补上,而且丢不止一个 1 个帖子 - 1 位参与者 阅读完整话题
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
想试试 DeepSeek V4,随手扔给 GPT-5.4 让它帮我配 OpenCode。折腾了 20 分钟,踩了两个坑,最终稳了。记录一下。 第一步:选对入口 DeepSeek 现在有两个模型: deepseek-v4-pro — 主力 deepseek-v4-flash — 快
今天看了下 DeepSeekV4 的次数涨了不少,估算了下 token 好像吃上折上折了? 预估了一下 token 量,算上缓存的话 一个 go 套餐里,DeepSeek V4 Flash 已经约等于 10,923,420,500 token 了。
梁圣,伟大无需多言 12 个帖子 - 8 位参与者 阅读完整话题