用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了
https://github.com/antirez/llama.cpp-deepseek-v4-flash
de - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第250页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 11031 篇相关文章 · 第 250 / 552 页
https://github.com/antirez/llama.cpp-deepseek-v4-flash
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
Copilot Enterprise licenses web 页面 Claude 和 Codex 2 个 agent api 报错 API Error: 400 {"error":{"message":"The requeste
老板体验了 claude 后拍板要把 claude 嵌入全公司工作流,让我去解决采购渠道问题,要求数据不得经过非正规公司传送,大概意思估计是买大厂 vps 自建 api 代理可以,但不能买贩子的中转站。但是先不说走什么代理的问题,国内几乎都找不到官 key 的货源啊,都是 5 刀
终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp
Claude又又又崩了 太难绷了 而且可以看看 Claude的Status ,虽然算不上天天炸,但是周周炸是肯定的了 A÷啊,你那超级危险如核弹爆炸令人瘫坐的Mythos模型怎么不来干事? 3 个帖子 - 3 位参与者 阅读完整话题
一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$
老板体验了 claude 后拍板要把 claude 嵌入全公司工作流,让我去解决采购渠道问题,要求数据不得经过非正规公司传送,大概意思估计是买大厂 vps 自建 api 代理可以,但不能买贩子的中转站。但是先不说走什么代理的问题,国内几乎都找不到官 key 的货源啊,都是 5 刀
终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp
全世界几百万几千万天才程序猿又歇菜了 3 个帖子 - 3 位参与者 阅读完整话题
如题,有没有大佬研究过。 cursor / windsurf / copilot 都是按量计费了,价格上还有优势吗? 用 opencode 至少省去了一个 agent 工具的费用,理论上是不是更便宜点
用了好几个机场,以前都是 clash 这些订阅链接,最近全部失效了,必须下载机场私有客户端 下载这些私有机场客户,win10 win11 系统 defender 安全中心疯狂爆毒,拒绝下载和安装。 虽然不涉密,但是电脑上还是有不是密钥之类的因素文件啊。这些私有 机场.exe 文件
终于等到这一天了 https://x.com/warpdotdev/status/2049153766977421444 地址是 github.com/warpdotdev/warp
一种毒瘤。 确实能跨平台。 下载的包动不动几百 M ,内存吃掉几百 M 。 一个本该「小而美」的 CLI 程序,开上三四个,也要 2G 的内存。 16G 的 Macbook 也扛不住啊。内存又这么贵,不给人留活路了。
本来看到奥特曼重置了额度挺高兴,打算打开codex继续调代码,结果codex打开就崩溃了,后续搞了一晚上,改代理,换节点,清缓存,数据分离排查,设置里修复,然后重置,最后卸载,然后重新在微软商店里下载(倒底为什么非要指定用微软商店安装啊 ),结果下载不下来了,一直显示错误,然后又
各位佬,想聊聊最近使用 Claude 的体验,看看大家有没有类似的感受。 自从 Opus 4.7 发布之后,我第一时间试了一下,说实话效果没有想象中那么惊艳。最明显的感受是它变得更依赖精准的提示词了,有点 GPT化的趋势,得把需求描述得非常准确它才能给出好的结果。相比之下,Opu
MuskAI 稳定生产力的源泉 💎超大源头 GPT PROMAX 池,按量 0.11 倍,tokens 吞吐量为 team/plus 5 倍 💎超低延迟,国内专线接入(稳定不掉线) 💎稳定持续可用,适合长期使用与业务接入(可开发票) 💎适合需要稳定渠道的客户! V 友专属福利:$