[Local LLM] github 看到一个项目, 3090 跑 27B, 129tps,最高 207tps
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
Cal - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 220 篇相关文章 · 第 2 / 11 页
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
很多海外电话卡、香港电话卡都支持 VoWiFi,也就是 Wi-Fi Calling。它可以让手机在蜂窝信号差、无服务,或者只连接 Wi-Fi 的情况下,继续使用运营商原生电话和短信。 但 VoWiFi 不是打开一个开关就一定成功。真正成功要看三件事: 号码和套餐是否支持 Wi-F
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
https://sqmagazine.co.uk/313-team-claims-ddos-extortion-attack-on-canonical/ [!quote]+ Canonical 在其状态页面上称此次事件为 “持续的跨境攻击”,并且在 2026 年 5 月 1 日的
Ubuntu 及其母公司 Canonical 运营的多台服务器自当地时间周四早晨起遭到攻击而下线,截至目前已持续中断逾 24 小时,严重影响了这家主流 Linux 发行版在一项重大安全漏洞披露“翻车”后与用户的正常沟通。 在过去 24 小时里,大多数 Ubuntu 与 Canon
https://github.com/bowencool/earnings-calendar 股票代码完全可配置,fork 一下改配置就行 没有自定义需求的可以直接订阅: https://raw.githubusercontent.com/bowencool/earnings-c
https://github.com/bowencool/earnings-calendar 股票代码完全可配置,fork 一下改配置就行 没有自定义需求的可以直接订阅: https://raw.githubusercontent.com/bowencool/earnings-c
https://github.com/QuantumNous/new-api/releases/tag/v1.0.0-rc.2 docker 镜像 docker pull calciumion/new-api 5 个帖子 - 4 位参与者 阅读完整话题
接了个2api,调了半天 toolcall 使能还以为是自己瞎改 ds2api 导致的奇妙问题,结果上号一看气笑了,模型在自己意淫 toolcall 结果 10 个帖子 - 7 位参与者 阅读完整话题
发帖后发现格式完全不对,佬们教教我 软路由:R2S,openwrt 24.10.0 内核版本:6.6.73 1、vim /etc/config/firewall 加入以下: config include option enabled 1 option type ‘script’
开源推广声明 (点击了解更多详细信息) 做了个可以记录tool call具体参数的cli工具,用于审计敏感信息是否泄漏或给他人复现bug等等 命名参照了飞机的黑匣子,意图是记录mcp运行中的各种参数,对自己coding agent各种操作有所把控 像删表、读env这类操作会被自动
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
配置为 m1max 64g+1T ,最近搞了个小小龙虾,消耗的 token 太快了,打算部署各本地模型,一来了解了解,而来是想做下简单的翻译、文档处理的工作。能有合适的本地模型吗?
一直在用 Cloudflare Tunnel,现在发现内网穿透最方便的是 Tailscale Funnel 免费版用户也可以用。 [ Tailscale Funnel · Tailscale Docs ] 特别简单易用,一个简单的命令啥都齐活了,有带 HTTPS 免费的域名,速度
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark
自己家里的 5070Ti 跑模型起来太费劲了,用了一下同事的 macbook 顶配版跑模型比 5070Ti 要强一点点,感觉都差不多,所以大佬可以指点下有没有必要搞一个 Mac studio 还是 Nvidia thor 或者 DGX Spark