[Local LLM] 本地部署靠不靠谱?
在 mac studio 、395 Max 和 DGX Spark 这几种设备考虑 本地部署的 coding 能力和效果,能接近 gpt-5.3-codex 吗? 如果本地部署的 coding 能力可以,我感觉可以让牛逼的模型 API 来创建分解任务,然后让本地执行。
llm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第12页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 228 篇相关文章 · 第 12 / 12 页
在 mac studio 、395 Max 和 DGX Spark 这几种设备考虑 本地部署的 coding 能力和效果,能接近 gpt-5.3-codex 吗? 如果本地部署的 coding 能力可以,我感觉可以让牛逼的模型 API 来创建分解任务,然后让本地执行。
写科幻小说时突然领悟:现有LLM可在软件层面更新权重参数;但计算机出厂后,硬件物理结构就固定不变;电子只能流动在预制的固定电路,大量能量浪费在存储器与运算器之间传输数据。 生物大脑节能高效,原因之一是神经细胞可以自行生长、消退,传输神经信号时同步调整突触连接强度、神经回路。 因此
看到能用国产的开源模型 主要冲着glm-5.1去的,开了个pro套餐 体感咋说呢,错峰避开太平洋对面的高峰期吧 这个是这里的晚上,对面白天的使用速率 简直简直慢到令人离谱 随便一个自动探测,一个hi, 6个token,动不动一分多两分钟 白天体验,只能说还行吧 ps: 额度说明:
Qwen 3.6 35B-A3B 智商测试 之前没考虑过本地部署 LLM——一是没卡没好设备,二是感觉小模型智商不会高到哪里去。 但最近对 Claude Opus 的降智略感失望,本地部署个不错的 LLM 至少不会降智。看佬儿友分享最近发布的 Qwen 3.6 ,看起来不错,手痒
需要给ClaudeCode和LLM两者同时破限。学习资料: Claude破限脚本 - 开发调优 / 开发调优, Lv1 - LINUX DO 发一个破限好的codex的提示词,方便大家codex写注册机之类的 - 开发调优 / 开发调优, Lv1 - LINUX DO 1 个帖子
配合 llm 真的对是飞书文档此类产品打击不少! Obsidian CLI 是一个命令行界面,让你可以从终端控制 Obsidian,用于脚本编写、自动化以及与外部工具集成。 Obsidian CLI - Obsidian 中文帮助 ,现在 AI 基本都是输出 md 格式的,配合
36氪获悉,网易有道云笔记推出LLM-Wiki技能套件,并同步首发至OpenClaw及网易有道龙虾(LobsterAI)技能市场。据介绍,该技能主打“零基础上手”,用户无需任何技术背景,5分钟即可将碎片信息构建为结构化知识库。
《自然》15日发表的一项研究显示,大语言模型(LLM)可能会将某些自己的偏好“夹带私货”传授给其他算法,即使在训练数据中清除原始特征后,这些本不需要的特征,仍可能持续存在。在一个案例中,一个模型似乎通过数据中的隐含信号,将自己对猫头鹰的偏好传递给了其他模型。该研究结果表明,在开发