佬们,我想本地跑大模型,显卡有没有推荐的?
我目前配置: R7 5700X DDR4 3200 16G X 4 B550M 联想拯救者主板 淘宝买了个PCIEX4->X16转接板。 所以显卡是:RTX 4060 8G X 2 但是最近玩llama.cpp,试了半天,也就9B还稳定点,上下文开大点凑乎能跑。 Qwen3
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第40页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2545 篇相关文章 · 第 40 / 128 页
我目前配置: R7 5700X DDR4 3200 16G X 4 B550M 联想拯救者主板 淘宝买了个PCIEX4->X16转接板。 所以显卡是:RTX 4060 8G X 2 但是最近玩llama.cpp,试了半天,也就9B还稳定点,上下文开大点凑乎能跑。 Qwen3
今天尝试用GPT-image-2模型生成了毕业论文中的流程图,感觉生成的图片质量特别高,基本上已经达到了可以直接用在论文里的程度,但是似乎不够清晰,有一种扫描件的感觉,有一些小细节需要微调。 所以想问问各位佬友有没有尝试让GPT-image-2模型生成论文插图的,应该怎么生成可编
如题,是怕南山敬老院吗?模型定价里倒是有 coding plan快到期了用不完,试试hub的功能,渠道名:国产-coding plan 另外谁家模型名这老长啊 1 个帖子 - 1 位参与者 阅读完整话题
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
以前是因为英文高质量语料多,现在 dsv4 (以及其他中文模型)肯定在中文方面下了不少功夫,想问问这几天高强度使用的佬友们会更倾向于觉得它的母语/思维方式更偏中文吗? 衍生问题:当前主流的 harness 和 coding agent 采用全英文 prompt,这种语言环境的错配
开始限制 GPT-5.3-Codex模型了 只能通过自动来随机了 6 个帖子 - 6 位参与者 阅读完整话题
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
在claude code中使用自定义模型,一直报错,同样的api url在cline就能正常使用 在claude code插件的settings.json中是这样设置的 { "claudeCode.preferredLocation": "panel
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
比较出名的国内外模型基本都个人掏腰包购买使用过(除了claude,那个一直风控只蹭过一点朋友的),但是不得不说deepseek v4(以下简称v4)这波给我的仍然是王炸级的震撼,尤其是连续降价以后。下面讲讲我觉得震撼在哪: 某种程度上,v4算是树立了一个“新的标杆”。在以前,我们
这几天因为新模型体验了一下 DeepSeek 的 API,发现它的缓存命中率很高!(而且又打折了,泪目了) 所以有点好奇咋做的,就去翻了翻官方文档。才发现ds原来用的是硬盘存的缓存,有点没想到。 据说会保存几小时到几天(相比之下分钟级我不好评价,虽然推测可能他们用的是内存存缓存吧
Xiaomi MiMo-V2.5 系列模型全球开源,MiMo Orbit 计划火热进行中 尊敬的 Xiaomi MiMo 开放平台用户,您好! Xiaomi MiMo-V2.5 系列模型现已全球开源,MiMo-V2.5/V2.5 Pro 两款模型的权重与推理代码已全量开放,采用宽
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
GitHub Copilot 的模型和定价 https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing 来源: https://news.ycombinator.com/item?
GitHub Copilot 的模型和定价 https://docs.github.com/en/copilot/reference/copilot-billing/models-and-pricing 来源: https://news.ycombinator.com/item?
公司采购的企业版 kiro ,部分员工没有 claude 模型可用(比如我) 有咩老哥知道这是啥情况?
之前使用过一段时间codex cli,感觉没有claude code好用,想问下各位佬都是在什么cli/工具里使用gpt系列的模型的? 16 个帖子 - 5 位参与者 阅读完整话题
写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输