am - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn

am - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第9页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 1313 篇相关文章 · 第 9 / 66 页

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 11:15:48+08:00

codex team或者pro,来稳定的。佬们拉我

1、pro的话,我可以接受4人拼车;20x用量 差不多;一个人月均50刀 2、team的话,也可以拉我,来稳定的 ~~ 2 个帖子 - 2 位参与者 阅读完整话题

tech linux.do 2026-05-06 11:12:34+08:00

gpt羊毛慢慢的离我们远去

记得半个月前的Team车位,Plus直充,Pro拼车 各种应有尽有 价格虽然是参差不齐 质量可能也无质保,但是能让学生党消费得起 能让工作者花小钱办大事,最近慢慢的看不到这种内容了 我都在想 像我身为一个学生的话 每天的编码需求也有很多 但是没有说特别依赖于那么强大的模型 因为我

tech linux.do 2026-05-06 11:11:04+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 11:03:49+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:47:27+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:47:27+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 10:47:27+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:37:50+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 10:36:52+08:00

石头 A30 Pro Steam 2.0 尊享版洗地机开售:25000Pa 吸力,4299 元

IT之家 5 月 6 日消息,石头科技今日宣布,A30 Pro Steam 2.0 尊享版智能洗地机上市, 首发到手价 4299 元 。 这款洗地机 吸力可达 25000Pa ,搭载零感 AI 速干臂,官方宣称在瓷砖、木地板、大理石等可做到“零水渍”;支持三面全向贴边,续航可达

tech www.ithome.com 2026-05-06 10:34:07+08:00

为什么codex里面一直报错stream disconnected before completion: stream closed before response.completed

一般来说baseurl加/v1可解决,但是我加了/v1 ccswitch那边测试又不通过 有没有大佬指点一下呢? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-06 10:27:03+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:26:43+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:15:13+08:00

qoder team能给claudecode用吗

公司买了qoder的team,有佬试过代理出来给claudecode用吗? 有什么方案吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-05-06 10:10:48+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 10:05:59+08:00

MemTest86 测试更新 11.7 版本,优化对 LPCAMM2 支持

IT之家 5 月 6 日消息,PassMark 旗下内存测试工具 MemTest86 时隔四个月在当地时间本月 4 日发布了 Version 11.7 (Build 1000) 更新。这一版本 从多方位 优化了对 LPCAMM2 内存模组的支持 。 IT之家附上更新内容一览: 为

tech www.ithome.com 2026-05-06 10:05:00+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 10:02:12+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:55:51+08:00

都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech www.v2ex.com 2026-05-06 09:54:19+08:00

[Local LLM] 都 2026 年了,为什么还有人觉得 AMD 比 Nvidia 更适合部署本地大模型?

五一节假日期间,有一个同事想本地部署大模型,在群里询问,我们都给他推荐了 Nvidia 的卡,结果他去刷 B 站,选择了 AMD AI MAX+ 395 。 难道小白真的就这样被割韭菜吗?

tech v2ex.com 2026-05-06 09:45:19+08:00