LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn

LM - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第13页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 896 篇相关文章 · 第 13 / 45 页

GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech www.v2ex.com 2026-04-28 04:05:01+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 03:55:53+08:00

[问与答] 求助万能的 v2,想用强大模型进行 10 万+次调用目前的最合适的方案是什么?

写论文有大量 LLM 任务需要调用,希望对基于描述性语言的非结构化数据进行分析, 目前估算了一下大概需要 10 万次左右的调用,每次输入 token 数量在 20-50K 之间(中型任务),输出大概在 20K 左右。 粗略估算了一下大概是需要 3000M 的输入+2000M 的输

tech v2ex.com 2026-04-28 03:45:52+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-28 03:05:01+08:00

GLM-5.1在非高峰期1倍活动 延长到6月底!

我很清楚的记得之前是4月30日~ 好多佬友们还在在高峰期体验过3倍的消耗速度极其恐怖,担心非高峰期调用也翻倍可咋办,现在延长到6月底了! 13 个帖子 - 13 位参与者 阅读完整话题

tech linux.do 2026-04-28 02:30:49+08:00

GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech www.v2ex.com 2026-04-28 02:05:01+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-28 02:05:01+08:00

[Local LLM] 用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech v2ex.com 2026-04-28 01:53:59+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-28 01:05:01+08:00

Cerebras 已为企业支持 GLM 5, GLM 5.1, Kimi K2.6

5 个帖子 - 5 位参与者 阅读完整话题

tech linux.do 2026-04-28 00:56:56+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-28 00:05:01+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-27 23:47:16+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-27 23:47:16+08:00

[程序员] GLM 的稳定性是不是太离谱了?

刚刚续费了季度 Pro 套餐,就开始疯狂报错 API Error: 400 {"type":"error","error":{"message":"网络错误,错误 id 2026042723

tech v2ex.com 2026-04-27 23:38:57+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-27 21:42:55+08:00

当前的AI路线,真能最后达成AGI么?

总感觉LLM其实并不理解庞大的知识库,有点倒果为因的意思?要实现真正的AGI,当前这种力大砖飞无限回归纯靠算力堆的思路,真是正确的吗? 1 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-27 21:00:46+08:00

马上 2026 年 5 月了,国产 token plan 有什么推荐(GLM(买不到), Minimax, kimi)

各个角度对比 以上国产的有什么值得买的,claude code 被秒封过一个 ,现在有几率弹 kyc 验证 不考虑开了,codex 简单体验过还很 OK ,Gemini 现在完全脱节了 pro 也额度少的克隆

tech www.v2ex.com 2026-04-27 20:45:07+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-27 20:42:55+08:00

马上 2026 年 5 月了,国产 token plan 有什么推荐(GLM(买不到), Minimax, kimi)

各个角度对比 以上国产的有什么值得买的,claude code 被秒封过一个 ,现在有几率弹 kyc 验证 不考虑开了,codex 简单体验过还很 OK ,Gemini 现在完全脱节了 pro 也额度少的克隆

tech www.v2ex.com 2026-04-27 19:45:07+08:00

glm5.1, kimi2.6, minimax2.7, mimo v2.5, deepseek v4,编程能力上的排名如何?

先抛个砖:GLM5.1 > deepseek v4 > minimax2.7 ≥ mimo v2.5 ≈ kimi2.6

tech www.v2ex.com 2026-04-27 19:42:55+08:00