中美大模型厂商博弈
美国: A(Claude):编程领域的头把交椅 openAI(GPT):综合能力的绝对霸主,没有任何短板 Google(Gemini):互联网行业的巨人,人工智能领域的先锋 X(Grok):科技圈的翘楚,不甘落后的开拓者 Meta(Llama):大模型全面发展与成本控制的舵手,开
模型 - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第89页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 2777 篇相关文章 · 第 89 / 139 页
美国: A(Claude):编程领域的头把交椅 openAI(GPT):综合能力的绝对霸主,没有任何短板 Google(Gemini):互联网行业的巨人,人工智能领域的先锋 X(Grok):科技圈的翘楚,不甘落后的开拓者 Meta(Llama):大模型全面发展与成本控制的舵手,开
IT之家 4 月 23 日消息,腾讯混元 Hy3 preview 语言模型今日发布并 开源 。这是一个快慢思考融合的混合专家模型,总参数 295B,激活参数 21B,最大支持 256K 上下文长度。 官方表示,今年 2 月,腾讯混元重建了预训练和强化学习的基础设施,以及模型追求实
国产模型是不是要崛起了
国产模型是不是要崛起了
国产是 coding plan 和 api 便宜,但是产品级订阅贵得要死,gpt 20 刀几乎畅用,国产你跑几个复杂点的任务就限额了,堪比 claude 20 刀的感觉(如果是入门套餐还不如 claude 20 刀)。你让它给你根据几份文件,做个 ppt 之类,它都能很快撞限额,
macmini m4pro 64g ollama oMLX nvfp 、mxfp 或者其他格式的模型? 到底怎么选?我用 omlx 测试 mxfp 貌似比 nvfp 慢,还是直接选不带后缀的 mlx ?
国产模型是不是要崛起了
除了 claude 模型没用过,其他模型都试过了,感觉 glm5.1 真的很强,大部分需求都是一遍过,比如下面这个需求,如果是之前估计怎么也得调试个几次,现在 glm5.1 一次过了 gemini 和 gpt5.4 感觉都不如 glm5.1 好用,是幻觉还是真的
国产是 coding plan 和 api 便宜,但是产品级订阅贵得要死,gpt 20 刀几乎畅用,国产你跑几个复杂点的任务就限额了,堪比 claude 20 刀的感觉(如果是入门套餐还不如 claude 20 刀)。你让它给你根据几份文件,做个 ppt 之类,它都能很快撞限额,
具体现象很好描述 就是, 模型在对话的时候 会返回空的内容. 大概报错内容 在hermes中就是 Empty response from model , 以及 model returned empty after tool calls 这是我跟hermes app的对话分析, 请
Codex在模型上下文窗口中已无空间。请启动新线程或清除先前历史记录后重试。 这种需要怎么处理 1 个帖子 - 1 位参与者 阅读完整话题
国产是 coding plan 和 api 便宜,但是产品级订阅贵得要死,gpt 20 刀几乎畅用,国产你跑几个复杂点的任务就限额了,堪比 claude 20 刀的感觉(如果是入门套餐还不如 claude 20 刀)。你让它给你根据几份文件,做个 ppt 之类,它都能很快撞限额,
TechCrunch – 21 Apr 26 Meta will record employees' keystrokes and use it to train its AI models |... Meta says that it has a new intern
除了 claude 模型没用过,其他模型都试过了,感觉 glm5.1 真的很强,大部分需求都是一遍过,比如下面这个需求,如果是之前估计怎么也得调试个几次,现在 glm5.1 一次过了 gemini 和 gpt5.4 感觉都不如 glm5.1 好用,是幻觉还是真的
实际体感如何呀? 3 个帖子 - 3 位参与者 阅读完整话题
除了 claude 模型没用过,其他模型都试过了,感觉 glm5.1 真的很强,大部分需求都是一遍过,比如下面这个需求,如果是之前估计怎么也得调试个几次,现在 glm5.1 一次过了 gemini 和 gpt5.4 感觉都不如 glm5.1 好用,是幻觉还是真的
国产模型是不是要崛起了
国产模型是不是要崛起了
有佬友做过类似的项目嘛,我现在在构建数据集,有个疑问就是tool use的训练是让模型直接输出[tool use]: 还是先thinking:需要干嘛,所以要[tool use]好呢 6 个帖子 - 3 位参与者 阅读完整话题
Yang, Z. et al. (2025). “A Probabilistic Inference Scaling Theory for LLM Self-Correction.” EMNLP 2025 . https://arxiv.org/abs/2508.16456 老哥