问佬们一个AI对话问题,拿GLM弄了一个AI对话功能
问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话
lm - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 第2页 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 869 篇相关文章 · 第 2 / 44 页
问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
感觉就比 minimaxm2.7 强点,感觉不如 qwen3.6plus ,glm5 和 kimi2.5 啊,我已经用了 2 亿多 token 了,实在没体验出智能 尤其是指令遵循,我在 hermes 中使用时常出现不遵守规则回复。 还有长记忆捞回测试,我上传了 900k 的武林
当前最火的是下面几个: GLM-5.1 、 DeepSeek-V4 、 Kimi K2.6 、 MiniMax M2.7 、 通义千问 Qwen3 、 豆包 Seed 2.0 和 小米 MiMo V2.5 。 GLM-5.1 DeepSeek-V4 Kimi K2.6 MiniM
前两天买的glm pro,送了几张体验卡,自己用不着浪费了,给有需要的佬: 我在使用GLM Coding Plan,数小时内完成过去需要数周的开发工作,赠送你1张7天AI Coding体验卡,一起来用吧: 智谱AI开放平台 3 个帖子 - 3 位参与者 阅读完整话题
https://tps.bunai.cc/ranking?gpu=apple_m5_32g&ic=nvlink5
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
我搞到了 MIMO 的 token plan 后,扔给 OH-MY-PI 里的 GLM 5.1 ,让它帮我配置进去。 然后这货把里面之前配置的所有的 API 都干没了。 包括它自己。 GLM来源是一个佬友的公益站,跟这事没什么关系。 被朋友狠狠笑话了,那让佬友们也笑一笑吧。 7
华为云码道(CodeArts)GLM-5.1免费畅用,开启你的代码智能体。 5 个帖子 - 4 位参与者 阅读完整话题
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
https://github.com/Luce-Org/lucebox-hub DFlash DDtree Qwen3.5 & Qwen3.6 27B GGUF on RTX 3090 First GGUF port of DFlash speculative decod
LMArena发现,一个标注为 Gemini 3 Flash 的模型出现频率异常增高。根据实际测试反馈,该模型的性能表现远超当前版本,甚至直逼 Gemini 3.1 Pro。 有测试者表示,在最近的 7 次抽卡中,该模型出现了 6 次。这种行为与此前 DeepSeek 测试 V4
真的假的?
真的假的?
真的假的?