问佬们一个AI对话问题,拿GLM弄了一个AI对话功能
问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话
Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。
共 54 篇相关文章 · 第 1 / 3 页
问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话
本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺
报错 [status 403] this model requires a subscription, upgrade for access: 登录 最好的gemini-3-flash白嫖渠道已死 9 个帖子 - 6 位参与者 阅读完整话题
蹬不完了,遂大家一起蹬吧 base url: aHR0cHM6Ly9vcGVuYWkuOTMzOTk5Lnh5ei92MQ== api key: sk-Qmk7dTDX4p0sTno34LhZC8bJ0AUbl54HOiU9ljYBOWIAlKZb 1 个帖子 - 1 位参与者
ollama cloud 的 deepseek v4 openai-compat api 接受什么 reasoning_effort 值?ds 官方使用 max,ollama 使用 high/xhigh/max 中的哪一个? 2 个帖子 - 1 位参与者 阅读完整话题
最近看长文、技术文档和一些内部页面时,经常会用 AI 做总结或者继续追问。 但用了一圈 Chrome 插件后,发现几个问题: 很多插件强制订阅,哪怕只是调用一下大模型也要包月 有些不支持自定义 API Key ,等于多了一层中间商 页面内容要先传到插件方服务器,对敏感文档不太放心
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
在 ollama discord 看到一位老哥发的项目可以查看部分模型的 tps, ttft 指标。感觉不错,给想要买这两家服务的佬做一个参考。 aipi.jaroslawjanas.dev AIPI Bench — AI Model Performance Monitor Mo
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash
https://github.com/antirez/llama.cpp-deepseek-v4-flash