Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn

Llama - 钛刻 - 科技风向旗 - 深度刻画技术趋势,引领数字未来 - 钛刻科技 | TCTI.cn - 钛刻 (TCTI.cn) 为您提供最前沿的硬核科技资讯、深度评测和未来技术趋势分析。

共 54 篇相关文章 · 第 1 / 3 页

问佬们一个AI对话问题,拿GLM弄了一个AI对话功能

问佬们一个AI对话问题,拿GLM弄了一个AI对话功能,然后后端使用的是ollama,然后SSE流式输出,前端在最终显示之前这个思考过程以及前面内容显示的都是?,让AI解决了好久还是有问题,不知道咋给ai说了 错误.txt (2.3 KB) 4 个帖子 - 3 位参与者 阅读完整话

tech linux.do 2026-05-03 16:09:58+08:00

[开源]ServLlama,一键让你的手机变成LLM服务器,无需Termux!功能强大堪比Ollama

本帖使用社区开源推广,符合推广要求。我申明并遵循社区要求的以下内容: 我的帖子已经打上 开源推广 标签: 是 我的开源项目完整开源,无未开源部分: 是 我的开源项目已链接认可 LINUX DO 社区: 是 我帖子内的项目介绍,AI生成、润色内容部分已截图发出: 是 以上选择我承诺

tech linux.do 2026-05-01 17:15:02+08:00

ollama不再允许白嫖gemini-3-flash

报错 [status 403] this model requires a subscription, upgrade for access: 登录 最好的gemini-3-flash白嫖渠道已死 9 个帖子 - 6 位参与者 阅读完整话题

tech linux.do 2026-05-01 14:14:05+08:00

分享个ollama pro订阅

蹬不完了,遂大家一起蹬吧 base url: aHR0cHM6Ly9vcGVuYWkuOTMzOTk5Lnh5ei92MQ== api key: sk-Qmk7dTDX4p0sTno34LhZC8bJ0AUbl54HOiU9ljYBOWIAlKZb 1 个帖子 - 1 位参与者

tech linux.do 2026-04-30 16:48:22+08:00

ollama deepseek v4 reasoning effort 如何取值

ollama cloud 的 deepseek v4 openai-compat api 接受什么 reasoning_effort 值?ds 官方使用 max,ollama 使用 high/xhigh/max 中的哪一个? 2 个帖子 - 1 位参与者 阅读完整话题

tech linux.do 2026-04-29 16:45:42+08:00

[分享创造] [开源] 写了个 Chrome 侧边栏 AI 阅读助手:支持自定义 Key 和 Ollama 本地模型

最近看长文、技术文档和一些内部页面时,经常会用 AI 做总结或者继续追问。 但用了一圈 Chrome 插件后,发现几个问题: 很多插件强制订阅,哪怕只是调用一下大模型也要包月 有些不支持自定义 API Key ,等于多了一层中间商 页面内容要先传到插件方服务器,对敏感文档不太放心

tech v2ex.com 2026-04-29 16:30:21+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 12:04:14+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 11:14:08+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 10:02:42+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:51:37+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 09:31:12+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 07:02:07+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-29 03:57:42+08:00

ollama cloud/opencode go api bench - 查看模型性能

在 ollama discord 看到一位老哥发的项目可以查看部分模型的 tps, ttft 指标。感觉不错,给想要买这两家服务的佬做一个参考。 aipi.jaroslawjanas.dev AIPI Bench — AI Model Performance Monitor Mo

tech linux.do 2026-04-28 15:57:57+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 14:27:48+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 13:41:48+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 12:00:16+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 10:50:24+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 02:06:28+08:00

用 antirez 的 llama.cpp fork 把 DeepSeek v4 Flash 在本地跑起来了

https://github.com/antirez/llama.cpp-deepseek-v4-flash

tech www.v2ex.com 2026-04-28 01:53:59+08:00