一行 Ollama 命令在 Claude Desktop 用上本地模型

ollama launch claude-desktop 算是逐渐意识到模型不是护城河了,生态才是 [!tip] Ollama now supports Claude Desktop via Claude’s built-in third party inference. ollama launch...
一行 Ollama 命令在 Claude Desktop 用上本地模型
一行 Ollama 命令在 Claude Desktop 用上本地模型

ollama launch claude-desktop

算是逐渐意识到模型不是护城河了,生态才是

IMG8752

[!tip]
:exploding_head: Ollama now supports Claude Desktop via Claude’s built-in third party inference.
ollama launch claude-desktop
This allows all models from Ollama’s Cloud to be used across Claude Cowork and Claude Code from the Claude Desktop app.

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文