[Local LLM] LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM

https://github.com/zsj1029/LiteChat 企业内部场景适用,从 llama-cpp 的 webui 扒出来的,本地改造了下支持 vllm 全程 Qwen3.6 27B (vLLM), Claude Vscode 改造...
[Local LLM] LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM
[Local LLM] LiteChat 轻量级本地大模型聊天 WebUI,支持 vLLM
https://github.com/zsj1029/LiteChat

企业内部场景适用,从 llama-cpp 的 webui 扒出来的,本地改造了下支持 vllm

全程 Qwen3.6 27B (vLLM), Claude Vscode 改造
来源: v2ex.com查看原文