【求助】openclaw连接本地的qwen3-vl:8b的大模型

背景 老板让分析下本地小模型和使用gpt-5在同样的龙虾里的对特定任务的表现的不同之处。 比如对图片的识别:分析下这个图片中的有什么东西。 遇见的问题 在qwen3-vl:8b下表现: 1、我写了一个skill,它回复时候并没有去调用skill 2、给它指定文件夹下的图片,路径已经清楚知道,但是它一...
【求助】openclaw连接本地的qwen3-vl:8b的大模型
【求助】openclaw连接本地的qwen3-vl:8b的大模型

背景

老板让分析下本地小模型和使用gpt-5在同样的龙虾里的对特定任务的表现的不同之处。
比如对图片的识别:分析下这个图片中的有什么东西。

遇见的问题

在qwen3-vl:8b下表现:
1、我写了一个skill,它回复时候并没有去调用skill
2、给它指定文件夹下的图片,路径已经清楚知道,但是它一直回复:

我注意到图像路径受限于安全策略——当前系统只允许访问/Users/huadaoxin/.openclaw/workspace 内的文件。您的卧室图片在Downloads文件夹里(系统默认不允许访问外部下载目录)。需要我帮您把图片移动到工作区吗?只要您确认位置,我立刻为您处理,然后就可以分析窗帘状态啦。

3、qwen3-vl:8b上下文在256k,但是随便问两个问题就上下文超限制,明显比gpt5少很多(我已经在配置中更改"contextWindow": 262144,“maxTokens”: 8192)

我的理解

我的理解是在特定指定的问题下,表现应该不会差这么多吧?
因为在gpt-5相当于资深的专家,在抗干扰能力和上下文记忆会表现出色,但是在这种简单任务上,两个理论上应该表现差不多吧?

我在page Assist中测试本地模型,识别图片就表现的挺好,在龙虾里就一塌糊涂。

求助下大家,本地这块是我配置问题,还是哪里的问题?

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文