OpenClaw 部署与初步体验
花了一天时间,我在一台闲置服务器上部署了 OpenClaw,主要是想验证朋友之前画的饼:它是否真的可以自动 clone GitHub 上的项目、配置环境,并自动运行对比实验。
系统配置
先简要介绍一下部署环境:
- CPU:7K62
- GPU:RTX 3090
- 接入模型:朋友部署的 Qwen3.5-122B-A10B
- OpenClaw 上下文长度设置:64K
- 大模型原生上下文长度:128K
关于上下文长度这一块,朋友让我把 OpenClaw 设置成 64K。因为我本身不是做大模型方向的,对这里的原理和具体影响并不是特别理解,如果有理解不准确的地方,也欢迎大家指正。
部署完成之后,我是通过 QQ 机器人和它进行交互的。
实际使用过程
部署完成后,我大约和 OpenClaw 聊了 3 个小时,这里不计算它自己运行任务所花的时间。最终,它成功从 GitHub 上拉取了一个项目,完成了环境配置,并开始运行。
从整体体验来说,部署本身并不困难。只要 GPT 配合 CSDN,基本可以把安装过程完整协助下来。
使用感受
不过,真正让我有些无语的,是 OpenClaw 的问题解决过程,尤其是在环境配置阶段,表现比较令人汗颜。
另外,它在对话过程中还经常会进行上下文压缩。GPT 给出的解释是:
你的对话太长了,超过模型上下文限制,OpenClaw 自动重启会话。
所以,对于它最终给出的复现结果,我目前还是持观望态度。
当前结论
我的感受是,如果想直接用它来复现对比实验,这件事可能还是过于困难了。
OpenClaw 的能力,本质上还是取决于它接入的模型能力。而能力更强的模型,费用往往也更高。至于这件事到底值不值得,就不太好评价了。
1 个帖子 - 1 位参与者