openclaw部署与应用体验

OpenClaw 部署与初步体验 花了一天时间,我在一台闲置服务器上部署了 OpenClaw,主要是想验证朋友之前画的饼:它是否真的可以自动 clone GitHub 上的项目、配置环境,并自动运行对比实验。 系统配置 先简要介绍一下部署环境: CPU:7K62 GPU:RTX 3090 接入模型:...
openclaw部署与应用体验
openclaw部署与应用体验

OpenClaw 部署与初步体验

花了一天时间,我在一台闲置服务器上部署了 OpenClaw,主要是想验证朋友之前画的饼:它是否真的可以自动 clone GitHub 上的项目、配置环境,并自动运行对比实验。

系统配置

先简要介绍一下部署环境:

  • CPU:7K62
  • GPU:RTX 3090
  • 接入模型:朋友部署的 Qwen3.5-122B-A10B
  • OpenClaw 上下文长度设置:64K
  • 大模型原生上下文长度:128K

关于上下文长度这一块,朋友让我把 OpenClaw 设置成 64K。因为我本身不是做大模型方向的,对这里的原理和具体影响并不是特别理解,如果有理解不准确的地方,也欢迎大家指正。

部署完成之后,我是通过 QQ 机器人和它进行交互的。

实际使用过程

部署完成后,我大约和 OpenClaw 聊了 3 个小时,这里不计算它自己运行任务所花的时间。最终,它成功从 GitHub 上拉取了一个项目,完成了环境配置,并开始运行。

从整体体验来说,部署本身并不困难。只要 GPT 配合 CSDN,基本可以把安装过程完整协助下来。

使用感受

不过,真正让我有些无语的,是 OpenClaw 的问题解决过程,尤其是在环境配置阶段,表现比较令人汗颜。

另外,它在对话过程中还经常会进行上下文压缩。GPT 给出的解释是:

你的对话太长了,超过模型上下文限制,OpenClaw 自动重启会话。

所以,对于它最终给出的复现结果,我目前还是持观望态度。

当前结论

我的感受是,如果想直接用它来复现对比实验,这件事可能还是过于困难了。

OpenClaw 的能力,本质上还是取决于它接入的模型能力。而能力更强的模型,费用往往也更高。至于这件事到底值不值得,就不太好评价了。

1 个帖子 - 1 位参与者

阅读完整话题

来源: linux.do查看原文