核心概念
OpenClawWebUI 是基于 LLaMA-Factory 开发的 Web 图形界面,它将复杂的命令行操作转化为可视化的点击和表单填写,极大地降低了使用门槛,您可以:

- 微调模型:使用自己的数据,定制化训练大语言模型。
- 模型评估:使用标准数据集测试模型性能。
- 模型合并:合并多个模型权重。
- 对话测试:与训练好的模型进行实时对话。
其后台逻辑和配置与 LLaMA-Factory 完全兼容。
详细使用步骤
第一步:环境准备
这是最关键的一步,确保环境正确可以避免后续大量错误。
-
获取代码:
git clone https://github.com/CrazyBoyM/OpenClawWebUI.git cd OpenClawWebUI
-
创建并激活虚拟环境(强烈推荐):
# 使用 conda conda create -n openclaw python=3.10 conda activate openclaw # 或使用 venv python -m venv venv # Linux/Mac: source venv/bin/activate # Windows: .\venv\Scripts\activate
-
安装依赖:
pip install -r requirements.txt
- 注意:根据您的CUDA版本,可能需要手动安装对应版本的
torch,可访问 PyTorch官网 获取安装命令,对于CUDA 11.8:pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
- 注意:根据您的CUDA版本,可能需要手动安装对应版本的
-
安装前端依赖(如果需要本地开发或修改UI):
cd frontend npm install
第二步:启动WebUI服务
-
返回项目根目录,运行启动脚本:
cd OpenClawWebUI python src/open_claw_webui.py
或直接运行:
python open_claw_webui.py
(具体启动文件请参考项目
README) -
启动成功后,控制台会显示访问地址,通常是:
Running on local URL: http://127.0.0.1:7860注意:首次启动可能会自动下载一些必要的模型和数据集,需要一定时间和网络环境。
第三步:主要功能模块使用指南(Web界面)
打开浏览器访问提示的URL(如 http://127.0.0.1:7860),您会看到类似下图的界面,主要分为以下几个核心区域:
flowchart TD
A[OpenClawWebUI 主界面] --> B
subgraph B[左侧功能导航栏]
B1["<b>模型训练</b><br>(核心模块)"]
B2["模型评测"]
B3["<b>模型合并</b>"]
B4["<b>模型对话</b><br>(Chat / 推理)"]
end
B1 --> C[参数配置面板]
C --> D[训练流程<br>(关键参数示例)]
subgraph D
direction LR
D1["模型路径: /models/Qwen2.5-7B"]
D2["训练方法: LoRA"]
D3["数据集: alpaca-gpt4-zh"]
end
B4 --> E[对话界面]
E --> F[输入消息<br>“你好,请介绍下自己”]
下面我们对几个核心模块进行说明:
模型训练 这是最常用的模块。
- 模型路径:选择或输入您要训练的基础模型的本地路径(如
/models/Qwen2.5-7B),模型需提前下载好。 - 训练方法:常用的是 LoRA 或 QLoRA,它们参数少、显存要求低,全参数训练(Full)需要大量资源。
- 数据集:选择预置数据集(如
alpaca-gpt4-zh)或加载自己的数据集,自定义数据需按LLaMA-Factory格式准备(通常是JSON)。 - 训练参数:
Epochs:训练轮数。Learning Rate:学习率,如2e-4。Batch Size:根据显存调整。LoRA Rank:LoRA的秩,通常为8、16、32,影响参数量和能力。
- 开始训练:配置好后,点击“开始训练”,可以在“训练状态”或控制台查看进度和损失曲线。
模型对话 用于与训练好的模型进行交互测试。
- 模型列表:选择您训练后生成的适配器模型(位于
./saves目录下)或任何加载好的基础模型。 - 加载模型:点击“加载模型”将模型读入显存。
- 对话区域:在下方输入框提问,模型会生成回复,您可以调整“温度”、“重复惩罚”等参数控制生成效果。
模型合并
如果您使用LoRA等参数高效方法训练,训练产出的是适配器权重(一堆.bin或.safetensors文件),这个功能可以将适配器权重与基础模型合并成一个完整的、可独立分发的新模型文件。
- 基础模型路径:原始模型。
- 适配器路径:训练保存的LoRA权重文件夹。
- 输出路径:指定合并后模型的保存位置。
模型评测 使用标准Benchmark(如 MMLU, C-Eval)对模型能力进行量化评估,选择模型和评测集后即可运行。
关键技巧与注意事项
- 数据准备:成功的关键,确保您的数据格式正确,参考LLaMA-Factory的
data/目录下的示例文件,通常需要instruction(指令)、input(可选输入)、output(输出)三个字段。 - 资源监控:训练时使用
nvidia-smi命令监控GPU显存使用,如果显存不足,可以减小batch_size,使用QLoRA方法,或开启梯度检查点。 - 参数起点:如果不确定超参数,从默认值或社区推荐的配置开始(LoRA学习率
2e-4, rank=8),不要一开始就随意调整。 - 检查点:训练中途会保存检查点,如果训练中断,可以从检查点恢复,避免从头开始。
- 常见问题:
- 端口占用:修改启动脚本中的
server_port参数。 - 模块未找到:检查虚拟环境是否激活,依赖是否安装完整。
- CUDA内存不足:减小批次大小,使用更低精度的模型,或使用QLoRA。
- 下载错误:对于需要从Hugging Face下载的模型,确保网络通畅,或提前手动下载到本地。
- 端口占用:修改启动脚本中的
学习路径建议
- 快速体验:使用预置的
alpaca-gpt4-zh数据集和Qwen2.5-7B之类的模型,用 LoRA 方法快速跑通一个训练流程。 - 深入理解:阅读 LLaMA-Factory 的官方文档,理解其背后的配置文件和命令行参数,这能帮助您更好地使用WebUI。
- 实战定制:准备自己的业务数据,进行微调,并在对话界面测试效果,迭代优化。
希望这份指南能帮助您顺利上手 AI小龙虾OpenClawWebUI!祝您训练出满意的模型!