核心概念
在开始使用前,了解几个核心概念:

- 控制台 (Console): Web用户界面,是操作和监控的主要入口。
- 模型服务 (Model Services): 集成的各种AI模型,如大语言模型(ChatGPT/GLM等)、图像生成模型(Stable Diffusion)、图像识别模型等。
- 工作流 (Workflow): 通过可视化或代码方式,将多个模型和服务按逻辑顺序连接起来,完成一个多步骤的自动化任务。
- 技能/插件 (Skills/Plugins): 扩展OpenClaw功能的模块,例如联网搜索、读取文件、调用API等。
基础使用步骤
第一步:部署与启动
- 获取OpenClaw: 通常从其GitHub仓库克隆代码或下载发行版。
- 环境配置: 根据官方文档,安装必要的依赖(如Python, Docker, Node.js等)。
- 配置模型密钥: 在配置文件(如
.env或config.yaml)中,填入你需要使用的AI服务API密钥(例如OpenAI API Key、智谱AI Key等)。 - 启动服务: 运行启动命令,通常会同时启动后端服务器和前端控制台。
# 常见示例 docker-compose up -d # 或 python app/main.py
- 访问控制台: 在浏览器中打开提示的地址(通常是
http://localhost:3000或类似)。
第二步:核心功能初探(通过控制台)
直接对话 (Chat)
- 这是最基本的功能。
- 在控制台的聊天界面,选择你想要对话的模型(如GPT-4、Claude、GLM-4等)。
- 在输入框中提问,即可获得该模型的直接回答,这是测试模型连接是否正常的最快方式。
创建并使用工作流 (Workflow) 这是OpenClaw的精华所在。
- 创建工作流: 在“工作流”或“设计器”板块,点击“新建”。
- 可视化编排:
- 从左侧的节点库中,拖拽需要的节点到画布上,常见的节点类型包括:
- 输入节点: 接收用户问题或初始数据。
- LLM节点: 调用一个大语言模型。
- 图像生成节点: 调用文生图模型。
- 条件判断节点: 根据上一步结果决定流程走向。
- 代码执行节点: 执行Python等脚本处理数据。
- 输出节点: 将最终结果返回给用户。
- 用连接线将节点的输出端口与输入端口相连,定义数据流向。
- 从左侧的节点库中,拖拽需要的节点到画布上,常见的节点类型包括:
- 配置节点参数: 点击每个节点,在右侧面板配置具体参数,在LLM节点中选择具体模型、设定系统提示词;在图像生成节点中设定尺寸、风格等。
- 保存与运行: 保存工作流,点击“运行”按钮,你可以在界面上看到数据在各个节点间流动的实时状态和中间结果。
- 示例工作流(简易内容创作):
用户输入->LLM节点(生成绘画提示词)->图像生成节点(根据提示词作画)->输出节点(显示图片)
管理技能/插件 (Skills)
- 在“技能”或“插件”管理页面,查看系统已集成的功能。
- 启用“网页搜索”技能后,你就可以在工作流的LLM节点中,为其添加“联网搜索”的能力,让AI能获取最新信息。
第三步:进阶使用
多模态任务处理 利用工作流,可以轻松串联多模态模型。
- 示例:分析图片并生成描述诗。
图像上传节点->视觉理解模型节点(描述图片内容)->LLM节点(根据描述写一首诗)->输出节点
API调用 OpenClaw通常提供RESTful API,允许你将创建好的工作流集成到自己的应用程序中。
- 在控制台中找到工作流的API端点。
- 使用
curl、Python的requests库或任何HTTP客户端,向该端点发送请求(包含必要的输入参数),即可获取结果。
交互式调试与提示词工程
- 在工作流运行过程中,你可以查看每个LLM节点的输入提示词和输出结果。
- 这方便你进行迭代和调试,优化提示词以获得更精准的输出。
快速入门示例:创建一个“AI绘画助手”工作流
- 目标: 用户输入一个简单的想法(如“一只在星空下弹吉他的猫”),AI自动润色为精美的绘画提示词,并生成图片。
- 步骤:
- 在OpenClaw控制台打开工作流设计器。
- 拖入一个
用户输入节点。 - 拖入一个
LLM节点,连接到输入节点,在LLM配置中:- 选择模型(如GPT-4)。
- 系统提示词设为:“你是一个专业的绘画提示词工程师,请将用户简单的想法,扩展成一段详细、富含艺术风格关键词(如‘赛博朋克’、‘梵高风格’、‘4K高清’)的英文提示词。”
- 拖入一个
图像生成节点(如调用Stable Diffusion API),连接到LLM节点,将LLM的输出作为该节点的“正向提示词”。 - 拖入一个
输出节点,连接到图像生成节点,用于显示最终图片。
- 运行: 保存工作流,在输入节点输入“一只在星空下弹吉他的猫”,点击运行,你会看到LLM生成的一段详细英文提示词,随后一张符合描述的图片被生成并展示出来。
注意事项与常见问题
- API费用: OpenClaw本身通常是开源/免费的,但调用第三方AI模型(如OpenAI、Midjourney)会产生API费用,请注意管理你的密钥和使用量。
- 网络与代理: 确保部署OpenClaw的服务器可以稳定访问你所需的AI服务API。
- 查看日志: 遇到问题时,首先查看OpenClaw后端服务的日志输出,里面通常有详细的错误信息。
- 社区支持: 对于具体部署和功能问题,最好的方法是查阅项目的 官方文档 和 GitHub Issues。
OpenClaw的基础使用流程可以概括为:部署启动 -> 在控制台通过聊天测试模型 -> 使用可视化工作流编排器连接不同AI模块 -> 运行并迭代你的自动化AI任务。 它极大地降低了组合使用多种AI能力的门槛。
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。