默认使用OpenAI API

openclaw openclaw解答 3

我来为你详细说明AI小龙虾OpenClaw项目的环境变量设置方法。

默认使用OpenAI API-第1张图片-OpenClaw下载官网 - OpenClaw电脑版 | ai小龙虾

核心环境变量设置

必需配置(API密钥)

# 如果使用Azure OpenAI
export AZURE_OPENAI_API_KEY="your-azure-api-key"
export AZURE_OPENAI_ENDPOINT="https://your-resource.openai.azure.com"
export AZURE_OPENAI_API_VERSION="2023-12-01-preview"
# 如果使用其他支持的模型(如DeepSeek、通义千问等)
export DEEPSEEK_API_KEY="your-deepseek-api-key"
export QWEN_API_KEY="your-qwen-api-key"
export ANTHROPIC_API_KEY="your-claude-api-key"

模型选择配置

# 设置使用的模型(可选,有默认值)
export OPENCLAW_MODEL="gpt-4"  # 默认gpt-4-turbo-preview
export OPENCLAW_MODEL_NAME="gpt-4-turbo"  # 显示名称
# 对于本地模型
export OPENCLAW_LOCAL_MODEL_PATH="/path/to/your/model"
export OPENCLAW_LOCAL_MODEL_TYPE="llama"  # 或"qwen", "baichuan"等

代理和网络配置

# 如果需要使用代理
export HTTP_PROXY="http://127.0.0.1:7890"
export HTTPS_PROXY="http://127.0.0.1:7890"
export ALL_PROXY="socks5://127.0.0.1:7891"
# 超时设置
export OPENCLAW_TIMEOUT=30
export OPENCLAW_MAX_RETRIES=3

配置文件方式(推荐)

除了环境变量,还可以使用配置文件:

创建配置文件

在项目根目录创建 .env 文件:

# API配置
OPENAI_API_KEY=sk-your-key-here
OPENCLAW_MODEL=gpt-4-turbo-preview
# 代理配置(可选)
HTTP_PROXY=http://127.0.0.1:7890
HTTPS_PROXY=http://127.0.0.1:7890
# 本地模型配置(如果使用本地部署)
LOCAL_MODEL_ENABLED=false
LOCAL_MODEL_PATH=./models/your-model

或者创建 config.yaml

openclaw:
  api:
    provider: "openai"  # 或 "azure", "local"
    key: "${OPENAI_API_KEY}"
    model: "gpt-4-turbo"
  local:
    enabled: false
    model_path: "./models"
    device: "cuda"  # 或 "cpu"
  proxy:
    http: "http://127.0.0.1:7890"
    https: "http://127.0.0.1:7890"
  settings:
    temperature: 0.7
    max_tokens: 2000
    timeout: 30

使用方法示例

方式1:命令行直接设置

# 临时设置(仅当前会话有效)
export OPENAI_API_KEY="your-key"
python -m openclaw.cli
# 或者单条命令设置
OPENAI_API_KEY="your-key" python -m openclaw.cli

方式2:使用dotenv自动加载

# 在Python代码中
from dotenv import load_dotenv
import os
# 加载.env文件
load_dotenv()
# 使用环境变量
api_key = os.getenv("OPENAI_API_KEY")
model = os.getenv("OPENCLAW_MODEL", "gpt-4-turbo")  # 默认值

方式3:Docker环境配置

# Dockerfile
ENV OPENAI_API_KEY="your-key"
ENV OPENCLAW_MODEL="gpt-4"
# docker-compose.yml
version: '3'
services:
  openclaw:
    environment:
      - OPENAI_API_KEY=${OPENAI_API_KEY}
      - OPENCLAW_MODEL=gpt-4-turbo
    env_file:
      - .env

常用配置场景

场景1:使用本地模型

# 环境变量方式
export OPENCLAW_LOCAL_MODEL_ENABLED=true
export OPENCLAW_LOCAL_MODEL_PATH="/path/to/llama-model"
export OPENCLAW_LOCAL_DEVICE="cuda"  # GPU加速
# 或者配置文件
local:
  enabled: true
  model_path: "./models/llama-2-7b-chat"
  device: "cuda"
  load_in_8bit: true  # 8位量化节省显存

场景2:企业内网代理

# 公司内网环境
export HTTP_PROXY="http://proxy.company.com:8080"
export HTTPS_PROXY="http://proxy.company.com:8080"
export NO_PROXY="localhost,127.0.0.1,.internal"

场景3:多模型切换

# 快速切换不同模型
alias openclaw-gpt4='OPENCLAW_MODEL="gpt-4" python -m openclaw.cli'
alias openclaw-gpt35='OPENCLAW_MODEL="gpt-3.5-turbo" python -m openclaw.cli'
alias openclaw-local='OPENCLAW_LOCAL_MODEL_ENABLED=true python -m openclaw.cli'

验证配置是否生效

# 检查环境变量
echo $OPENAI_API_KEY
# 在Python中验证
python -c "import os; print('API Key exists:', 'OPENAI_API_KEY' in os.environ)"
# 运行测试命令
python -m openclaw.cli --version

注意事项

  1. 安全提醒

    • 不要将API密钥提交到代码仓库
    • 使用.gitignore忽略.env文件
    • 考虑使用密钥管理服务(如Vault、AWS Secrets Manager)
  2. 优先级顺序

    命令行参数 > 环境变量 > 配置文件 > 默认值
  3. 常见问题

    • 变量名拼写错误(注意大小写)
    • 路径使用绝对路径
    • 代理设置后需要重启终端

需要针对特定使用场景的详细配置说明吗?比如Azure OpenAI、本地模型部署或Docker部署?

标签: OpenAI API 关键词生成

抱歉,评论功能暂时关闭!