AI小龙虾(OpenClaw)是基于Ollama框架的本地大语言模型助手,以下是详细的使用方法:

安装部署
安装Ollama
# Windows 访问官网 https://ollama.ai/download 下载安装包
拉取AI小龙虾模型
# 拉取基础模型 ollama pull openclaw # 或拉取特定版本 ollama pull openclaw:7b # 7B参数版本 ollama pull openclaw:13b # 13B参数版本
基础使用
命令行交互
# 启动对话 ollama run openclaw # 带参数运行 ollama run openclaw --verbose --temperature 0.7 # 一次性查询 ollama run openclaw "解释一下量子计算"
常用参数
--temperature 0.7:控制随机性(0-1)--top-p 0.9:核采样参数--seed 123:设置随机种子--num-predict 512:最大生成长度--verbose:显示详细日志
API调用
启动API服务
ollama serve # 服务默认运行在 http://localhost:11434
Python调用示例
import requests
import json
def query_openclaw(prompt):
response = requests.post(
'http://localhost:11434/api/generate',
json={
'model': 'openclaw',
'prompt': prompt,
'stream': False,
'options': {
'temperature': 0.7,
'top_p': 0.9
}
}
)
return response.json()['response']
# 使用
result = query_openclaw("你好,介绍一下自己")
print(result)
流式响应
import requests
response = requests.post(
'http://localhost:11434/api/generate',
json={
'model': 'openclaw',
'prompt': '写一首关于春天的诗',
'stream': True
},
stream=True
)
for line in response.iter_lines():
if line:
data = json.loads(line.decode('utf-8'))
print(data['response'], end='', flush=True)
高级功能
自定义模型配置
# 创建Modelfile cat > Modelfaw.modelfile << EOF FROM openclaw:7b # 设置系统提示词 PARAMETER system "你是一个专业的中文助手,回答要准确、详细。" # 调整参数 PARAMETER temperature 0.8 PARAMETER top_k 40 EOF # 创建自定义模型 ollama create openclaw-custom -f Modelfaw.modelfile # 运行自定义模型 ollama run openclaw-custom
模型管理
# 查看已安装模型 ollama list # 删除模型 ollama rm openclaw # 复制模型 ollama cp openclaw openclaw-backup # 查看模型信息 ollama show openclaw --modelfile
与LangChain集成
from langchain_community.llms import Ollama
from langchain.chains import LLMChain
from langchain.prompts import PromptTemplate
llm = Ollama(model="openclaw", temperature=0.7)
prompt = PromptTemplate(
input_variables=["topic"],
template="用中文详细解释{topic}的概念和应用场景。"
)
chain = LLMChain(llm=llm, prompt=prompt)
result = chain.run({"topic": "机器学习"})
print(result)
实用技巧
性能优化
# GPU加速(如果有NVIDIA GPU) ollama run openclaw --gpu-layers 20 # 限制内存使用 ollama run openclaw --num-threads 4 --main-gpu 0 # 量化版本(节省内存) ollama pull openclaw:7b-q4_0 # 4位量化
上下文管理
# 设置上下文长度 ollama run openclaw --num-ctx 4096 # 在对话中保持上下文 # 连续对话时会自动维护上下文窗口
系统资源监控
# 查看模型运行状态 ollama ps # 停止运行中的模型 ollama stop openclaw # 清理内存 ollama gc
故障排除
-
内存不足
- 使用量化版本:
openclaw:7b-q4_0 - 减少
--num-gpu-layers - 增加系统交换空间
- 使用量化版本:
-
速度慢
# 使用GPU加速 ollama run openclaw --gpu-layers 20 # 调整线程数 ollama run openclaw --num-threads 8
-
模型无法加载
# 重新拉取模型 ollama rm openclaw ollama pull openclaw # 检查磁盘空间 df -h
应用场景示例
# 1. 代码助手 ollama run openclaw "用Python实现快速排序算法" # 2. 写作助手 ollama run openclaw "帮我写一封求职信" # 3. 学习辅导 ollama run openclaw "解释相对论的基本原理" # 4. 创意写作 ollama run openclaw "写一个科幻短篇故事"
注意事项
- 硬件要求:7B版本建议至少8GB RAM,13B版本建议16GB RAM
- 首次运行:会自动下载模型文件(约4-8GB)
- 网络环境:需要良好的网络连接下载模型
- 更新检查:定期使用
ollama pull openclaw获取最新版本
建议查阅 Ollama 官方文档获取最新信息:https://github.com/ollama/ollama
版权声明:除非特别标注,否则均为本站原创文章,转载时请以链接形式注明文章出处。