OpenClaw本地模型:Ollama集成指南
为什么要用本地模型?
隐私保护、无API费用、离线可用、完全控制——这就是本地模型的魅力。
Ollama简介
Ollama是最流行的本地大模型运行工具。它支持Llama、Mistral、Qwen等开源模型,安装简单,使用方便。
安装Ollama
访问ollama.ai下载安装,然后运行ollama pull llama3下载模型。
配置OpenClaw
在openclaw.json中配置Ollama:baseUrl设为http://localhost:11434,model设为要使用的模型名。
我的本地模型选择
日常使用Llama 3 8B,复杂任务用Llama 3 70B,中文场景用Qwen。
性能考虑
本地模型需要足够的内存和显卡资源。8B模型需要约8GB显存,70B模型需要更多。
总结
Ollama让OpenClaw能在本地运行,保护隐私的同时节省API成本。
