OpenClaw本地模型:Ollama集成指南

为什么要用本地模型?

隐私保护、无API费用、离线可用、完全控制——这就是本地模型的魅力。

Ollama简介

Ollama是最流行的本地大模型运行工具。它支持Llama、Mistral、Qwen等开源模型,安装简单,使用方便。

安装Ollama

访问ollama.ai下载安装,然后运行ollama pull llama3下载模型。

配置OpenClaw

在openclaw.json中配置Ollama:baseUrl设为http://localhost:11434,model设为要使用的模型名。

我的本地模型选择

日常使用Llama 3 8B,复杂任务用Llama 3 70B,中文场景用Qwen。

性能考虑

本地模型需要足够的内存和显卡资源。8B模型需要约8GB显存,70B模型需要更多。

总结

Ollama让OpenClaw能在本地运行,保护隐私的同时节省API成本。

评论
暂无评论