Openclaw配置ollama本地模型教学
OpenClaw(前身为 Clawdbot)是一款开源的自主智能体(Autonomous Agent)框架,其核心价值在于通过本地网关(Gateway)将通讯软件与 AI 模型相连。配合 Ollama 运行,可实现 100% 的本地推理,在保障数据隐私的前提下,赋予 AI 操控本地系统及应用的能力。
本文大纲
-
🦙 Ollama 环境预检:拉取适配 Agent 任务的高性能本地模型
-
📦 OpenClaw 核心安装:快速部署网关与 CLI 交互环境
-
⚙️ 本地提供商配置:建立 OpenClaw 与本地模型的通信链路
-
🚦 服务启动与校验:联通测试与自动化任务的初步运行

1. Ollama 环境预检 🦙
在配置 OpenClaw 之前,必须确保本地模型具备较强的指令遵循及**工具调用(Tool Use)**能力。
-
模型选择:建议使用上下文窗口在 64k 以上的模型。推荐
qwen3-coder或glm-4.7。 -
拉取模型:在终端执行以下命令:
ollama pull qwen3-coder:7b -
端口验证:确保 Ollama 服务在默认端口
11434运行。
![]()
-
变量关系:模型的智力(参数量)直接影响 Agent 在执行复杂 Shell 指令时的逻辑正确率。
2. OpenClaw 核心安装 📦
OpenClaw 的安装现已简化为一键式脚本。
-
执行安装:
![]()
-
环境初始化:安装完成后运行
openclaw onboard。此过程会引导你选择通讯频道(如 Telegram 或 Discord)并生成本地配置文件。 -
关键位置:配置文件默认存储在
~/.openclaw/config.yaml或openclaw.json中。
3. 本地提供商配置 ⚙️
这是打通两者连接的关键步骤,旨在让 OpenClaw 的网关(Gateway)识别到本地运行的 Ollama。
-
自动识别(2026 新特性):
在启动终端设置环境变量,OpenClaw 会自动检测本地 Ollama 实例:
export OLLAMA_API_KEY="ollama-local" -
手动配置路径:
若需手动指定,可在配置文件中修改
models.providers模块:JSON"ollama": { "endpoint": "http://127.0.0.1:11434", "models": ["qwen3-coder:7b"], "api": "openai-chat" } -
技术说明:必须将
api类型设为openai-chat,因为 OpenClaw 依赖该接口协议进行复杂的 Tool Call 解析。
4. 服务启动与校验 🚦
完成配置后,即可启动网关并观察日志输出。
-
启动命令:
ollama launch openclaw -
状态检查:
网关启动后会占用
18789端口。访问http://localhost:18789/status确认model_provider是否已正确显示为ollama。 -
联通性测试:
在已绑定的通讯软件中发送
Hello, list files in my Desktop。如果 Agent 能成功调用本地 Shell 并返回文件列表,说明链路已完全闭环。
总结
OpenClaw 与 Ollama 的集成实现了“私有大脑+本地手脚”的协作模式。 通过配置环境变量 OLLAMA_API_KEY 或修改本地 JSON 配置文件,可将 OpenClaw 的推理请求定向至 11434 端口。配置的核心脆弱点在于模型的工具调用能力,建议优先使用针对 Codegen 优化的模型版本。
你想了解如何针对本地特定的业务软件(如 飞书 或 钉钉)实现远程互动吗?下载实在Agent,会有专属客服为你演示和分享,实现远程无感办公和加班,让企业效率提升,7x24小时随叫随到。
openclaw中文社区有哪些
速卖通一键上传产品怎么弄?跨境电商高效上货方案深度解析
速卖通批量上传产品会降低权重吗?解析跨境上货的效率与合规平衡点
类似openclaw的项目有哪些?企业级中国版"openclaw"推荐

