OpenClaw - Ollama 集成

0 / 7

OpenClaw

OpenClaw 是一个运行在您自己设备上的个人 AI 助手。它通过一个集中式网关,将消息服务(WhatsApp、Telegram、Slack、Discord、iMessage 等)桥接到 AI 编码代理。

快速开始

ollama launch openclaw

Ollama 会自动处理所有事项:

  1. 安装 — 如果 OpenClaw 未安装,Ollama 会提示通过 npm 安装它
  2. 安全 — 首次启动时,会显示安全通知,解释工具访问的风险
  3. 模型 — 从选择器中选择一个模型(本地或云端)
  4. 入门引导 — Ollama 会配置提供程序,安装网关守护程序,将您的模型设置为主要模型,并安装网络搜索和抓取插件
  5. 网关 — 在后台启动并打开 OpenClaw TUI

注意:OpenClaw 需要更大的上下文窗口。如果使用本地模型,建议使用至少 64k tokens 的上下文窗口。更多信息请参阅上下文长度文档。

注意:以前称为 Clawdbot。ollama launch clawdbot 仍然可以作为别名使用。

网络搜索和抓取

OpenClaw 附带网络搜索和抓取插件,使本地或云模型能够搜索网络并提取可读的页面内容。

ollama launch openclaw

通过 Ollama 启动 OpenClaw 时,网络搜索和抓取会自动启用。要直接安装插件:

openclaw plugins install @ollama/openclaw-web-search

注意:本地模型的网络搜索需要 ollama signin

无需启动即可配置

要在不启动网关和 TUI 的情况下更改模型:

ollama launch openclaw --config

直接使用特定模型:

ollama launch openclaw --model kimi-k2.5:cloud

如果网关已经在运行,它会自动重启以使用新模型。

推荐模型

云端模型

  • kimi-k2.5:cloud — 具有子代理的多模态推理
  • minimax-m2.7:cloud — 快速、高效的编码和实际生产力
  • glm-5:cloud — 推理和代码生成

本地模型

  • glm-4.7-flash — 本地推理和代码生成(约 25 GB VRAM)

更多模型请访问 ollama.com/search。

非交互式(无头)模式

在 Docker、CI/CD 或脚本中运行 OpenClaw 而无需交互:

ollama launch openclaw --model kimi-k2.5:cloud --yes

--yes 标志会自动拉取模型,跳过选择器,并要求指定 --model

连接消息应用

openclaw configure --section channels

链接 WhatsApp、Telegram、Slack、Discord 或 iMessage,从任何地方与您的本地模型聊天。

停止网关

openclaw gateway stop
阅读全文