OpenClaw
OpenClaw 是一个运行在您自己设备上的个人 AI 助手。它通过一个集中式网关,将消息服务(WhatsApp、Telegram、Slack、Discord、iMessage 等)桥接到 AI 编码代理。
快速开始
ollama launch openclaw
Ollama 会自动处理所有事项:
- 安装 — 如果 OpenClaw 未安装,Ollama 会提示通过 npm 安装它
- 安全 — 首次启动时,会显示安全通知,解释工具访问的风险
- 模型 — 从选择器中选择一个模型(本地或云端)
- 入门引导 — Ollama 会配置提供程序,安装网关守护程序,将您的模型设置为主要模型,并安装网络搜索和抓取插件
- 网关 — 在后台启动并打开 OpenClaw TUI
注意:OpenClaw 需要更大的上下文窗口。如果使用本地模型,建议使用至少 64k tokens 的上下文窗口。更多信息请参阅上下文长度文档。
注意:以前称为 Clawdbot。
ollama launch clawdbot仍然可以作为别名使用。
网络搜索和抓取
OpenClaw 附带网络搜索和抓取插件,使本地或云模型能够搜索网络并提取可读的页面内容。
ollama launch openclaw
通过 Ollama 启动 OpenClaw 时,网络搜索和抓取会自动启用。要直接安装插件:
openclaw plugins install @ollama/openclaw-web-search
注意:本地模型的网络搜索需要
ollama signin。
无需启动即可配置
要在不启动网关和 TUI 的情况下更改模型:
ollama launch openclaw --config
直接使用特定模型:
ollama launch openclaw --model kimi-k2.5:cloud
如果网关已经在运行,它会自动重启以使用新模型。
推荐模型
云端模型:
kimi-k2.5:cloud— 具有子代理的多模态推理minimax-m2.7:cloud— 快速、高效的编码和实际生产力glm-5:cloud— 推理和代码生成
本地模型:
glm-4.7-flash— 本地推理和代码生成(约 25 GB VRAM)
更多模型请访问 ollama.com/search。
非交互式(无头)模式
在 Docker、CI/CD 或脚本中运行 OpenClaw 而无需交互:
ollama launch openclaw --model kimi-k2.5:cloud --yes
--yes 标志会自动拉取模型,跳过选择器,并要求指定 --model。
连接消息应用
openclaw configure --section channels
链接 WhatsApp、Telegram、Slack、Discord 或 iMessage,从任何地方与您的本地模型聊天。
停止网关
openclaw gateway stop
阅读全文
