OpenCode 是一个强大的终端式 AI 编程助手,支持多种大模型(Claude、Gemini、GPT、GLM 等),能在本地项目中直接读写代码、执行命令、调试问题。
Oh My OpenCode(简称 OMO)是其最强插件,把单个模型升级为“多代理协作团队”:Oracle(架构师)、librarian(代码库专家)、frontend、backend 等角色并行工作,自动调度任务、深度探索代码库。
本教程假设你已完成安装与基本配置,直接聚焦高级提示词 与高效玩法 ,帮助你把生产力提升到极致。
1. 基本命令快速回顾(前提)
OpenCode 交互方式:
- 直接输入自然语言需求 → AI 自动读项目、生成/修改代码
- 斜杠命令(/ 开头):
/edit <文件>:精准编辑文件/run <命令>:执行终端命令/test:运行测试套件/undo:撤销上一步操作/clear:清空上下文/diff:查看最近改动
OMO 扩展后,所有高级能力主要通过提示词触发 ,不需要额外命令行参数。
2. 核心高级提示词详解
2.1 ulw(UltraWork 模式)—— 日常最常用、性价比最高的开挂指令
核心机制 :
在提示词中加入 ulw(或 ultrawork),OMO 会自动激活全部增强功能:
- 多代理并行(Oracle 规划 → librarian 分析现有代码 → 专业角色实现)
- 深度工具链(LSP 静态分析、AST 解析、MCP 多文件上下文)
- 子任务智能拆分与调度
- 自动验证与迭代
基础用法 :
ulw 请实现用户认证系统:注册、登录、JWT、刷新令牌、权限控制,集成到现有 Express 项目。
进阶技巧 :
- 指定优先级与角色分配
ulw UI 部分优先交给视觉/交互专家,优先级最高;后端逻辑交给 backend 代理;整体架构先让 oracle 评审。 请实现一个实时仪表盘,支持 WebSocket 更新、ECharts 图表、深色模式。 - 强制深度代码库探索
ulw 先全面分析整个代码库的现有模式和痛点,再重构所有 API 路由为 RESTful 标准,消除重复代码。 - 批量清理与优化
ulw 移除所有 console.log、dead code、未使用 import/variables;统一代码风格(Prettier + ESLint);性能优化所有慢查询。 - 新项目从零搭建
ulw 创建一个完整的 SaaS 模板:Next.js 14 App Router + Prisma + PostgreSQL + NextAuth + Tailwind + Shadcn/ui,支持多租户和订阅支付(Stripe)。 - 结合工具链
ulw 先运行 npm test 收集失败案例,再针对性修复所有单元测试和集成测试,确保覆盖率 >90%。
为什么 ulw 这么强 :
普通提示是单模型线性思考,容易遗漏边缘 case 或与现有代码冲突。ulw 开启多代理并行,librarian 会持续引用项目历史,Oracle 会提前识别风险,整体质量和速度提升 3-5 倍。
使用建议 :
- 小任务(如改一个组件)不需要 ulw
- 中大型任务(新功能、重构、跨模块)必须加 ulw
- token 消耗会增加 2-4 倍,建议把高耗模型(如 Sonnet)留给关键代理
2.2 ralph-loop(自主无限迭代循环)—— 追求完美时的终极武器
核心机制 :
AI 会反复执行任务 → 自检 → 修复 → 再执行,直到满足完成条件或达到最大次数。适合需要“死磕到底”的场景。
触发格式 :
/ralph-loop "任务描述(建议先加 ulw 增强)" --max-iterations N --completion-promise "停止条件"
参数详解 :
--max-iterations:安全阀,推荐 10-30--completion-promise:关键!必须是 AI 输出中能明确检测的短语
实战示例 :
- 修复遗留 bug
ulw /ralph-loop "修复所有已知的生产 bug(参考 ISSUE 列表),所有测试必须通过" --max-iterations 20 --completion-promise "所有测试通过且无新错误" - 性能优化
ulw /ralph-loop "优化首页加载时间到 <1.5s(Lighthouse 分数 >95)" --max-iterations 25 --completion-promise "Lighthouse 性能分 >95" - 大型迁移
ulw /ralph-loop "将整个项目从 Redux 迁移到 Zustand,所有功能保持一致" --max-iterations 30 --completion-promise "所有 e2e 测试通过且无状态丢失" - 算法死磕
ulw /ralph-loop "实现一个 O(n log n) 的顶部 K 频繁元素算法,通过所有 leetcode 风格测试用例" --max-iterations 15 --completion-promise "所有测试用例通过"
高级玩法 :
- 嵌套 ulw + ralph-loop:先 ulw 规划,再进入 ralph-loop 执行
- 中途干预:在终端看到进度不满意时 Ctrl+C 停止,调整提示后重启
- 结合实际运行:循环中让 AI 自动
/run npm run build检查是否成功
风险控制 :
- 容易消耗大量 token,建议先小范围测试(max-iterations 5)
- completion-promise 要写得精准、可检测,避免无限循环
2.3 其他高级提示词技巧
- 直接@调用特定代理
@oracle 请先设计整体微服务架构图和数据库 schema @librarian 请搜索项目中所有与支付相关的代码,总结现有逻辑和潜在风险 @frontend 请实现一个现代的响应式侧边栏,支持折叠和动态路由 - 后台并行任务 (不阻塞主对话)
ulw background: 持续监控代码库变化,自动生成更新后的架构文档 ulw background: 分析所有第三方依赖,列出过时/有安全漏洞的包并建议升级路径 - 链式任务(分阶段)
ulw 第一阶段:只规划和输出详细实现计划(不修改代码) ulw 第二阶段:根据计划逐步实现,每步完成后等待我确认 - 强制思考链
在任何复杂提示前加:请严格遵守:1. 先全面分析现有代码 2. 输出详细计划 3. 分步执行 4. 每步完成后运行测试验证 - 多模型协同优化
在 oh-my-opencode.json 中:- Oracle 用 Claude-3.5-Sonnet(强推理)
- librarian 用 Gemini-1.5-Pro(超长上下文)
- 代码生成用 GPT-4o 或 o1(速度快)
3. 更多高效玩法与场景
- 每日代码审查流程
早上输入:ulw 审查昨天的所有 git commit,指出潜在 bug、性能问题、风格不一致,并自动修复低风险项 - 文档自动同步
ulw 每次代码变更后,自动更新 README、API 文档、架构图(用 mermaid) - 探索性研发
ulw 并行探索三种技术方案:A. 使用 tRPC B. 使用 GraphQL C. 使用 REST + Zod,请分别实现最小可运行原型并对比优劣 - 一对多代码生成
ulw 为以下 10 个组件生成统一风格的实现:Button, Card, Modal, Table... - 与 Git 深度集成
ulw 根据 feat: 新增用户仪表盘 的 commit message,自动生成 PR 描述、变更日志、迁移指南
4. 常见问题与优化建议
- 输出卡住 :加“一步一步思考,出错时立即报告”或重启对话
- token 超支 :优先用 Gemini 做 librarian;复杂任务分阶段执行
- 代理不听话 :在提示中明确“严格按照我的指令,不得自行添加功能”
- 想加新代理 :在 oh-my-opencode.json 添加,如 "tester":
- 保持上下文 :大项目建议用
/clear前备份重要对话
掌握 ulw + ralph-loop + @代理调用,你就真正把 OpenCode + OMO 用到了极致。很多开发者反馈:复杂功能从几天缩短到几小时,重构从一周变成一晚。
OpenCode + Oh My OpenCode 实战案例大全
以下是更多真实开发场景下的实战案例,覆盖前端、后端、全栈、重构、调试、优化、文档、探索性研发等常见需求。每个案例都给出具体提示词 、推荐触发方式 (ulw / ralph-loop / @代理等)、预期效果 以及为什么高效 。
这些案例都基于实际开发者反馈整理,复制提示词直接粘贴到 OpenCode 对话中使用即可。建议复杂案例必加 ulw,追求完美时再套 ralph-loop。
1. 前端组件库快速迭代
场景 :你正在用 Shadcn/ui 搭建组件库,想一次性生成 8 个常用组件,并统一风格、支持暗黑模式、无障碍。
推荐提示词 :
ulw 为以下组件生成完整实现,使用 Shadcn/ui + Tailwind + Radix,确保风格一致、响应式、支持暗黑模式和键盘导航(a11y):
1. Accordion
2. Tabs
3. Dropdown Menu
4. Tooltip
5. Dialog
6. Sheet (侧边抽屉)
7. Toast
8. Command Palette
每个组件都要提供示例用法和 Storybook 故事。
为什么高效 :ulw 会自动把 UI 任务分配给 frontend 代理,librarian 参考现有 Shad
