Transform Your AI Workflow: A 5‑Step Prompt System for Claude Opus 4.6
This article presents a five‑stage, recursive prompt engineering framework that turns isolated Claude Opus 4.6 prompts into a self‑diagnosing, continuously improving productivity engine, complete with audit, architecture, analysis, refinement, and compounding phases for real‑world automation.
In distributed system design, writing stateful business logic as stateless, isolated prompts wastes AI compute. With Claude Opus 4.6’s 1 M‑token context window and adaptive thinking, the author proposes a shift from "prompt engineering" to "agentic engineering" by linking five recursive prompts into a closed‑loop system.
The Five Recursive Nodes
Step 1 – Audit (THE AUDIT) : Identify tasks worth automating by scoring time cost and mental energy, then produce a four‑week implementation plan.
Step 2 – Architect (THE ARCHITECT) : Before building, the model acts as a solution architect, asking clarifying questions and delivering 2‑3 implementation paths with risk, effort, and tool recommendations.
Step 3 – Analyst (THE ANALYST) : Performs a detailed code or workflow review using embedded engineering standards, offering concrete trade‑offs, fixes, and optional solutions.
Step 4 – Refinery (THE REFINERY) : Runs a convergence loop – generate, score against custom criteria, diagnose weaknesses, rewrite, and repeat until all scores exceed 8/10 or improvement plateaus.
Step 5 – Compounder (THE COMPOUNDER) : A weekly review partner that evaluates what was automated, measures impact, records friction, suggests next targets, and updates a cumulative system map.
Prompt Templates
Audit Prompt
你是一位"生产力系统分析师"。你的专长:在特定工作流中识别杠杆率最高的自动化机会。
你的方法是诊断性的,而非指令性的。不要预设哪里需要修复,先调查。
请按以下流程操作:
第一阶段:探索
向我提出 4‑5 个针对性问题,关于我的工作和日常。关注点:
> 哪些任务每周或每天重复?
> 哪些任务我一直在拖延或感到厌烦?
> 哪些任务需要在工具之间切换上下文?
> 哪些任务相对于投入,产出的成果最多?
> 如果我有助理,我会把什么任务交给他?
保持对话感,一次提一个问题。针对听起来像瓶颈的地方深挖。
第二阶段:评分
根据我的回答创建任务清单。为每个任务从两个维度评分(1‑10分):
> 时间成本:每周花在该任务上的小时数。
> 精力消耗:该任务产生的心理负担。
自动化得分 = (时间成本 + 精力消耗) × 可行性评分(1.0 完全可自动化,0.7 部分可自动化,0.3 需人工判断)
按自动化得分从高到低排序。
第三阶段:4 周计划
构建一个渐进式自动化日历:
> 第 1 周:得分最高且设置最简单的任务(快速取胜)。
> 第 2‑4 周:其余任务中得分最高的依次实现。
每周需提供:具体要自动化的任务、最适合的工具、可执行的设置步骤、预计节省的时间、触发条件、处理流程和输出格式。
规则:针对我的具体情况,不要给出笼统的生产力建议;如有更合适的专用工具(Zapier、Apple 快捷指令、脚本等)请直接使用;先做最简单的可用版本,再逐步优化。Architect Prompt
你是一位专注于 AI 增强工作流的方案架构师。你的任务:在开始任何构建之前,创建一个清晰的实施蓝图。
步骤 1:问题定义 – 重述我的问题并提出 2‑3 个澄清问题(输出目标、约束、已有尝试)。
步骤 2:路径地图 – 提供 2‑3 种实现路径,说明方案、所需工具、预估时间、主要风险、复杂度评级。
步骤 3:实施蓝图 – 将选定路径拆分为不超过 4 个阶段,每阶段产出可测试成果并标记决策点与回滚方案。
步骤 4:依赖检查 – 列出所需账号、工具、数据、费用以及首个具体动作。
规则:始终先推行最简可用版本;解释所有技术细节;如想法过于复杂则建议更简化方案。Analyst Prompt
你是一位资深工程分析师。你的任务:像首席工程师在设计审查中那样审查我的代码(或自动化方案),提供权衡解释、带理由的修复建议,并在做假设前征求我的意见。
审查流程包括:
1. 架构扫描 – 系统设计、数据流、依赖健康度、扩展特性。
2. 代码质量 – 组织、可读性、DRY 违规、错误处理、技术债。
3. 可靠性检查 – 测试覆盖、断言质量、故障模式。
4. 性能扫描 – 不必要的调用、内存使用、缓存机会、潜在瓶颈。
针对每个问题提供 2‑3 个选项(含保持原样),说明工作量、风险、维护负担,推荐最佳方案并等待确认。Refinery Prompt
你将使用"收敛循环"来产出该任务的最高质量输出。
1. 生成:创建第一版。
2. 评分:依据自定义标准(1‑10 分)计算平均质量得分。
3. 诊断:对低于 8/10 的项识别具体弱点并给出修复计划。
4. 重写:应用修复方案生成第二版。
5. 重新评分:再次打分。
6. 收敛检查:若所有标准均 ≥8/10 或整体提升 <0.5,则停止;否则重复 3‑5。
7. 最终交付:输出最终版本、每项最终得分及变更记录。Compounder Prompt
你是我的"每周系统复盘伙伴"。复盘流程:
1. 进度检查 – 评估本周自动化是否真正节省时间、输出质量如何、出现的摩擦。
2. 摩擦记录 – 识别本周最烦躁的任务、时间浪费点、仍需手动的步骤。
3. 下周目标 – 基于审计和摩擦记录推荐下一个自动化任务并提出改进建议。
4. 模式识别 – 总结哪些自动化始终有效、哪些失败、发现规律。
5. 更新系统地图 – 维护活跃自动化清单、累计节省小时数、优先排序的下三项目标。
规则:诚实反馈、追踪累积影响、挑战错误假设、在相关时引用之前的复盘。Evaluation of Opus 4.6
The model’s adaptive thinking truly adjusts reasoning depth: simple queries return instantly, while complex, multi‑step problems trigger deep analysis. The 1 M‑token window enables feeding entire codebases to the Analyst prompt and maintaining weeks‑long review histories in the Compounder.
Strengths : Adaptive reasoning, large context window, sub‑agent orchestration.
Neutral : Standard writing, basic Q&A, simple content generation show little improvement.
Weaknesses : Creative writing can feel mechanical; token cost rises sharply beyond 200 K tokens.
Why the System Works
Isolated prompts act like disposable tools; linking them into a feedback loop creates a "digital factory" where each stage improves the next. The audit discovers high‑impact tasks, the architect plans them, the analyst enforces standards, the refinery polishes output, and the compounder captures learnings for future audits.
Suggested Weekly Cadence
Week 1 – Run the Audit prompt, pick four automation targets, complete the easiest.
Week 2 – Run the Architect prompt on the second target and start building.
Week 3 – Use the Analyst prompt to review the first two weeks’ work and fix issues.
Week 4 – Apply the Refinery prompt to the most important output for quality boost.
Week 5 – Run the Compounder prompt, recap, and plan the next month.
Automating one task per week yields twelve workflows in three months, dramatically changing personal productivity.
Core Takeaway
AI productivity is less about finding the perfect prompt and more about constructing a closed‑loop system that compounds over time, regardless of the underlying model.
High Availability Architecture
Official account for High Availability Architecture.
How this landed with the community
Was this worth your time?
0 Comments
Thoughtful readers leave field notes, pushback, and hard-won operational detail here.
