skill-distill
Skill Distill — 多 Skill 蒸馏合并
把 N 个功能重叠的 skill 合并为 1 个蒸馏版 skill。
与 rules extraction(a separate capability from ECC's rules-distill skill, not part of this repo)和 nclandrei/distill(sessions → skills)不同,本 skill 的输入和输出都是 skill:skills → skill。
Why Distill Instead of Copy
直接复制多个 skill 到一个大文件是最简单的做法,但会带来三个实际问题。
Tradeoff: 合并 vs 简单拼接
| 方式 | 优势 | 代价 |
|---|---|---|
| 简单拼接 | 零思考成本 | token 膨胀(重复内容 2-3x)、trigger 冲突、用户困惑 |
| 蒸馏合并 | 去重、消歧、体积可控 | 需要分析和人工确认冲突 |
Because 每个 skill 加载时消耗 context budget,3 个 200 行 skill(~600 行 / ~8k tokens)拼接后重复部分占 60%+,蒸馏为 1 个 ~250 行 skill 可节省 ~50% token 开销。
More from lanyasheng/auto-improvement-orchestrator-skill
improvement-gate
当执行完变更需要验证是否应保留、候选被标记 pending 需要人工审批、或想查看待审队列时使用。6 层机械门禁: Schema→Compile→Lint→Regression→Review→HumanReview,其中 Schema/Compile/Regression/Review 为阻塞层(失败即拒绝),Lint 和 HumanReview 为建议层(失败不阻塞但记录警告)。不用于打分(用 improvement-discriminator)或执行变更(用 improvement-executor)。
1prompt-hardening
硬化 agent prompt、system prompt、SOUL.md、AGENTS.md、cron prompt 使 LLM 可靠遵循指令。触发词:agent 不听话、忽略规则、绕过约束、prompt 优化、指令合规、规则强化、prompt 硬化、LLM 不遵守、模型违规、creative circumvention。Use when agent ignores rules, disobeys instructions, bypasses tool constraints, needs prompt optimization, instruction compliance improvement, or rule hardening. 不适用于代码生成、代码审查、测试编写等执行型任务。参见 improvement-orchestrator (用于 skill 质量改进)、code-review-enhanced (用于代码审查)。
1benchmark-store
当需要初始化基准数据库、对比 skill 评分与历史基线、查看 Pareto front 是否有维度回退、或查阅质量分级标准时使用。不用于给候选打分(用 improvement-discriminator)或自动改进(用 improvement-learner)。
1skill-forge
>
1improvement-evaluator
当需要验证 Skill 改进是否真正提升了 AI 执行效果时使用。通过预定义任务集(YAML)运行 AI 任务,判定 pass/fail,输出 execution_pass_rate。不用于文档结构评分(用 improvement-learner)或候选打分(用 improvement-discriminator)。
1improvement-learner
当需要检查 skill 质量评分、自动优化 SKILL.md 结构、追踪评估分数变化趋势、或「评分低了想知道哪里扣分」时使用。6维结构评估 + HOT/WARM/COLD 三层记忆 + Pareto front。不用于候选语义打分(用 improvement-discriminator)或全流程编排(用 improvement-orchestrator)。
1