Skill Factory:三天手搓面向Harness设计的技能工厂(附AI coding实践)

简介: 文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。

一、出发点

最近深度体验了一把从产品设计、UI/UX,到前后端开发,再到核心算法落地的全流程闭环。目前终于成功把流程 Run 起来,虽然在高并发处理和算法精度上还有不少待优化点,但这次实践让我对系统架构的全局把控有了更立体的认知。


先说出发点为什么要做这样一个事情,目前做一个skill的方式主要有两种,一种是人工编写skill,一种是在openclaw,Claudcode上通过对话不断交互生成skill,先说这两种方式可能会有什么问题,模式一人工编写受限于个人经验与精力,存在效率比较低,质量波动大,测试覆盖不足等瓶颈,并且可能对于团队来说容易在原子通用逻辑上重复造轮子;模式二虽提升了编码速度,但本质仍是非确定性的探索过程,缺乏自动化验证闭环与工程化约束,且一次只能生成一版,需要多轮交互才能生成一个较为稳定版本。因此面向Harness设计的技能工厂的想法就油然而生了。


二、产品功能

生产模式——标准化测试驱动技能生成

技能定义

首先用户可以输入自己想生成的技能,测试问题,和API接口,(后面也会支持挂载sop文档,之前做过像维修类场景会有一些标准化流程类操作,可行性上来说搭配对应的接口api是可以直接转化成skill的)。

基线诊断

首先判断是否有必要生成,是否直接用大模型就可以回答问题了又或者直接复用现有的skill就可以回答问题,为了回答这两个问题,构建了两个评估模块

  • 裸模型评估:直接让模型执行目标任务,作为基线对照。
  • skill匹配分析:召回相似skill,执行用户输入的测试问题,评估现有技能是否满足用户需求

如果不能解决或者不匹配这些失败点和不确定行为,本质上就是 Skill 需要解决的真实能力缺口

测试构建

目前测试构建主要是对用户之前输入的测试问题进行复用。

多路并发skill生成

之前调研anthropic,openclaw都有skill-creator—专门用于生成技能的skill,最近又看到一个专门为 Claude、Cursor、Codex 等 AI 编程助手设计的结构化工作流框架superpowers,github上138k个star。里面也有专门写skill的writing-skills技能,试用了一下感觉比较快并且执行writing-skills生成的技能react的次数会变少。很难讲用基于哪一种基础的skill-creator写出来的skill的效果最好并且这个环节中可能存在一些不稳定因素,LLM执行生成本身具有一定随机性,因此通过并行调用 3 种不同策略(或不同模型/不同 Prompt 模板)的 Creator,相当于一次性买了三张不同号码的彩票。结果:只要其中一路生成了高质量代码,整个任务就算成功。这极大地提高了首次生成成功率 (First-Time Pass Rate),避免了因单一路径失败而导致的反复重试和用户等待。

回归迭代

目前为了保证整个流程的效率只做了单轮的测试+优化。

  • 测试阶段

用户可以选上一阶段的某个版本或者所有版本进行测试,从格式规范,复用创新,功能可用性,运行稳定性,文档规范几个维度进行评价打分,然后发现一些可以优化的地方,比如测试的生成的一个skill和其它skill有功能重复的地方就可能导致复用创新性偏低。

  • 优化阶段

生成优化版本skill,可以下载或者发布。

质量检查

三、生态适配

除了上面提到的测试驱动技能生成,还对知流平台进行了适配,可以基于知流上面的MCP,http,dify agent工具直接生产技能。


四、迭代方向

统一入口

对背后分析迭代流程进行封装只呈现给用户结果和分析结论,允许用户一开始选择不同的分析生成模式。

基于trace的skill机会挖掘—>规模化生产+筛选

看了千问团队的一篇文章Distill Trajectory-Local Lessons into Transferable Agent Skills,Trace2Skill 的本质是将智能体的“隐性经验”(大量具体的执行轨迹)转化为“显性知识”(结构化的技能文档)。这种方法证明了,高质量的技能不需要依赖昂贵的人工编写,也不需要更新模型参数,仅通过开源的小模型进行轨迹分析,就能提炼出通用的专家级能力。因此我们也有机会基于我们的一些日志数据沉淀出可固定的技能,感觉也有利于agent如何稳定执行长程任务

功能优化

目前有一些节点的功能还是需要进一步优化完善的,比如像回归迭代,目前只是用测试-优化-测试这种流程进行回归,但是比如像SkillRL 也是把智能体与环境交互产生的冗长轨迹蒸馏成紧凑、可复用的"技能卡片",并在强化学习训练过程中让技能库与策略共同进化。再比如在这个“回归”的过程中我们可以融入更多的信息,用户信息,历史数据等等进行优化,还有就是对不能实际执行的技能的回归,这种情况是否有必要模拟一个虚拟环境让agent进行测试回归。

五、AI coding实践

在开发过程中主要用了以下产品帮忙设计和开发,idealab,Qoderwork,爱码仕,灵码aonecopilot等编程插件。

AI工具角色

  • idealab和Qoderwork帮忙基于自己的想法做了一些产品功能页面的详细设计;
  • 爱码仕主要负责前端页面生成;
  • 灵码aonecopilot等编程插件 主要帮忙debug或者一些优化,还有基于想法生成整体编码框架demo,自己补充修改细节;

参考

https://docs.trae.cn/ide/best-practice-for-how-to-write-a-good-skill#84407221

https://github.com/anthropics/skills

https://github.com/openclaw/openclaw/tree/main/skills/skill-creator

附录

分析维度

模式一:人工编写

模式二:openclaw/Claude Code

模式三:SkillFactory (评测驱动、失败优先)

核心逻辑

人脑驱动完全依赖个人经验

对话驱动依赖 Prompt 技巧与上下文窗口

流程驱动标准化流水线 + 测试驱动开发 (TDD)

生产效率

低需天/周,包含编码、文档、手动测试

代码质量

波动大取决于工程师水平,风格不统一

随机性强,可能缺乏异常处理/类型提示

标准化高下限有保证

测试验证

依赖人工用户需自行执行技能测试,无自动化闭环

无自动化闭环

自动化闭环先有测试用例,再生成skill,自动回归验证

多方案探索

单线程一次只能写一种实现,推翻重来成本高

串行迭代需多轮对话调整,上下文易丢失,一次只能生成一版,难并行对比

多路并行竞优同时生成 3 种策略版本 ,择优录用

工程化程度

纯人工编写可能格式或者规范上出错

可能缺乏生产环境所需的鲁棒性与安全规范

可自己注入测试逻辑,优化逻辑以达到生产级交付

知识复用

通用逻辑重复造轮子,难抽取公共库

对话记录难共享,难沉淀最佳实践

团队资产自动识别重复模块,建议公共库化,全员共享

核心缺陷

效率瓶颈 & 质量黑盒

不可控 & 缺乏工程验证

初期搭建成本高



来源  |  阿里云开发者公众号

作者  |  月珩

相关文章
|
8天前
|
设计模式 安全 Shell
工作流的 Skill 怎么写?从 7 个顶级 Skill 中提炼的模式与最佳实践
Skill 是一种基于 YAML frontmatter + Markdown 的知识注入机制,通过 `SKILL.md` 文件将结构化指令注入 LLM 上下文,由其调用内置工具(如 bash、read)执行。含 5 大设计模式:线性流程、决策树、循环迭代、接力棒循环、多阶段编排,另含思维框架模式,专用于控制 LLM 深度分析而非操作执行。
|
9天前
|
人工智能 运维 监控
Agent 开发范式演进:从环境工程出发,“简化”多源实时上下文
本文基于阿里云沈林在2026中国生成式AI大会的分享,指出企业级Agent落地瓶颈不在模型,而在上下文供给能力。文章从“环境工程”视角,提出信息完备性、感官管理、知识对账、变更治理、普惠门槛五大维度,探讨如何让Agent低成本、可靠接入多源实时业务环境。
Agent 开发范式演进:从环境工程出发,“简化”多源实时上下文
|
9天前
|
人工智能 前端开发 测试技术
Qoder Skills 完全指南:从零开始,让 AI 按你的标准执行
文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。
|
9天前
|
缓存 人工智能 安全
你不知道的 Agent:原理、架构与工程实践
文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。
|
9天前
|
人工智能 测试技术 开发者
Harness Engineering实践,做了一个平台让AI一晚上自动评测和优化你的系统
文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。
|
8天前
|
存储 机器学习/深度学习 人工智能
深度解析 Hermes Agent 如何实现“自进化”及其 Prompt / Context / Harness 的设计实践
本文是「项目深度解析」系列的第3篇,也欢迎阅读:《深度解析OpenClaw》《深度解析Claude Code》。(文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。)
深度解析 Hermes Agent 如何实现“自进化”及其 Prompt / Context / Harness 的设计实践
|
19小时前
|
人工智能 运维 监控
Agent从一问一答到自主执行面临哪些挑战?
AI任务调度平台(MSE)解决开源Agent定时任务的五大痛点:高可用性、统一运维、细粒度权限、全链路可观测、弹性降本。支持OpenClaw/Hermes/百炼/Dify等多框架,提供任务批处理、自进化、会话管理等企业级能力,现开放免费公测。
Agent从一问一答到自主执行面临哪些挑战?
|
1天前
|
人工智能 编解码 Java
Harness Engineering:耗时一周,我是如何将应用的AI Coding率提升至90%的
文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。
|
19小时前
|
存储 人工智能 自然语言处理
深度解析LLM Wiki / Obsidian-Wiki / GBrain:Agent时代知识的“自组织”与“自进化”
本文是「项目深度解析」系列的第4篇,系列文章为《深度解析OpenClaw》、《深度解析Claude Code》、《深度解析Hermes Agent》。(文章内容基于作者个人技术实践与独立思考,旨在分享经验,仅代表个人观点。)
深度解析LLM Wiki / Obsidian-Wiki / GBrain:Agent时代知识的“自组织”与“自进化”
|
21天前
|
JSON 缓存 开发工具
拒绝/usage用量焦虑,用 Claude Code 自定义状态栏
告别手动查用量!本文教你用Claude Code自定义状态栏,实时显示模型、Git信息、上下文使用率(66%)、缓存命中率、Token消耗及费用(~$23.21)、5小时/7天用量进度等关键指标,支持颜色预警。提供两种配置方式:一键粘贴脚本,或更推荐——直接对话Claude Code,让它自动完成全部配置!