我定制的通义灵码 Project Rules,用 AI 写出“更懂我”的代码

简介: 本文分享了一名全栈开发同学使用通义灵码做代码生成、接口注释、测试代码补全等工作,效率明显提升的体会。


我是一名全栈开发,平时会大量使用通义灵码做代码生成、接口注释、测试代码补全等工作,效率提升是真的肉眼可见。最近通义灵码推出的 Project Rules 功能,我立刻体验了一下,现在已经用上了!


为什么我需要定制规则?


在我们项目组里,不同人写出来的代码格式和命名习惯不一样,尤其是通过 AI 辅助生成的代码,有时会“跑偏”,比如:


  • 用了不符合我们项目约定的注释风格
  • 命名不贴合业务语义
  • 忽略了我们常用的工具类


以前每次 review 都要花时间来调整格式或重命名,现在我直接通过 Project Rules 把这些偏好告诉 AI,生成出来的代码更“懂我”了。


我的 Project Rules 示例配置



规则限制

每个规则文件最大限制为 10000 字符,超过部分将自动截断。

规则文件请使用自然语言描述,不支持图片或链接的解析。


我的项目语言是 Vue(使用 Vue 3 + Composition API),以下是我对代码风格、注释方式和生成代码的偏好:


### 1. 语法和框架规范:
- 使用 Vue 3 的 **Composition API**,不使用 Options API;
- 脚本部分必须使用 `<script setup>` 语法;
- 模板中尽量使用简洁语法,如 `v-if / v-for / v-model`,避免多余嵌套;
- 尽量避免使用 `any` 类型,优先使用 TypeScript 明确类型;
- 如果使用了异步请求,默认封装为 `useXXX()` 的组合式函数,统一放在 `composables/` 文件夹中;
- 所有页面组件统一放在 `views/` 文件夹中,通用组件放在 `components/` 中。
### 2. 命名规范:
- 文件命名统一为 **小写中划线格式**(如:`user-list.vue`);
- 变量、函数名使用 **camelCase**;
- 组件名使用 **PascalCase**;
- 钩子函数命名使用 `use` 前缀,如 `useUserList`;
- SCSS 变量使用 `$` 开头,命名清晰,避免缩写。
### 3. 注释风格:
- 所有方法必须添加注释,注释风格清晰简洁,使用自然语言说明该方法的作用;
- 对于复杂逻辑、watchEffect、computed 计算过程请写明业务含义;
- 文件顶部应注明作者、创建时间和功能简述;
- 注释语气中性,不带个人语气,不重复代码内容。
### 4. 样式和布局:
- 使用 SCSS 或 Less 预处理器,**禁止在 style 中使用 scoped**;
- 样式统一使用 BEM 命名规范;
- 组件布局使用 CSS Grid 或 Flex,禁止使用 table;
- 移动端优先使用 rem 单位,桌面端可适当使用 px。
### 5. 代码结构和项目约定:
- 每个组件文件中顺序为:模板(template)> 脚本(script)> 样式(style);
- API 请求统一封装到 `api/` 文件夹中,禁止在组件内直接写 `axios` 请求;
- 所有 API 响应结果请使用统一的响应封装器处理(如 `useRequest()`);
- 表单组件封装时需支持 `v-model` 双向绑定。
### 6. 响应和异常处理:
- 所有请求必须添加异常捕获处理,如 `try/catch` 或 `onError` 钩子;
- 异常提示语应通用,避免硬编码字符串;
- 页面加载时使用骨架屏或 loading 动画,避免页面空白。
### 7. 通义灵码回复和生成内容要求:
- 灵码回答请使用中文;
- 回答内容结构清晰,重点内容可使用列表展示;
- 不推荐使用未经引入的三方包,如 lodash、dayjs,除非已有安装;
- 如生成表单、表格代码,请基于 Element Plus UI 框架;
- 建议代码块加上简要解释,便于理解。


通义灵码提效使用经验


🔧 提高注释生成质量

平时让我头疼的就是写注释,现在用了 Javadoc 规范 + neutral 评论语气,通义灵码生成的注释几乎可以直接使用,甚至文档都不太用手动整理了。


🚫 避免不必要的“AI 幻觉”

之前我让它帮我生成一个工具方法,它老是引入我们项目中没有的三方库,现在通过 "use_stream_api": false"exception_handling": "customExceptionClass",它会更贴近我项目的写法。


👥 团队协作保持一致性

我们组里是多人协作,我直接把 project-rules.json 加进 git 项目中,大家用同一套规则,不仅生成代码风格统一,连灵码生成的提示回复也更一致,review 也更省事了。



使用建议 & 期待


  • 希望之后能支持团队规则库共享和一键应用;
  • 如果能内置几套“通用行业规则模版”(比如 Spring Boot 项目推荐规则)就更友好了;
  • 灵码提示区支持高亮哪些是根据 Rules 特别优化过的部分,会更直观。


总结一下


通义灵码的 Project Rules 功能真的解决了我使用 AI 编码过程中最实际的一些“误差”问题。现在我的 AI 编码助手不再“天马行空”,而是真的按照我的要求来“定制产出”。


如果你也经常用灵码写业务逻辑、处理项目细节,强烈推荐你定制一份属于自己的编码规则,效果真的不一样!


下载通义灵码:https://lingma.aliyun.com/download


目录
打赏
0
2
2
0
12763
分享
相关文章
通义灵码入职蔚来汽车,AI生成代码30%以上
通义灵码已正式应用于蔚来汽车智能座舱部门,近400名成员使用该工具,AI生成代码占比达30%以上,“天探”项目中甚至高达70%-80%。它通过提升代码开发效率、降低维护成本、智能生成单元测试及问题排查等功能助力研发。蔚来选择通义灵码看重其企业专属版的安全能力和知识管理功能。未来,期望AI编程将研发流程规范化,成为类似自动驾驶的高效指引工具。
35 5
“最近我给有代码洁癖的同事墙裂安利了通义灵码”
通义灵码2.5.0版本现已全面支持Qwen3,采用混合专家架构,参数量仅为DeepSeek-R1的1/3,是国内首个“混合推理模型”。它在性能评测中超越了DeepSeek-R1、OpenAI-o1等国际主流模型,并全面支持MCP能力,集成国内最大MCP中文社区。作为程序员体验后发现,通义灵码可通过简单指令生成完整项目代码,包括前后端、接口调用等,大幅降低开发门槛。文中通过两个Demo展示了其强大功能:一是聚合多平台热榜数据并推送微信通知;二是基于高德和12306 MCP生成旅游攻略HTML页面。整个过程无需手动编写代码,推荐开发者尝试。
5月23日北京,与通义灵码探索生成式AI与教育的无限可能
人工智能正重塑教育边界!“GenAI 教育探索联合活动”由英特尔、阿里云等多家机构联合举办,聚焦生成式 AI 在教育中的创新应用。5 月 23 日 13:30,活动将在北京环球贸易中心启幕。阿里云高级产品架构师冯天豪将分享通义灵码 2.5 版本升级内容,探讨 Qwen3 模型与智能体如何重新定义编程能力。立即扫描海报二维码报名参与!
通义灵码新增Inline Chat能力,代码问题即时提问
本次更新,通义灵码上线行间会话(Inline Chat)能力,支持开发者在代码编辑器区域进行对话,开发者可以通过自然语言对话的方式进行单个文件内的代码修改或进行即时提问。
通义灵码入职表现实测:蔚来汽车AI 生成代码占比在 30% 以上
希望 AI 编程能应用于更加高阶的场景。我对 AI 自动化编程最大的希望是它能够把整个研发过程,变成一个流水线制造的过程,把我们的整个研发流程规范化起来,并且在每一步都能够对人进行一个指引,类似自动驾驶一样。
对话阿里云通义灵码技术负责人陈鑫:AI编程的现状与未来
在AI快速发展的2025年,通义灵码作为国内领先的AI编程助手,正通过其独特的智能体架构和强大模型能力重新定义开发方式。本文邀请技术负责人陈鑫(神秀),探讨AI编程现状与未来。通义灵码基于Qwen3模型打造,具备记忆系统革新、MCP工具生态和多模态交互等优势,推出三种工作模式以适应不同场景。尽管行业仍面临挑战,但国产模型正在崛起,企业可采用“三步走”策略引入AI工具。未来,AI将从辅助走向主导,深化代码理解并重构开发工具,助力更高效、创造性的编程方式。
“龟速”到“光速”?算力如何加速 AI 应用进入“快车道”
阿里云将联合英特尔、蚂蚁数字科技专家,带来“云端进化论”特别直播。
52 11
破茧成蝶:传统J2EE应用无缝升级AI原生
本文探讨了技术挑战和解决方案,还提供了具体的实施步骤,旨在帮助企业顺利实现从传统应用到智能应用的过渡。
破茧成蝶:传统J2EE应用无缝升级AI原生
破茧成蝶:阿里云应用服务器让传统 J2EE 应用无缝升级 AI 原生时代
本文详细介绍了阿里云应用服务器如何助力传统J2EE应用实现智能化升级。文章分为三部分:第一部分阐述了传统J2EE应用在智能化转型中的痛点,如协议鸿沟、资源冲突和观测失明;第二部分展示了阿里云应用服务器的解决方案,包括兼容传统EJB容器与微服务架构、支持大模型即插即用及全景可观测性;第三部分则通过具体步骤说明如何基于EDAS开启J2EE应用的智能化进程,确保十年代码无需重写,轻松实现智能化跃迁。
Serverless MCP 运行时业界首发,函数计算让 AI 应用最后一公里提速
作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为阿里云百炼 MCP 提供弹性调用能力,用户只需提交 npx 命令即可“零改造”将开源 MCP Server 部署到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,欢迎你在阿里云百炼和函数计算 FC 上体验 MCP 服务。
241 29