2023年如何成为一名优秀的大前端Leader?

简介: 2023年如何成为一名优秀的大前端Leader?

面对产品经理的请求,优秀的前端Leader要学会适当的拒绝,学会说No。并不是做的越多越好,而是让团队做的少价值高才好这背后其实是当下互联网技术发展到一定阶段,出现了专业壁垒的问题。需要更加了解业务的专业人士来制定方案。


低代码的出现,让业务人员参与软件开发成为可能,使软件设计更加标准化,符合需求,从而创造更大的价值。


一、0-1开发vs低代码



或许很多程序员在工作中用不到低代码平台,更趋向于自己从0-1开发,但是个人认为玩转一个低代码平台,学习低代码平台的技术栈也能够系统的提高自己技术储备。


1、低代码平台通常是提供了一套完整的解决方案,涉及到工作流、报表、前后端环境及部署、数据中台、分布式锁、短信验证码平台的接入等等,把低代码平台当做一个技术学习与实践应用平台是非常不错的选择;


2、学习低代码平台对编程语言的高级应用


3、低代码平台提供的完整的表设计及模板代码生成也能够帮助我们减少重复工作。


75b6d4f8e0f14d9d91437623f7b14c79.jpg


二、优点与缺点



与低代码平台结伴良久,期间也遇到各种问题,就使用过程中的体验来说下低代码开发的利与弊,仅代表个人观点,谨慎参考。


我们团队使用的是引迈信息旗下的低代码平台——JNPF快速开发平台。Java+.Net6,前后分离框架(SpringBoot+Mybatis-plus+Vue)。支持单点登录、多租户模式、私有化部署、k8s等。不多说了,详情可以自己添加客服询问。


官网:JNPF中心


先以JNPF为例,展开说说优点:



1、开发周期短(这点我愿称之为神):

以开发一个简单的数据录入表单为例,只需要对表单字段进行拖拽保存就行。如果是定开的话,需要先开发前端页面,然后后端选择一个框架,设计数据库字段,写数据库增删改查接口,对接前端页面,把系统发布到服务器......


2、开发成本低

低代码开发工具缩短了软件的开发时间,所以降低了开发人员的要求,所以企业可以节省聘用专业的开发人员的高昂费用。


3、助力企业适用市场

低代码开发平台是企业快速打入市场的利器。它所具有的优势使它能够影响新软件的交付速度,而可视化开发是促进这种无与伦比的速度的关键功能。

d944042188d2408f9414279001b47b81.png


再来说说缺点:



1、平台越成熟,费用越高

越是稳定成熟的平台每年的平台费用就越贵,这是低代码平台的成本弊端,每年都要付相对高昂的平台费用。当初选择JNPF,也是因为它不仅技术满足我的预期,并且100%源码交付,这让我避免了后续的再付费。


2、使用门槛高

低代码开发仍然是需要写代码的,开发者需要具备数据库和代码编写的专业知识。当然,大部分场景只需要拖拉拽就能实现。如果要用低代码开发软件,建议可以准备1-3个开发人员。


3、系统安全性不高

这就又绕回来了,因为JNPF全源码,系统部署本地,所以安全问题不必担心。但是,其他的低代码平台数据大多存储于云数据库,如果不对数据进行备份,平台数据删除后只能求助于低代码平台员工,如果他们有没备份,那就GG了。


三、总结



低代码平台有利有弊,但权衡之下,自己0-1开发和低代码开发相比,低代码更占优势。几乎同时做到低成本、高效能和高质量,所何乐而不求呢?

相关文章
|
移动开发 前端开发 小程序
与小米前端leader的一些问答
与小米前端leader的一些问答
100 0
|
21天前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
|
21天前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
34 0
|
21天前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
21天前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
21天前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
|
21天前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT