送给2023自学前端的建议:目向星辰,脚踏实地

简介: 刚开始学前端一定是最难的,但是一定要坚持住,你要知道、学习完前面、后面更难的还在等着你。

知乎上看到关于自学前端的提问,我翻了下、点赞过百的回答,都是些培训机构、营销导流卖课的、答非所问吹牛逼的

我这个回答,不导流、不卖课、不吹牛逼。

关注这个问题人分为两类
1、即将步入职场的学生

不同阶段、想达到的目标不一样,学习的程度也不同,只是想找一个前端开发的工作,对薪资这一块儿没啥要求,奔着先进入公司、边工作边学技术的方向。

要达到初级开发,会CSS、 Js 、h5、jquery、ajax,在指导下完成一些动态页面

上家公司的一个实习生,学了html、css、常用的js,从土木工程转前端的。

刚来的时候,工作改页面,加点css样式,待了一年已经能独立开发一些功能,提出涨工资,老板不同意,跳槽去别的公司了。

2、工作两三年,行业不景气,期待工资大幅度提升、甚至翻倍、转行前端

要达到中级标准,能分析需求、独立开发

技术上了解html、css、js 底层原理,vue、angluar、react、任意一个熟练使用,了解第三方插件库、echarts、gis地图…

我有个朋友,在老家做销售,结婚两三年、儿子又刚出生,得知在深圳的做java的同学工资一两万了,自己工资才五六千,心里多少不甘心

他和家人认真商量下,孩子由老婆和他妈带着,自己辞职专心学习,从html—css—js—jquery—vue.js-小程序,每天12个小时,坚持了四个月,最后找了一个10k的前端开发,转行成功。

目向星辰,脚踏实地

无论你是即将毕业走入职场、还是要转行前端期、待工资翻倍的同学

刚开始学前端一定是最难的,但是一定要坚持住,你要知道、学习完前面、后面更难的还在等着你。

加油吧、奥利给!

相关文章
|
JSON 移动开发 开发框架
大学生自学前端的推荐
现在前端开发越来越被人所熟知,并且衍生出来前端开发工程师,那么怎么才能成为一名合格的前端工程师呢?如何才能避免走弯路呢?如果没有计划,那就跟着下面的步骤走吧,能让你少走好多弯路,省下很多时间。
81 0
大学生自学前端的推荐
|
移动开发 前端开发 JavaScript
前端入门 前端自学路线 web开发前端如何学习
前端入门 前端自学路线 web开发前端如何学习
264 0
前端入门 前端自学路线 web开发前端如何学习
|
Web App开发 缓存 JavaScript
|
Web App开发 JavaScript 前端开发
【干货】前端自学之路(持续更新)
前言:将我有过了解前端自学网站和书本分享给大家,互联网是个好东西,多多利用;希望能给大家提供一点帮助作为我对大家七夕的祝福,好好学习,天天向上。共勉,哈哈。
2290 0
|
3月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
227 14
|
3月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
66 0
|
3月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
3月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
3月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
154 1
|
3月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
下一篇
开通oss服务