明年想跳槽?前端人现在就要开始准备了!

简介: 12月份来临,想跳槽涨薪的朋友们都已经开始考虑起了年后的“金三银四”!但是明年的“金三银四”可能不如想象般火热。前端在飞速发展,市场却在逐渐冷却。

12月份来临,想跳槽涨薪的朋友们都已经开始考虑起了年后的“金三银四”!

但是明年的“金三银四”可能不如想象般火热。前端在飞速发展,市场却在逐渐冷却。

image.png

公司招前端的面试考量点也悄然改变。但是不用慌,我来细细给大家梳理下,好在明年跳槽加薪前做好准备!

01开始重点倾向问源码

我相信最近去面试的人都会有这个体会,去年面试官只问我怎么用vue,今年开始问我vue响应式原理,以及vue各种相关库的源码?

结果回答得支支吾吾。毕竟大家忙着天天写业务代码,哪有空去研究源码?而且源码也看不下去啊!

image.png

但是无论如何,这是个实实在在的趋势,现在大家都会用vue,企业自然想挑最好的人。怎么挑?源码就是试金石!毕竟会源码的人,水平都不会差。

如果你明年有跳槽的打算,一定抓紧学习源码内容!

1.vue/react核心的源码,比如下面典型的问题:

Q: vue3今年发布了,请你说一下他们之间在相应式的实现上有什么区别?
A: vue2采用的是defineProperty去定义get,set,而vue3改用了proxy。也代表着vue放弃了兼容ie。

2.有的面试官会别出心裁的问你一些相关的全家桶,所以和框架相关的vuex/redux、axios、vue-router也要注意补上:

Q: 像vue-router,vuex他们都是作为vue插件,请说一下他们分别都是如何在vue中生效的?
A: 这个样式可以在公众号里随意“漂浮”,给读者一种耳目一新的感觉。如果你也觉得很新奇有趣,可以来尝试一下“漂浮”的感觉。

3.如果你有能力阅读源码,最好多阅读一些,比如koa、loadsh等等。因为这些源码会让面试官刮目相看:

Q: 请你说一下vue的设计架构。
A: vue2采用的是典型的混入式架构,类似于express和jquery,各部分分模块开发,再通过一个mixin去混入到最终暴露到全局的类上。

简述一个框架的同时,说出他的设计来源、类似的框架,这样还害怕拿不下面试官?

02注重你的在项目中做出的实践

你在这个项目里面,都做了些什么事情?这个问题我相信大家都经历过,但是几乎没人答得完美。

我们来看一个错误示例:

Q: 请说一下你这个项目中做的事情
A: 这个项目使用vue,利用vue全家桶,配合后端,调用接口,完成工程。

别笑!你的回答可能就是和这个差不多。这么回答问题在哪?

现在是个项目都是这么做的,但企业始终都是想要人才的,而你的回答里没看到任何你的能力亮点!

那么我们应该怎么答?首先,我们记住这个几个名词-ssr、组件库、工程化建设、移动混合方案、性能优化方案,然后我们来看一个正确示例:

Q: 请说一下你这个项目中做的事情
A: 这个项目主体是一个vue项目,但是因为是pc端,为了seo,我特意做了ssr。然后这个项目有一套我和同时一起做的专门的组件库。在移动端,我们为了搭配app,也做了移动混合方案。像在首页,因为数据巨大,我们采用了一些优化方案。利用本地缓存数据,对小图标进行了base64转码。

这样的回答,能充分显示出你的技术上的强大能力,最关键的是,让人看到了,你不止能做项目,更能做好项目。

目录
相关文章
|
前端开发 JavaScript 开发工具
金三银四跳槽面试季,我整理前端面试知识做了一个网站
每年的金三银四,都将迎来求职面试的一个高峰期,为什么会有那么多的求职需求?
167 0
金三银四跳槽面试季,我整理前端面试知识做了一个网站
|
1月前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
138 2
|
1月前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
43 0
|
1月前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
1月前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
1月前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。
|
1月前
|
前端开发 算法 测试技术
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
本文对比测试了通义千文、文心一言、智谱和讯飞等多个国产大模型在处理基础计数问题上的表现,特别是通过链式推理(COT)提示的效果。结果显示,GPTo1-mini、文心一言3.5和讯飞4.0Ultra在首轮测试中表现优秀,而其他模型在COT提示后也能显著提升正确率,唯有讯飞4.0-Lite表现不佳。测试强调了COT在提升模型逻辑推理能力中的重要性,并指出免费版本中智谱GLM较为可靠。
前端大模型应用笔记(五):大模型基础能力大比拼-计数篇-通义千文 vs 文心一言 vs 智谱 vs 讯飞vsGPT
|
2月前
|
SpringCloudAlibaba JavaScript 前端开发
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
分布式组件、nacos注册配置中心、openfegin远程调用、网关gateway、ES6脚本语言规范、vue、elementUI
谷粒商城笔记+踩坑(2)——分布式组件、前端基础,nacos+feign+gateway+ES6+vue脚手架
|
3月前
|
存储 前端开发 JavaScript
前端语言串讲 | 青训营笔记
前端语言串讲 | 青训营笔记
41 0
|
5月前
|
JSON 前端开发 JavaScript
前端Ajax、Axios和Fetch的用法和区别笔记
前端Ajax、Axios和Fetch的用法和区别笔记
97 2
下一篇
无影云桌面