【第04话】 三剑客(上)《烂俗前端》

简介: 【第04话】 三剑客(上)《烂俗前端》
《烂俗前端》是一部以前端为题材的长篇小说,涉及讨论职业、社会、技术、情感等话题,正在更新中。全集链接: 烂俗前端,所有markdown和涉及的源码在: github

在一处幽深的竹林里,隐隐约约在几根竹子之中看到三个人坐着的身影,似乎都在冥想修炼,旁边都放着佩剑,三人之剑各有不同,一把袖里剑,一把逸龙剑,还有一对雌雄剑。

“来者何人?”他们已经察觉了有人在暗中视察他们,其中一位用低沉平淡的声音说到,但三人仍是一动不动。

“在下赵铁柱,斗胆前来领教。”铁柱从暗处走了出来,

“欲破我三人剑法者无数,但成功者并不算多。”其中那位稍微年长的拿起了袖里剑,抬起头“接下我等各三百回合招式,先领悟后方可破我剑法,便可成为受江湖承认的剑士。 请,阁下接招。”

三剑客.jpg

话音刚落,一个身影便向赵铁柱飞快的闪来,同时那袖里剑的一道剑光在头顶。

“铛!”赵铁柱迅速拔起腰中的木剑接住了第一招,右侧又马上出现了那袖里剑的残影。

“喂!柱子!”舍友李学习的声音打断了赵铁柱的幻想,正在宿舍书桌上学习前端三剑客(CSS,HTML,JavaScript)他犯了武侠病,从产生了“三剑客”的脑海画面。

“走神了,我的错。”铁柱笑着说,撑着脑袋的手也放了下来。学霸李学习还在愁着选offer之余,受铁柱之托,帮助和督促铁柱学习技术,要求一天学习时间不下九个小时,铁柱也耐下心配合,并坚持了三天。

“你应该看了我发你菜鸟教程的那三个了吧 注1。”李学习问到。

“哦了。”赵铁柱轻轻的回了句。

“怎么样?你看完的话,现在我该说一些你能听得懂的东西。”李学习挪着凳子坐在铁柱的旁边,开始发表优异于常人的学习心得,之前他加上学习时间仅仅花了两周的时间就能写出一个还算漂亮的个人Blog,但还是请铁柱帮忙设计的;他也一直有研究前端,主攻数据研发方向,预备全栈一点都不为过,且前端对他来说学习来比较顺畅。

“那你开始吧?”铁柱无奈的靠在椅子说。

“技术工程师,本是一门神圣的职业。人类文明的发展需要科学,科学的发展需要更高效的生产力,而我们,正是提高生产力的一员,也是推进人类发展、社会进步的人员,而...”李学习面朝天花板慷慨的说辞。

“好!好!说!话!”赵铁柱不像听这些太大的道理,想听重点。

“咕~”铁柱的肚子饿的叫了起来。

“八点多了,要不咱们先去吃饭,哥请你。”铁柱问李学习。

“No,小伙子我给你两分钟叫外卖,然后咱们继续。”李学习拍了拍铁柱的肩膀,然后走进洗手间小解。李学习一向对待学习都十分苛刻,学霸的练成并非只是天赋秉异,更多还是多于常人的努力和专注。

“我继续聊聊我的见解,我相信我的见解也是比较准确的。”李学习从洗手间里面出来,甩了一下刚洗手沾上的水,“前端工程师,通常指web前端开发工程师,现在前端人员所用技术和职责都扩大到一定范围,不局限于web,所以web前端也慢慢被直接叫成前端。所谓web,你可以理解为就是网页。在需求增长和开发者们的努力下,JavaScript的运行平台越来越多,你可以用来做游戏、网页、桌面客户端、小程序、APP、后端服务等。但,前端的主阵营仍是在web上。”

“我貌似能听懂,那三剑客呢,给爷介绍下。”赵铁柱插了一句。

“靠,态度端正一点不行吗!?”李学习继续说,“三剑客晚一点再跟你说。我先给你画画饼。搞不好大几年后就年薪百万。”

“切。”铁柱表示不屑。

“按照咱们的行情,你社招能应聘上前端的薪酬是8K~15K不等,看你争取了。现在前端的需求大,但是门槛相对其他技术低那么一点,所以前端工程师多,但好的前端工程师不多。所以在社招竞争难一些,好好珍惜咱们的绿色通道吧,错过了一辈子就没有这机会了。”

“校招?”铁柱问。

“是的。未来前端仍是需求量大的,前景也不错。你想想,放在二十年前,在中国干软件技术少之又少,是极度稀缺的人才,并且也不惜分到前端后端、app开发,现在软件工程师也比较普遍了,也细分了岗位。如果再过二十年,你猜猜会是什么情况?”

“人人都是软件工程师?”赵铁柱答到。

“害,还没到那个地步,但基数比例是会上升的。如果放到几百年几千年后,我相信你的话是对的。各种自动化设施,农牧业、交通、建筑、能源可能都不需要人了,甚至模仿人类主观能力和思想的机器人大概率出现了。而这些设施的核心或者底层都需要计算机编程,哪怕是会写代码的机器人,也是有人'写'出来的对吧?这阶段的人们应该是普遍具备软件技术能力的,只是不刻意称为工程师。多了并不意味着它不值钱,而是往‘精’的方向延申,未来前端可能细分成很多小方向,因为交互设计上的要求会越来越高,前端就会越来越复杂,复杂就会导致分层分类,因为一个人搞不定。假设,未来如有成熟的全息屏幕并普及了,那前端工程师就要去做全息应用上的界面,那将又是新的标准。可以说相当长的时间内,我觉得前端工程师仍是供不应求的。”李学习仍是抬头往上看着,激情澎湃的说。

“你咋知道那么多?”赵铁柱说。

“呵呵,一个学长之前跟我促膝长谈我学到的。再说说升级打怪路线。前端工程师,后面几年内,你的职级可能有高级前端、前端专家等,但范围仍局限于前端。想突破,就得‘出圈’,如果走技术路线,把你的技术范围增扩大涉及到前后端、测试、运维等,且都能达到精通水平,便是所谓的架构师,它算是一般人所能走到的技术岗天花板;如果走管理路线,技术广度也要大,但是不刻意求精,重在管理团队和业务的正常运作,侧重于管理能力,比如项目经理、技术总监(CTO)、首席信息官(CIO)等属于管理岗。阿里巴巴和腾讯在职级划分上也是按这两个方向规定的,比如阿里技术专家P7中的P代表Profession,就是专业路线;普通主管M1中的M代表Management,即是管理路线。”

“我不想写代码写到秃顶,我觉得我未来应该是管理大哥。”赵铁柱吐槽了一下。

“我觉得你走M路线也会秃顶,这四年我观察你细微增高的发际线我能猜出来。很多时候,掉头发跟所从事职业无关,更多是跟遗传和个人生活习惯有关。”李学习一本正经的说到。

“不...不会吧。”赵铁柱有点惊讶并摸了几下自己的头发。

“叮叮叮~”赵铁柱的手机突然响起来。

“你好,外卖骑手,同学请到公寓门口拿一下外卖。”电话里传来的声音。

铁柱去外面拿了两盒广东叉烧饭就回到宿舍。

“习,先吃饭,这一顿还是算爷请你的。”赵铁柱边拆包装边说。

“我还没说完呢,你就想开吃了?”李学习瞪了瞪赵铁柱,此时已接近晚上十点。李学习接下来要介绍三剑客,所以还不想停下来吃饭。


上一篇:【第03话】无名

下一篇:【第05话】三剑客(下)

连载中,全集目录: 《烂俗前端》

未完待续,转载请注明出处。

注1:李学习推荐给铁柱的教程是指菜鸟教程中的HTMLCSSJavaScript这三个,他认为这个教程简洁易懂。

相关文章
|
前端开发 JavaScript
【第08话】试炼(下)《烂俗前端》
【第08话】试炼(下)《烂俗前端》
92 0
|
前端开发 算法 架构师
【第07话】试炼(上)《烂俗前端》
【第07话】试炼(上)《烂俗前端》
70 0
|
Web App开发 存储 前端开发
【番外01】吐血整理5万字100道高频基础面试题 无名面试集《烂俗前端》
【番外01】吐血整理5万字100道高频基础面试题 无名面试集《烂俗前端》
196 0
|
前端开发 JavaScript 开发者
【第05话】三剑客(下)《烂俗前端》
【第05话】三剑客(下)《烂俗前端》
70 0
|
前端开发 JavaScript Linux
【第03话】无名《烂俗前端》
【第03话】无名《烂俗前端》
266 0
|
30天前
|
存储 人工智能 前端开发
前端大模型应用笔记(三):Vue3+Antdv+transformers+本地模型实现浏览器端侧增强搜索
本文介绍了一个纯前端实现的增强列表搜索应用,通过使用Transformer模型,实现了更智能的搜索功能,如使用“番茄”可以搜索到“西红柿”。项目基于Vue3和Ant Design Vue,使用了Xenova的bge-base-zh-v1.5模型。文章详细介绍了从环境搭建、数据准备到具体实现的全过程,并展示了实际效果和待改进点。
127 2
|
30天前
|
JavaScript 前端开发 程序员
前端学习笔记——node.js
前端学习笔记——node.js
37 0
|
30天前
|
人工智能 自然语言处理 运维
前端大模型应用笔记(一):两个指令反过来说大模型就理解不了啦?或许该让第三者插足啦 -通过引入中间LLM预处理用户输入以提高多任务处理能力
本文探讨了在多任务处理场景下,自然语言指令解析的困境及解决方案。通过增加一个LLM解析层,将复杂的指令拆解为多个明确的步骤,明确操作类型与对象识别,处理任务依赖关系,并将自然语言转化为具体的工具命令,从而提高指令解析的准确性和执行效率。
|
30天前
|
存储 弹性计算 算法
前端大模型应用笔记(四):如何在资源受限例如1核和1G内存的端侧或ECS上运行一个合适的向量存储库及如何优化
本文探讨了在资源受限的嵌入式设备(如1核处理器和1GB内存)上实现高效向量存储和检索的方法,旨在支持端侧大模型应用。文章分析了Annoy、HNSWLib、NMSLib、FLANN、VP-Trees和Lshbox等向量存储库的特点与适用场景,推荐Annoy作为多数情况下的首选方案,并提出了数据预处理、索引优化、查询优化等策略以提升性能。通过这些方法,即使在资源受限的环境中也能实现高效的向量检索。
|
30天前
|
机器学习/深度学习 弹性计算 自然语言处理
前端大模型应用笔记(二):最新llama3.2小参数版本1B的古董机测试 - 支持128K上下文,表现优异,和移动端更配
llama3.1支持128K上下文,6万字+输入,适用于多种场景。模型能力超出预期,但处理中文时需加中英翻译。测试显示,其英文支持较好,中文则需改进。llama3.2 1B参数量小,适合移动端和资源受限环境,可在阿里云2vCPU和4G ECS上运行。