两年 .net 开发转型大数据,上岸阿里P6

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生数据仓库AnalyticDB MySQL版,基础版 8ACU 100GB 1个月
简介: 两年 .net 开发转型大数据,上岸阿里P6


今天分享一位学习群小伙伴的转型经历,他双非院校数学专业毕业,在杭州从事2年.net开发,经过学习和面试,拿了杭州贝贝集团、滴滴、阿里等大数据开发offer,薪资double,涨了14K。由于面经篇幅过长,后面单独整理为一篇文章进行推送。


image.png


大家好,我是一枚双非院校的数学专业本科生,理科男,参加工作已经两年了。


毕业之后一直从事的是.net开发,因为在学校一直用的是c#,所以找工作时为了保险起见,就找了.net的工作,但是出来工作之后就发现.net的工作机会不是太多,就存着找java开发的心思,就一直在学习java,也报了一个网上培训班,但是培训班只是辅助。


学了一年左右,因为工作上需要熟悉业务,需要满足开发工作正常完成,没太多时间去学,感觉学的不扎实,迟迟不敢迈出面试那一步。



因为在本科期间也接触过大数据相关的知识,现在大数据也很有发展前景,所以在学习了一年左右的java后,又萌生了找大数据开发的工作,就在网上查了查大数据开发是干什么的,一看大数据开发需要学习各种组件,瞬间就懵逼了,差点被直接劝退。


后面在刷公众号的时候,发现了峰哥的公众号,于是就看了下峰哥学习群小伙伴转型的成功案例,在其中找到了一位小伙伴也是c#转型成功了,瞬间充满了信心,开启了大数据转型之路。



刚开始向峰哥说明了自己目前的知识点掌握程度和公司项目情况,方便峰哥帮自己制定学习计划,最终目标是在一年之内转型成功(实际只用了不到半年),按照峰哥的计划,一步步执行



第一阶段是先看些java基础(jvm,多线程,java各种数组等),数据结构,每天刷一道算法题(这个没有坚持下来,不然字节应该没问题),java我主要是根据峰哥的java面经去学习和掌握,每看一个知识点后,用自己的话描述一遍,然后写下来,真的有用,面试的时候你就知道了,自己写的总结不管是熟悉程度还是描述,给面试官讲的时候都会更流畅。


这个过程中心态还算ok,因为之前自己也学过java,理解上更容易些,这些java的基础八股文是真的枯燥,看了后面的忘了前面的,所以用自己的话总结知识点就显得尤为重要,面试前看自己的总结,能缩短回忆知识点的时间。



第二阶段我就开始看大数据的组件,比如hadoop、hive、spark、hbase,以及我项目中可能会用到的组件,比如dubbo,mq,kafka等,跟着视频敲代码,刚开始学的时候,别说敲代码了,在本地linux上搭组件的环境都费劲,个人觉得环境搭建会很打击自己的学习积极性,也请教过峰哥,这可咋整,搭环境都干不过。


峰哥当时给的建议是先往后看,不要耽误整体的学习进度,事实证明,峰哥的建议确实是有效的。因为当时自己是存在一个很大的误区的,以为要把学习过程中的每一步都做到(比如环境问题要搞得跟视频讲的一毛一样等等)才能往下进行,然而现实是面试官基本不会问你怎么部署,而更在意的是你对一个组件的原理的掌握以及整体的认识。


如果面试官是用到某一个组件比较多,那他会一直深入,抠更多的细节,这就要自己去把某个组件的整体情况了解,其实就是跟着视频看一遍完整的,更多的一些细节看了峰哥的大数据面经,亲身经历,基本覆盖了面试官的提问。



第三阶段开始看项目了,项目我先看的是数仓相关的项目,在这一块项目的学习中,总算把我想要的hadoop,spark,hive的相关环境全部跑通,不是自己突然打通了任督二脉,而是项目视频实在太详细,手把手教学,虽然中间存在点小问题,但是还是那句话,先往后看,不要耽误整体的学习进度。我有些非学习主线上的小问题,直接过,继续跟着视频敲代码,代码没运行成功也没关系,能运行成功最好。



在看完一遍数仓相关项目视频后,就到第四阶段-面试,我开始结合公司目前做的项目,开始写简历了。因为我是社招,峰哥帮我整合目前公司做的业务,来写自己的项目经历,这样在面试的时候,自己也好准备项目的业务切入点和技术难点。


写完简历,发给峰哥把把关之后,就开始投简历面试了,到这个阶段为止,已经过去将近半年了(6月初开始学习-9月底开始投简历)。



面试过程的话,就是打怪升级的过程了,根据峰哥的建议,先从小公司开始面试,就在boss上开始撒简历了,刚开始面试第一家公司的时候,紧张到不行,心态爆炸,最终没有意外,直接挂了。


然后开始总结面试官提的问题,后续面第二家的时候,之前面试总结的,以及自己总结的知识点,果然有部分命中,然后每面一家公司,总结面试官问的问题,有什么不懂的问题,及时向峰哥请教,然后补充进去。


这边总结面试官的问题,我觉得不光要总结他们提的某一个问题,而是根据这个问题涉及到的组件,去了解这个组件的其他容易提问的点,以及再思考下这个组件在你写的项目中,它是怎么用的,万一面试官让你说说它在项目中是做什么的,你应该怎么回答。



其实刚开始投简历的时候,看到大数据开发就投,直到有一家公司面试官,看到我的简历后,问我想要从事什么方向,发现我想从事的方向与他们的方向不是特别相符,后面也就简单聊了几句,就结束了。


刚开始觉得,不符合你叫我来现场面干啥,这不是闹吗,后面问峰哥,峰哥觉得这很正常,只是还没碰到适合我的公司,这个公司只要做数仓的或者平台开发的,分工明细,不存在结合的工种。



因为我的简历体现的方向是数仓+工程,后面面试还真就碰到了相关的公司。第一个offer是杭州一家研究所的,他们就是数仓+工程,既要你会数仓,也需要你做数仓服务的相关后端开发,收到一个offer后,就给峰哥报喜了,算是踏出了第一步,后面就陆陆续续的收到一些offer,也挂了好几个面试。


最后打算去一家还算不错的电商公司入职,却在后续得到了一个阿里面试的机会,他们也要求的是数仓+工程方向的同学,这不是巧了吗不是,因为到这个时候我也陆续面试有两三个月了,相关的知识点和项目在面试中也打磨的差不多了,在阿里面试过程中还算比较顺利。



我没怎么笔试过,峰哥内推或者猎头内推一般免笔试,唯一的笔试是在投简历的前期就去华为送人头,倒在了笔试下(需要笔试的话一定要每天刷题,一天刷一道也行)。


 

目前已经入职阿里工作了大半年了,刚开始很怕入职后适应不了工作内容,但入职后发现没想象的那么难。不过试用期期间会经常遇到一些问题,在这里感谢峰哥,会给我一些思路和解决办法,让我顺利度过试用期。



这边也想写一些自己这大半年的挣扎小心得:


1.有一定的知识储备后,写好简历,去面试吧,面试中查漏补缺,既能补充知识点,又能积累面试经验,说不定刚好补了一块,有好公司就相中你了。


2.心态崩倒是没崩过,因为没有裸辞,大不了继续干老本行c#,但是时不时自我怀疑是真的。看了后面忘了前面的时候自我怀疑,被面试官轰炸的时候自我怀疑,自我怀疑就对了。


我觉得都有这样一个过程,看了后面忘了前面的,就去回顾自己总结的前面的知识点,面试前多看看,肚里有墨,心里不慌,被面试官轰炸了,只能说有用的知识增加了,赶紧麻溜的去总结,下次面试肯定更好。


3.有些知识点可以看两遍或者更多遍,第一遍按计划执行,把计划中的都看一遍,后续面试遇到不太清楚的,再回过头看第二遍或者第三遍或者更多,这个方式比较适合我,大家可酌情参考。


4.心态就是,相信自己能行,哪怕我觉得自己学的很烂,我也相信自己能行,最后我也相信峰哥。


5.简历上写的一定要都弄懂,我前期就吃过这个亏,后面面试过程中逐渐查缺补漏,慢慢填上简历。


6.得明白面试官问的知识点是什么,我是通过面试慢慢摸索的


7.最后的最后,非常感谢峰哥的细心指导与帮助,转到一个比较有前景的方向,也进入了一个比较满意的大平台,让自己工作更有干劲。


--end--


相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
3月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
1月前
|
分布式计算 大数据 Apache
利用.NET进行大数据处理:Apache Spark与.NET for Apache Spark
【10月更文挑战第15天】随着大数据成为企业决策和技术创新的关键驱动力,Apache Spark作为高效的大数据处理引擎,广受青睐。然而,.NET开发者面临使用Spark的门槛。本文介绍.NET for Apache Spark,展示如何通过C#和F#等.NET语言,结合Spark的强大功能进行大数据处理,简化开发流程并提升效率。示例代码演示了读取CSV文件及统计分析的基本操作,突显了.NET for Apache Spark的易用性和强大功能。
37 1
|
3月前
|
分布式计算 大数据 Apache
跨越界限:当.NET遇上Apache Spark,大数据世界的新篇章如何谱写?
【8月更文挑战第28天】随着信息时代的发展,大数据已成为推动企业决策、科研与技术创新的关键力量。Apache Spark凭借其卓越的分布式计算能力和多功能数据处理特性,在大数据领域占据重要地位。然而,对于.NET开发者而言,如何在Spark生态中发挥自身优势成为一个新课题。为此,微软与Apache Spark社区共同推出了.NET for Apache Spark,使开发者能用C#、F#等语言编写Spark应用,不仅保留了Spark的强大功能,还融合了.NET的强类型系统、丰富库支持及良好跨平台能力,极大地降低了学习门槛并拓展了.NET的应用范围。
73 3
|
2月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
46 0
|
2月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
89 0
|
3月前
|
开发者 API Windows
从怀旧到革新:看WinForms如何在保持向后兼容性的前提下,借助.NET新平台的力量实现自我进化与应用现代化,让经典桌面应用焕发第二春——我们的WinForms应用转型之路深度剖析
【8月更文挑战第31天】在Windows桌面应用开发中,Windows Forms(WinForms)依然是许多开发者的首选。尽管.NET Framework已演进至.NET 5 及更高版本,WinForms 仍作为核心组件保留,支持现有代码库的同时引入新特性。开发者可将项目迁移至.NET Core,享受性能提升和跨平台能力。迁移时需注意API变更,确保应用平稳过渡。通过自定义样式或第三方控件库,还可增强视觉效果。结合.NET新功能,WinForms 应用不仅能延续既有投资,还能焕发新生。 示例代码展示了如何在.NET Core中创建包含按钮和标签的基本窗口,实现简单的用户交互。
68 0
|
3月前
|
Java Spring API
Spring框架与GraphQL的史诗级碰撞:颠覆传统,重塑API开发的未来传奇!
【8月更文挑战第31天】《Spring框架与GraphQL:构建现代API》介绍了如何结合Spring框架与GraphQL构建高效、灵活的API。首先通过引入`spring-boot-starter-data-graphql`等依赖支持GraphQL,然后定义查询和类型,利用`@GraphQLQuery`等注解实现具体功能。Spring的依赖注入和事务管理进一步增强了GraphQL服务的能力。示例展示了从查询到突变的具体实现,证明了Spring与GraphQL结合的强大潜力,适合现代API设计与开发。
135 0
|
4月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
3月前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
3月前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台