日本留学生算法转型大数据开发?听他怎么说

本文涉及的产品
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
简介: 日本留学生算法转型大数据开发?听他怎么说

一次成功的背后都是日月积累的运筹帷幄和脚踏实地的不懈努力。     ——记算法硕士留学生三个月自学上岸大数据 


自我介绍


惯例先简单介绍一下自己的情况,本科是国内双非本的计算机专业,毕业后留学日本某高等院校主修数据挖掘。但19年归国之后,求职算法一职半年无果,遂开始学习开发的内容,目前在某大厂担任大数据开发工程师一职。


留学日本

本科所在专业是中日合办的专业,会有日方老师过来授课。接触的多了以后对日本的文化很有兴趣,想更加深入的了解。同专业的学长学姐留学日本的人数比较多,有一个留学日本的环境。同时有老师会辅导日本院校的申请,帮助在专业方面的研究展开。


本科毕业的时候,算法岗位是国内求职热潮,各大企业对算法工程师求贤若渴,所以在硕士期间也主要学习了数据挖掘方面的知识。


从数据库到数据挖掘的基础知识,以及数据挖掘的相关算法,数据挖掘的各个步骤的分析过程。后续学习过机器学习,深度学习的相关算法。自然语言处理和推荐系统的基础知识,发展历史,基本的分析步骤,做过情感分析系统的项目。


归国后


因为自己长期在日本留学的原因,对国内的求职市场的把握情况特别不了解,也缺乏了长期了规划和努力,所以在毕业回国以后对自己的工作规划特别不清晰。


以上一系列的原因导致了自己回国空窗了半年多,后来在朋友的朋友圈看到了峰哥的文章,马上加了峰哥的好友。得益于与峰哥结缘,最终走上了大数据的道路,顺利入职,并且已经通过试用期,这里先感谢一下峰哥!


这两年随着机器学习和深度学习的大热,并且在各种领域的大放异彩,比如自然语言处理,图像处理,推荐系统等等。国内一窝蜂的大批优秀的毕业生涌入了人工智能的领域,这导致了就业市场相关的算法岗的巨大变化。


随着招聘公司的求贤若渴,薪资待遇也跟着水涨船高,毕业生更是用了极大的热情涌向了这个岗位。随之而来的结果就是:三四年前,只要需要对机器学习的算法有简单了解,就可以找到算法工作的情况一去不复返。


取而代之的是需要手撕算法模型,手推公式推导。参加过算法比赛并取得不错的比赛名次,在国际顶会上发表过期刊。如果没有上面的几个条件,可能在HR的面前连简历关也无法通过。2019年是算法大热年,也是算法难就业年。


在这样的大环境里面,没有提早规划,没有提早努力的我,在求职算法的过程中屡屡碰壁,内心的焦虑也在与日俱增,不得已的情况下,更改求职方向的想法跃然于心。经过一段时间的了解,看完了峰哥公众号的所有求职文章和知识星球里面的各种提问和回答,最终敲定要走大数据的道路。


转型之路


在19年7月份底开始执行峰哥帮忙规划的学习路线,先从JAVA知识点开始学起,大概花了一个月的时间,后面开始学习项目和刷Java的面经,同时请峰哥修改了一下,自己的简历。差不多一个星期以后,正式开始投简历。


说来不知道是不是自己的长期不顺攒下来的人品大爆发,一家初创公司在BOSS上面主动联系了我,岗位是Java开发岗位,这成为了我拿到的第一个面试机会。但是基础知识不扎实,准备不充分,心里一点没有底。万事开头难,自信心不足是这个阶段最大的问题。在峰哥的鼓励下,只能硬着头皮去面试。笔试题目做的不是很好,有些算法有思路,但是没有保证完整性。


面试官就说我再额外考你几题算法,其中一题考了排序的问题。经过一段时间的思考,我说出了自己的想法,一开始面试官觉得我的方法的复杂度过高,但是我说了我还考虑了额外的边界问题,最终说服了面试官。后面得到的反馈就是通过。


可能是在求职空窗期压抑了太久,得到offer之后的我压抑不住心中的兴奋将结果告诉了峰哥。峰哥也很开心,并且鼓励我再接再厉。可以正式开始学习Hadoop,正式朝着大数据的学习迈进。

求职之路

有了一次小小的成功,后面的尽头很足,同时也磨砺了自己的意志。在学完了hadoop、hive等大数据组件之后,开始刷数仓项目和大数据的面经,并且修改了简历开始海投简历。这一次如自己心里意料的一样,并没有之前那么顺利。投完简历,杳无音讯的情况时有发生。


过了一个月之后,一次次被拒逐渐浇灭了心里刚刚燃起的希望之火。我开始有点后悔,如果不拒绝当时的offer就好了,一边工作,一边学习,好过现在空窗期的无止境的学习。家人虽然不会明说,但是也能感受到他们的失望和担心。这更加加剧了自己心的焦虑,只能定期去健身稍微发泄发泄不良的情绪,整理好心情再次投入到学习中。


功夫不负有心人,终于在不断的投递简历中得到了回应,得到了一家大厂面试的机会。面试分了一轮HR面,两轮技术面。第一轮,面试官让我介绍了Redis,Solr,memcached等项目中出现过的组件。得益于峰哥详细的资料,我对答如流。当面试官问我,后续会选择Java岗还是大数据岗位的时候,我毅然决然选择的大数据。然后面试官说,好的等下一轮面试改由大数据的面试官来面试。


然后经过一天的等待,大数据的面试官比较平易近人,问了大数据做过的项目,问了我相关kafak,flink,HDFS,flumn等大数据的常见组件还有数据仓库的搭仓原理。可以看出面试官比较注重应聘者在大数据领域相关知识的广度和宽度。在我说完自己曾经做过自然语言处理相关的项目,并且得到了不错的效果。


听完我的称述,面试官也没有当场表态,只说了等后续的通知就结束了面试。大概晚上,的时候接到HR的电话,约定了后续部门负责人的终面。当时心里忐忑不安,之前没有也完全没有相关的经历,更加不知道部门负责人一般会问什么,问了峰哥。峰哥说主要梳理一下自己的技术栈,准备一下项目的难点,职业规划和对公司的了解。有了峰哥的指导,心里稍微安了心。后续也顺利过了部门负责人的面试。最终就是漫长的等待结果的日子,差不多到11月底终于得到了offer,坐标是一线城市,税前年薪不到30W,岗位是大数据开发工程师。根据自己的经历,能拿到这样的薪资待遇,我已经很满足了。


初入职场


12月入职之后,有3个月的试用期。刚进去基本是熟悉环境和工作内容,下班之后也根据即将用到的技术栈补缺补漏,提前熟悉公司使用的工具和技术栈。工作压力和强度适中,有问题基本可以通过搜索和请教同事解决,同时自己也要细心和总结,避免犯低级错误和反复遇到相同的问题。


近日已经平稳度过试用期,算是缓了一口大气,接下去还得像峰哥说的空杯心态,居安思危,继续学习,不断积累。


最后

至此我的大数据求职之路结束,进入在大数据领域不断自我提升的新阶段!再次感谢峰哥,确定给予了我切实的帮助!同时也希望我的经历可以给同在大数据求职路上努力的童鞋一点借鉴和鼓励!

--end--


推荐阅读:


五年Java外包转型大数据架构北美零基础转行开发求职面经双非硕士阿里大数据开发面经一位材料专业研究生的Java转型复盘从车辆工程到大数据开发,我经历了什么?


我,30岁,部队服役5年,零基础转大数据Java干了半年,我机智地跳到了大数据开发


传统金融IT男转型互联网大数据码农,图啥?


从安卓主管转型大数据开发,我经历了什么?专升本程序媛,实习期间月薪10K,有点厉害我是程序媛,从事大数据开发两年,我有话说我,32岁零基础转大数据,不需要别人怎么看!两年车间技术员转型大数据开发,说说转型这点事儿3年Java开发转型大数据开发,如何跳出CRUD舒适区?


我是DBA,从大数据小白到阅读框架源码,薪资翻了三倍双非菜鸡3个月收割头条大数据offer,方向真的比努力更重要!国企车间流水线5年,重新考研,弯道超车,收割百度腾讯offer二本电气工程应届生收割5个offer,转型大数据真的与专业无关被培训机构坑了,面国企要求唱歌...谈谈我转型大数据的心酸历程警犬专业专科生,过阿里一面,又收作业帮offer,跟你聊聊大数据学习学了三年的嵌入式,但我还是转型了大数据,跟你聊聊我学习的心路历程

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
24天前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
1月前
|
机器学习/深度学习 自然语言处理 算法
【数据挖掘】金山办公2020校招大数据和机器学习算法笔试题
金山办公2020校招大数据和机器学习算法笔试题的解析,涵盖了编程、数据结构、正则表达式、机器学习等多个领域的题目和答案。
60 10
|
3天前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
|
3天前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
10 0
|
28天前
|
算法 NoSQL 中间件
go语言后端开发学习(六) ——基于雪花算法生成用户ID
本文介绍了分布式ID生成中的Snowflake(雪花)算法。为解决用户ID安全性与唯一性问题,Snowflake算法生成的ID具备全局唯一性、递增性、高可用性和高性能性等特点。64位ID由符号位(固定为0)、41位时间戳、10位标识位(含数据中心与机器ID)及12位序列号组成。面对ID重复风险,可通过预分配、动态或统一分配标识位解决。Go语言实现示例展示了如何使用第三方包`sonyflake`生成ID,确保不同节点产生的ID始终唯一。
go语言后端开发学习(六) ——基于雪花算法生成用户ID
|
2月前
|
SQL 分布式计算 MaxCompute
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
SQL开发问题之对于ODPS中的UNION操作,执行计划的问题如何解决
|
23天前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
23天前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台
|
2月前
|
存储 分布式计算 MaxCompute
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
构建NLP 开发问题之如何支持其他存储介质(如 HDFS、ODPS Volumn)在 transformers 框架中
|
26天前
|
分布式计算 大数据 Java
Scala 入门指南:从零开始的大数据开发
Scala 入门指南:从零开始的大数据开发

热门文章

最新文章