数据分析转型大数据开发,说说我的求职心酸之路

本文涉及的产品
云原生大数据计算服务MaxCompute,500CU*H 100GB 3个月
云原生大数据计算服务 MaxCompute,5000CU*H 100GB 3个月
简介: 数据分析转型大数据开发,说说我的求职心酸之路

本文是学习群一位小姐姐的转型经历,她是16年毕业,毕业后从事数据分析2年,然后为了提升学历又去国外读了两年商业分析硕士,没想到回国之后,连工作都找不到了,下面看看她的求职历程吧。

自我介绍
简单自我介绍,普通二本,统计学专业,16年毕业,实习到工作两年,在一家中厂做偏运营的数据分析工作。



平时工作只是偶尔用一下sql,更多的是运营的工作以及excel表格,分析出一大堆建议,客户也不一定采用,整天就是开会,感觉就是无用功,晋升空间不大,薪资也不高,工作越久越觉得迷茫。


公司里的其他同事有很多都是985重本和海外留学回来的,有晋升机会都比较青睐他们,也让我看到学历对于数据分析的重要性,所以后来我辞职去国外读了两年商业数据分析的硕士,想着毕业之后有机会进大厂。


读研归来


2020年11月毕业了,但毕业回国之后让我更迷茫了。回国之后,国内的秋招基本全部结束了,投了很多大厂连面试机会都没有,也面了一些中厂,卡在业务背景上。



这样持续了几个月,这几个月一直在投简历、刷论坛、面试,发现很多拿了大厂数据分析的同学都已经在学校里有相关的实习经历,而社招进大厂更是少之又少。



因为怕空窗期太久了,过完年之后就找了家小公司入职了,薪资跟我读研之前一样,平台还没我之前的公司大,有点后悔读研了。


决定转型
因为在工作中也会接触到公司的数据开发大佬,通过沟通了解,感觉自己比较感兴趣,一开始在摸鱼的时候会自己偷偷自学,后面感觉特别慢以及乱,咬咬牙报了个培训班,最后只是入门级别,有了比较基础的知识储备,所以也没敢尝试转型。


然后直到最近开始跳槽数据分析,但跳槽失败,加上所在地疫情原因,然后处于半裸辞状态下。


而且觉得数据分析越来越卷了,市场存量太大,一个公司根本不需要那么数据分析人手,大多数人都是打杂的,与自己理想中的数据分析工作相差太多。所以就下定决心趁这个机会转型大数据开发。


学习过程


因为着急找工作,由于之前报过班,有点理论基础。找峰哥帮忙规划了学习路线,峰哥让我直接针对面试学习,前期不需要学太细,把项目搞懂,一些重要的知识点理解理解,直接开始面试,面试完及时复盘,入职之后可以再根据需要用到的技术栈系统学习。

很多细节都是靠面试不断补充,一路磕磕绊绊,也有迷茫过,最终还是幸运拿到offer,虽然不算一线大厂,但至少平台和薪资都提升了一个level.



做自己理想中的工作比较难,但至少我现在想通了,先选择一个薪资和发展比较好的方向,过好生活,后面其他有合适的机会再说。

面试过程


因为我是直接学完项目就开始面试,所以一开始面试是比较不理想的,前前后后也面了快20家,也拿了5家offer,大概说一下我的转型感想:


1.求职数据分析的同学一定要在校就开始准备,提前去大公司实习。因为数据分析学习门槛低,所以很多人都以为很好找工作,这不是几年前的行情了,学习门槛低不等于容易就业。


2.工作之后不要盲目提升学历,有时工作经验的积累可能比学历更重要,工作之后提升学历要衡量一下成本,无论是时间成本、金钱成本以及机会成本。


3.多了解自己想从事方向的具体工作,看看是不是自己想象中的那样,多问问过来人。

我曾经的以为数据分析工作就是数据推动业务,通过各种数据分析更好地辅助业务发展,其实不然,大多数时间都是开会对需求,取数等,真正推动业务的只有个别同事,其他都是打下手。


4.对自己不熟悉的方向也不要太害怕,没想象中的那么难。曾经我一听到开发就是认为是男生做的方向,并且要加班等等。其实不是的,我做数据分析的时候也有很多男同事,而且也经常半夜加班写报告。


5.如果对自己目前的工作不满意又不确定方向,那么可以选择一个钱景最好的,至少可以保障你的生活,可以让你在做选择的时候不需要那么仓促和被动。


最后,弱弱地问一句,还有从事数据分析的小伙伴有和我类似的经历吗?


--end--

相关实践学习
基于MaxCompute的热门话题分析
本实验围绕社交用户发布的文章做了详尽的分析,通过分析能得到用户群体年龄分布,性别分布,地理位置分布,以及热门话题的热度。
SaaS 模式云数据仓库必修课
本课程由阿里云开发者社区和阿里云大数据团队共同出品,是SaaS模式云原生数据仓库领导者MaxCompute核心课程。本课程由阿里云资深产品和技术专家们从概念到方法,从场景到实践,体系化的将阿里巴巴飞天大数据平台10多年的经过验证的方法与实践深入浅出的讲给开发者们。帮助大数据开发者快速了解并掌握SaaS模式的云原生的数据仓库,助力开发者学习了解先进的技术栈,并能在实际业务中敏捷的进行大数据分析,赋能企业业务。 通过本课程可以了解SaaS模式云原生数据仓库领导者MaxCompute核心功能及典型适用场景,可应用MaxCompute实现数仓搭建,快速进行大数据分析。适合大数据工程师、大数据分析师 大量数据需要处理、存储和管理,需要搭建数据仓库?学它! 没有足够人员和经验来运维大数据平台,不想自建IDC买机器,需要免运维的大数据平台?会SQL就等于会大数据?学它! 想知道大数据用得对不对,想用更少的钱得到持续演进的数仓能力?获得极致弹性的计算资源和更好的性能,以及持续保护数据安全的生产环境?学它! 想要获得灵活的分析能力,快速洞察数据规律特征?想要兼得数据湖的灵活性与数据仓库的成长性?学它! 出品人:阿里云大数据产品及研发团队专家 产品 MaxCompute 官网 https://www.aliyun.com/product/odps 
相关文章
|
3月前
|
SQL 分布式计算 DataWorks
DataWorks产品使用合集之如何开发ODPS Spark任务
DataWorks作为一站式的数据开发与治理平台,提供了从数据采集、清洗、开发、调度、服务化、质量监控到安全管理的全套解决方案,帮助企业构建高效、规范、安全的大数据处理体系。以下是对DataWorks产品使用合集的概述,涵盖数据处理的各个环节。
|
11天前
|
并行计算 数据挖掘 大数据
Python数据分析实战:利用Pandas处理大数据集
Python数据分析实战:利用Pandas处理大数据集
|
2月前
|
机器学习/深度学习 数据挖掘 大数据
大数据时代的“淘金术”:Python数据分析+深度学习框架实战指南
在大数据时代,数据被视为新财富源泉,而从海量信息中提取价值成为企业竞争的核心。本文通过对比方式探讨如何运用Python数据分析与深度学习框架实现这一目标。Python凭借其强大的数据处理能力及丰富库支持,已成为数据科学家首选工具;而TensorFlow和PyTorch等深度学习框架则为复杂模型构建提供强有力的技术支撑。通过融合Python数据分析与深度学习技术,我们能在各领域中发掘数据的无限潜力。无论是商业分析还是医疗健康,掌握这些技能都将为企业和社会带来巨大价值。
92 6
|
2月前
|
SQL 分布式计算 大数据
代码编码原则和规范大数据开发
此文档详细规定了SQL代码的编写规范,包括代码的清晰度,执行效率,以及注释的必要性。它强调所有SQL关键字需统一使用大写或小写,并禁止使用select *操作。此外,还规定了代码头部的信息模板,字段排列方式,INSERT, SELECT子句的格式,运算符的使用,CASE语句编写规则,查询嵌套规范,表别名定义,以及SQL注释的添加方法。这些规则有助于提升代码的可读性和可维护性。
46 0
|
2月前
|
SQL 分布式计算 大数据
大数据开发SQL代码编码原则和规范
这段SQL编码原则强调代码的功能完整性、清晰度、执行效率及可读性,通过统一关键词大小写、缩进量以及禁止使用模糊操作如select *等手段提升代码质量。此外,SQL编码规范还详细规定了代码头部信息、字段与子句排列、运算符前后间隔、CASE语句编写、查询嵌套、表别名定义以及SQL注释的具体要求,确保代码的一致性和维护性。
89 0
|
3月前
|
Java Spring 安全
Spring 框架邂逅 OAuth2:解锁现代应用安全认证的秘密武器,你准备好迎接变革了吗?
【8月更文挑战第31天】现代化应用的安全性至关重要,OAuth2 作为实现认证和授权的标准协议之一,被广泛采用。Spring 框架通过 Spring Security 提供了强大的 OAuth2 支持,简化了集成过程。本文将通过问答形式详细介绍如何在 Spring 应用中集成 OAuth2,包括 OAuth2 的基本概念、集成步骤及资源服务器保护方法。首先,需要在项目中添加 `spring-security-oauth2-client` 和 `spring-security-oauth2-resource-server` 依赖。
53 0
|
3月前
|
消息中间件 分布式计算 Kafka
MaxCompute 在实时数据分析中的角色
【8月更文第31天】随着大数据应用场景的不断扩展,对数据处理速度的要求越来越高,传统的批处理模式已经难以满足某些业务对实时性的需求。在这种背景下,实时数据处理成为了大数据领域的研究热点之一。阿里云的 MaxCompute 虽然主要用于离线数据处理,但通过与其他实时流处理系统(如 Apache Flink 或 Kafka Streams)的集成,也可以参与到实时数据分析中。本文将探讨 MaxCompute 在实时数据分析中的角色,并介绍如何将 MaxCompute 与 Flink 结合使用。
92 0
|
3月前
|
消息中间件 数据挖掘 Kafka
揭秘大数据时代的极速王者!Flink:颠覆性流处理引擎,让实时数据分析燃爆你的想象力!
【8月更文挑战第29天】Apache Flink 是一个高性能的分布式流处理框架,适用于高吞吐量和低延迟的实时数据处理。它采用统一执行引擎处理有界和无界数据流,具备精确状态管理和灵活窗口操作等特性。Flink 支持毫秒级处理和广泛生态集成,但学习曲线较陡峭,社区相对较小。通过实时日志分析示例,我们展示了如何利用 Flink 从 Kafka 中读取数据并进行词频统计,体现了其强大功能和灵活性。
73 0
|
3月前
|
数据可视化
Echarts数据可视化开发| 智慧数据平台
Echarts数据可视化开发| 智慧数据平台
|
3月前
|
数据可视化
Echarts数据可视化大屏开发| 大数据分析平台
Echarts数据可视化大屏开发| 大数据分析平台