惑不惑

简介: 看到有人说过 四十不惑,主要是说到了这个年纪,人能看到自己能力的边界,做得了的可以选择继续做或不做,做不了的就不要做了;能想通的已经想通了,想不通的还是想不通、也就别想了。最近自己好像隐约在思考职业化方面的问题。

看到有人说过 四十不惑,主要是说到了这个年纪,人能看到自己能力的边界,做得了的可以选择继续做或不做,做不了的就不要做了;能想通的已经想通了,想不通的还是想不通、也就别想了。

最近自己好像隐约在思考职业化方面的问题。对于职业化,我的理解是有两种选择:一是最大化自己的价值;一是最大化自己在团队中的价值。前者是指只选择对自己有利的环境,环境能给自己带来价值大于自己能为团队带来的价值;后者则反之。当然,这两者也没有绝对的标准,得失之间,谁算得清楚呢。

我可能一向选择的是后者。单身的时候,是无所谓的。但非单身状态,就惹出了很多严重的问题。工作上心思投入太多,下了班脑袋里都是空的,断片了的感觉,还如何能做到所谓的“平衡工作和生活”。我这种状态肯定是不好的。但这难道是本能的选择?不想说什么工作比家庭更能带给安全感还是家庭比工作更有安全感的论调,事实是它们是福祸相依的,没有哪个家庭是甘于“贫穷”和“无助”的,有无数的理由让我通过追求事业去改善家庭的状态,这个过程只能祈求家庭的理解和支持;而追求事业的手段 - All In,所谓全身心投入,我适不适合呢。

没有家 - 自己的房子,很多时候我更习惯在周末把办公室当书房,这真的不是我想去那工作,而是想有个自己可以放松的小天地,看点自己感兴趣的书、文章、电影。

自己乱写几句,所以思路也很混乱。

目录
相关文章
|
6月前
|
运维 监控 前端开发
前端监控究竟有多重要
前端监控究竟有多重要
241 0
|
6月前
|
机器学习/深度学习 弹性计算 TensorFlow
阿里云GPU加速:大模型训练与推理的全流程指南
随着深度学习和大规模模型的普及,GPU成为训练和推理的关键加速器。本文将详细介绍如何利用阿里云GPU产品完成大模型的训练与推理。我们将使用Elastic GPU、阿里云深度学习镜像、ECS(云服务器)等阿里云产品,通过代码示例和详细说明,带你一步步完成整个流程。
2239 0
|
6月前
|
机器学习/深度学习 人工智能 计算机视觉
多模态模型可能是大模型的终局
多模态模型可能是大模型的终局
|
6月前
|
存储 弹性计算 编解码
阿里云赵大川:弹性计算推理解决方案拯救AIGC算力危机
阿里云弹性计算高级技术专家赵大川在【人工智能基础设施】专场中带来了题为《弹性计算推理解决方案拯救AIGC算力危机》的主题演讲,围绕弹性计算推理解决方案DeepGPU实例如何支持Stable Diffusion文生图推理、Stable Diffusion推理演示示例等相关话题展开。
70123 205
|
人工智能 弹性计算 数据可视化
阿里云*CSDN邀你1024云上见!AIGC小说大赛、世界名画挑战等你来
玩法前先看:1024上云挑战、1024 开发者论坛、1024 hands on 动手实践~
1212 35
阿里云*CSDN邀你1024云上见!AIGC小说大赛、世界名画挑战等你来
|
6月前
|
开发者
第十一期乘风伯乐活动开启,快来推荐你身边热爱分享的技术达人吧
乘风伯乐奖,面向阿里云开发者社区已入驻乘风者计划的博主(技术/星级/专家),邀请用户入驻乘风者计划即可获得乘风者定制周边等实物奖励。本期面向阿里云开发者社区寻找100位乘风伯乐,邀请人数月度TOP 1 获奖者(大于108人)可获得cherry樱桃MX3.0S键盘及伯乐之星证书!
1954 172
第十一期乘风伯乐活动开启,快来推荐你身边热爱分享的技术达人吧
|
机器学习/深度学习 缓存 编解码
AIGC 商业化道路探索 - Stable Diffusion 商业化应用(上)
Stable Diffusion 应用到商业领域的案例越来越多,商用场景下的技术架构应当如何构建?本文基于阿里云近期的一个 Stable Diffusion 商业案例,对大规模底模切换、大量 LoRA 调优的场景提出一个商业场景适用的技术架构,并已实现部署交付,稳定运行。
|
6月前
|
存储 弹性计算 固态存储
阿里云服务器如何选择实例规格,云服务器实例选型参考
对于很多新手用户来说,在初次购买阿里云服务器的时候,面对众多实例规格往往不知道如何选择,因为云服务器实例规格不同,价格也不一样,本文通过一些常见的选型场景推荐,便于大家在选择云服务器实例规格时做个参考。
阿里云服务器如何选择实例规格,云服务器实例选型参考
|
6月前
|
机器学习/深度学习 人工智能 弹性计算
阿里云林立翔:基于阿里云GPU的AIGC小规模训练优化方案
阿里云弹性计算林立翔在【AIGC】话题下带来了题为《基于阿里云GPU的AIGC小规模训练优化方案》的主题演讲,围绕生成式AI技术栈、生成式AI微调训练和性能分析、ECS GPU实例为生成式AI提供算力保障、应用场景案例等相关话题展开。
|
6月前
|
机器学习/深度学习 并行计算 vr&ar
一文读懂:为什么GPU比CPU更快?
文章主要介绍了GPU与CPU的区别,以及为何GPU比CPU更快的原因。文章首先解释了CPU和GPU的不同设计理念,指出CPU适合延迟优化,而GPU则适合带宽优化。通过比喻,阐述了CPU和GPU在处理数据任务上的差异。接着从架构核心、内存架构、并行性、即时编译、编程模型、响应方式和应用方向等多个角度详细比较了CPU和GPU的工作方式不同之处。此外,文章还介绍了国产GPU的发展情况,指出其发展相对滞后,并分析了其发展难题和当前的发展机遇。
一文读懂:为什么GPU比CPU更快?