#尘封的记忆

简介: 来博客园已经很久了,喜欢这里的气氛,与csdn那种充满了商业气氛的地方,这里很纯净,虽然混迹了很多年,但仍然是一只小小鸟,我深知我自己的起点很低,所以一定要奋发图强的学习,在这里学习到太多太多的知识。 随着各种社区的倒下,这更摧残了我们这些小菜鸟的成长。

来博客园已经很久了,喜欢这里的气氛,与csdn那种充满了商业气氛的地方,这里很纯净,虽然混迹了很多年,但仍然是一只小小鸟,我深知我自己的起点很低,所以一定要奋发图强的学习,在这里学习到太多太多的知识。

随着各种社区的倒下,这更摧残了我们这些小菜鸟的成长。从放弃学业到现在已经三四年了

http://www.cnblogs.com/landv/p/3597452.html

这几年也换过几份工作,其中印象最深的一次就是去孙中山的故乡,跨越整个中国的2/3,或许是因为年少无知,去了那边做物探,大测量。可能脑子秀逗了吧,这不是梦想中的工作呀,(此处省略一万字。。。)这种悲惨的经历不能再虐我一遍了。

同时也是因为这种经历,让我更独立,知道了社会是多么的残酷。

不去上大学是对是错,现在知道了,人生的选择没有对错,这是自己要走的路,就是跪着爬着也要走下去了。

即使去上大学估计也考不上什么好大学,毕竟那个时候的我很不开窍,不知道如何去学习,傻乎乎的,智力增长缓慢,但唯独对计算机和游戏很上心,

(写的乱呼呼的)

还记得中学的时候,有一次考了全班第四名,平常都是十几名的货,突然考了第四名,内心很兴奋,第一次考这么多呀,然而却没得到任何人的鼓励,是被忽略的存在。当时老师还大发雷霆说:”看看你们考的,就这么点分。“(具体说的什么早已经忘记了)

那是的我显得格格不入,没关系啦,反正我禁得起打击和刺激。现在知道了,常与同好争高下不与傻瓜论短长。

和不是通道的人何必那么计较。

在那个没有网络的时候,得到了一台电脑,还是CRT显示器,现在早已不见踪影了,那台电脑很悲催,被我拆的七零八碎。芯片都焊下来,又焊接上去,很蛋疼。

系统也很悲催,安装了不下五十次,才安装成功。

尝试了N多办法,

光驱安装,傻乎乎的我,拿着驱动盘去安装系统,是多么天真。

记忆卡安装,尝试好多次,还是没安装成功,天真,很傻很天真的,把系统直接拷贝进去了。怎么运行都是黑屏。

也试过用手机做引导安装,(那个时候还是塞班的天下,功能机遍地飞)

同样也试过U盘安装,因为没有网络,都是去朋友家看教程怎么安装系统。同样也没成功。

耗时半个多月,直到买了新电脑,安装了网线,才找了很多教程,采用U盘安装成功,但那台老爷机,也最终因为硬盘坏块太多,硬件老化被淘汰了。

(语文是地理老师教的,就是这么瞎比比。)

就是这样不断的尝试,实验,学习,才出入门径。也浪费了太多太多的时间。这就是依靠自己去学习的鸟点。

曾经最好的老师就是谷歌,现在除了FQ才能看见它,也逐渐的习惯了用百度和其他的搜索引擎。

在这个自学的路上磕磕绊绊的,满身伤痕累累。但也是值得的,至少知道如何去学习,怎么节省时间去学习,避开那些弯路。

自控力,我这个人很懒,没有什么自控力,但却一直在坚持,或许是因为兴趣。

就让那些曾经的记忆尘封起来吧,也让内心的那个我伪装起来吧。

我英文名:landv

中文名:浩秦

 

网名:浩秦; 邮箱:root#landv.pw; 只要我能控制一個國家的貨幣發行,我不在乎誰制定法律。金錢一旦作響,壞話隨之戛然而止。
目录
相关文章
|
8月前
|
机器学习/深度学习 自然语言处理 数据处理
大模型开发:描述长短期记忆网络(LSTM)和它们在序列数据上的应用。
LSTM,一种RNN变体,设计用于解决RNN处理长期依赖的难题。其核心在于门控机制(输入、遗忘、输出门)和长期记忆单元(细胞状态),能有效捕捉序列数据的长期依赖,广泛应用于语言模型、机器翻译等领域。然而,LSTM也存在计算复杂度高、解释性差和数据依赖性强等问题,需要通过优化和增强策略来改进。
243 1
|
机器学习/深度学习 算法 索引
LSTM(长短期记忆网络)原理介绍
LSTM算法是一种重要的目前使用最多的时间序列算法,是一种特殊的RNN(Recurrent Neural Network,循环神经网络),能够学习长期的依赖关系。主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。
6129 0
LSTM(长短期记忆网络)原理介绍
|
3月前
|
机器学习/深度学习 存储 自然语言处理
从理论到实践:如何使用长短期记忆网络(LSTM)改善自然语言处理任务
【10月更文挑战第7天】随着深度学习技术的发展,循环神经网络(RNNs)及其变体,特别是长短期记忆网络(LSTMs),已经成为处理序列数据的强大工具。在自然语言处理(NLP)领域,LSTM因其能够捕捉文本中的长期依赖关系而变得尤为重要。本文将介绍LSTM的基本原理,并通过具体的代码示例来展示如何在实际的NLP任务中应用LSTM。
309 4
|
4月前
|
机器学习/深度学习 存储 算法
Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系
通过探索大语言模型(LLM)架构之间的潜在联系,我们可能开辟新途径,促进不同模型间的知识交流并提高整体效率。尽管Transformer仍是主流,但Mamba等线性循环神经网络(RNN)和状态空间模型(SSM)展现出巨大潜力。近期研究揭示了Transformer、RNN、SSM和矩阵混合器之间的深层联系,为跨架构的思想迁移提供了可能。本文深入探讨了这些架构间的相似性和差异,包括Transformer与RNN的关系、状态空间模型在自注意力机制中的隐含作用以及Mamba在特定条件下的重写方式。
191 7
Transformer、RNN和SSM的相似性探究:揭示看似不相关的LLM架构之间的联系
|
5月前
|
机器学习/深度学习 存储 自然语言处理
|
存储 算法 Java
【记忆集与卡表】
【记忆集与卡表】
|
8月前
|
机器学习/深度学习 算法 Python
LSTM(长短期记忆)网络的算法介绍及数学推导
LSTM(长短期记忆)网络的算法介绍及数学推导
184 0
|
8月前
|
存储 缓存 前端开发
2623. 记忆函数
2623. 记忆函数
46 0
|
机器学习/深度学习
长短期记忆(LSTM):突破性的序列训练技术
长短期记忆(LSTM):突破性的序列训练技术
166 1
|
机器学习/深度学习 自然语言处理 计算机视觉
RNN长短期记忆(LSTM)是如何工作的?
RNN长短期记忆(LSTM)是如何工作的?
197 0
RNN长短期记忆(LSTM)是如何工作的?