开始培训了

简介:    2012年2月11日开始了培训生活  在杭州文三路,刚来这里不久,还是没有完全习惯这里。  这么长时间了,从2010年毕业到现在都两年了,回顾过去生活的种种,真的感慨万千~~~  在这段时间,我也成熟了不少,认识到了自己存在的一些问题。

   2012年2月11日开始了培训生活

  在杭州文三路,刚来这里不久,还是没有完全习惯这里。

  这么长时间了,从2010年毕业到现在都两年了,回顾过去生活的种种,真的感慨万千~~~

  在这段时间,我也成熟了不少,认识到了自己存在的一些问题。

  逝去的时光已经无法挽回,留下的回忆要好好珍惜……

  不说了,请以此纪念我的新开始,希望这次成功并取得很好的成绩!

 

 

 

 

目录
相关文章
|
9月前
|
存储 人工智能 数据处理
Claude 3发布,超越ChatGPT4的大模型出现了
【2月更文挑战第14天】Claude 3发布,超越ChatGPT4的大模型出现了
125 3
Claude 3发布,超越ChatGPT4的大模型出现了
|
9月前
|
测试技术 程序员 数据库
Python 3.9 beta2 版本发布了,看看这 7 个新的 PEP 都是什么?
Python 3.9 beta2 版本发布了,看看这 7 个新的 PEP 都是什么?
150 0
|
7月前
|
人工智能 自然语言处理 算法
GPT-4 Turbo 和 GPT-4 的区别
GPT-4 vs GPT-4 Turbo: 探索OpenAI的顶级模型,GPT-4以其出色的文本生成和理解闻名,适合高端内容需求,但成本高;GPT-4 Turbo,优化版,提供相似性能但更高效、经济,适用于大规模商业应用,尤其在速度和资源效率上展现优势。用户可根据质量、效率和成本需求选择合适模型。
191 4
|
7月前
|
数据采集 数据管理
240万亿巨量数据被洗出,足够训出18个GPT-4!全球23所机构联手,清洗秘籍公开
【7月更文挑战第5天】全球23所机构合作的DCLM项目揭示了数据清洗新范式,从240T海量数据中提炼出2.6T高质量集,提升语言模型效能。DCLM-Baseline数据集在减少40%计算量的同时,使70亿参数模型在MMLU上达到64%准确率,超越MAP-Neo并媲美其他LLMs。然而,数据偏见和伦理问题仍是挑战。[论文链接](https://arxiv.org/abs/2406.11794)**
137 1
|
存储 JSON JavaScript
|
9月前
|
弹性计算 运维 Shell
自动创建对应的账户并配置初始密码
【4月更文挑战第29天】
105 1
|
9月前
|
程序员
转义字符及Ascii表
转义字符及Ascii表
328 0
|
9月前
|
编解码 移动开发 人工智能
android游戏源码
android游戏源码
217 0
|
开发工具 Python
Python使用pygame实现经典坦克大战游戏
Python使用pygame实现经典坦克大战游戏
362 0
Python使用pygame实现经典坦克大战游戏
|
机器学习/深度学习 自然语言处理 分布式计算
深度学习进阶篇-预训练模型4:RoBERTa、SpanBERT、KBERT、ALBERT、ELECTRA算法原理模型结构应用场景区别等详解
深度学习进阶篇-预训练模型4:RoBERTa、SpanBERT、KBERT、ALBERT、ELECTRA算法原理模型结构应用场景区别等详解
深度学习进阶篇-预训练模型4:RoBERTa、SpanBERT、KBERT、ALBERT、ELECTRA算法原理模型结构应用场景区别等详解

热门文章

最新文章