2020年疫情刚开始的时候,《动手学深度学习》的英文版相较中文版已经多出不少内容了。我们书第一版的不少老读者表示,疫情在家虽然想学习,但第一版早就刷完,于是只好刷阿信和小抖。沐神和我的第一反应是:
这样对眼睛不好。
于是不等英文版完成,我们就立即发起中文版2.0的项目。具体来说:
- 我们继续在英文版添加新内容和改进已有内容。
- 何孝霆与Rachel(瑞潮儿)两位主力选手和d2l-ai/d2l-zh GitHub社区众多小伙伴共同努力,不断将英文版的最新内容同步到中文版,包括PyTorch和TensorFlow的实现。
- 沐神牺牲宝贵的带娃时间,基于不断更新的中文版内容每周直播教学(李沐:动手学深度学习PyTorch篇直播总结)
虽然疫情还没有过去,但我们在今天终于可以发布**《动手学深度学习》中文版2.0beta版了**!大家可以访问zh.d2l.ai 或者 zh-v2.d2l.ai :
第一版的内容已移至 zh-v1.d2l.ai
在中文版2.0版项目的进程中,我们发现机器学习不少术语的中文翻译在不同著作中不一致。本着严谨的态度,我们和周志华、李航、邱锡鹏三位老师进行了数周的讨论。最终,机器之心的小伙伴们精心整理了一份中英文术语对照表,并将它开源。中文版2.0版参考了这些术语翻译,例如 dropout -> 暂退法, robustness -> 稳健性:
主要特点
该版本为《动手学深度学习》2.0.0-beta版(中文第二版的预览版)。
主要改进
- 丰富并修订了第一版第十章“自然语言处理”内容,并分为“自然语言处理:预训练”和“自然语言处理:应用”两章,添加了“BERT”和“自然语言推断”的相关内容;
- 丰富并修订第一版“附录内容”内容,并调整为第十六章;
- 更新全书内容与英文版0.17.1保持一致。
详细改进
《动手学深度学习》2.0.0-beta0版较2.0.0-alpha2版增加了23个小节:
第14章:自然语言处理:预训练
- 14.1. 词嵌入(Word2vec)
- 14.2. 近似训练
- 14.3. 用于预训练词嵌入的数据集
- 14.4. 预训练word2vec
- 14.5. 全局向量的词嵌入(GloVe)
- 14.6. 子词嵌入
- 14.7. 词的相似性和类比任务
- 14.8. 来自Transformer的双向编码器表示(BERT)
- 14.9. 用于预训练BERT的数据集
- 14.10. 预训练BERT
第15章:自然语言处理:应用
- 15.1. 情感分析及数据集
- 15.2. 情感分析:使用递归神经网络
- 15.3. 情感分析:使用卷积神经网络
- 15.4. 自然语言推断与数据集
- 15.5. 自然语言推断:使用注意力
- 15.6. 针对序列级和词元级应用程序微调BERT
- 15.7. 自然语言推断:微调BERT
第16章:(附录)深度学习工具
- 16.1. 使用Jupyter Notebooks
- 16.2. 使用Amazon SageMaker
- 16.3. 使用Amazon EC2实例
- 16.4. 选择服务器和GPU
- 16.5. 为本书做贡献
- 16.6. d2l API 文档