李沐《动手学深度学习》PyTorch 实现版开源,瞬间登上 GitHub 热榜!

简介: 李沐《动手学深度学习》PyTorch 实现版开源,瞬间登上 GitHub 热榜!

李沐,亚马逊 AI 主任科学家,名声在外!半年前,由李沐、Aston Zhang 等人合力打造的《动手学深度学习》正式上线,免费供大家阅读。这是一本面向中文读者的能运行、可讨论的深度学习教科书!


image.png


之前,红色石头就分享过这份资源,再次附上:


在线预览地址:


https://zh.d2l.ai/


GitHub 项目地址:


https://github.com/d2l-ai/d2l-zh


课程视频地址:


https://space.bilibili.com/209599371/channel/detail?cid=23541


我们知道,作为 MXNet 的作者之一,李沐的这本《动手学深度学习》也是使用 MXNet 框架写成的。但是很多入坑机器学习的萌新们使用的却是 PyTorch。如果有教材对应的 PyTorch 实现代码就更好了!


撒花!今天就给大家带来这本书的 PyTorch 实现源码。最近,来自印度理工学院的数据科学小组,把《动手学深度学习》从 MXNet “翻译”成了 PyTorch,经过 3 个月的努力,这个项目已经基本完成,并登上了 GitHub 热榜。


image.png

首先放上这份资源的 GitHub 地址:


https://github.com/dsgiitr/d2l-pytorch


详细目录如下:


  • Ch02 Installation
  • Installation
  • Ch03 Introduction
  • Introduction
  • Ch04 The Preliminaries: A Crashcourse
  • 4.1 Data Manipulation
  • 4.2 Linear Algebra
  • 4.3 Automatic Differentiation
  • 4.4 Probability and Statistics
  • 4.5 Naive Bayes Classification
  • 4.6 Documentation
  • Ch05 Linear Neural Networks
  • 5.1 Linear Regression
  • 5.2 Linear Regression Implementation from Scratch
  • 5.3 Concise Implementation of Linear Regression
  • 5.4 Softmax Regression
  • 5.5 Image Classification Data (Fashion-MNIST)
  • 5.6 Implementation of Softmax Regression from Scratch
  • 5.7 Concise Implementation of Softmax Regression
  • Ch06 Multilayer Perceptrons
  • 6.1 Multilayer Perceptron
  • 6.2 Implementation of Multilayer Perceptron from Scratch
  • 6.3 Concise Implementation of Multilayer Perceptron
  • 6.4 Model Selection Underfitting and Overfitting
  • 6.5 Weight Decay
  • 6.6 Dropout
  • 6.7 Forward Propagation Backward Propagation and Computational Graphs
  • 6.8 Numerical Stability and Initialization
  • 6.9 Considering the Environment
  • 6.10 Predicting House Prices on Kaggle
  • Ch07 Deep Learning Computation
  • 7.1 Layers and Blocks
  • 7.2 Parameter Management
  • 7.3 Deferred Initialization
  • 7.4 Custom Layers
  • 7.5 File I/O
  • 7.6 GPUs
  • Ch08 Convolutional Neural Networks
  • 8.1 From Dense Layers to Convolutions
  • 8.2 Convolutions for Images
  • 8.3 Padding and Stride
  • 8.4 Multiple Input and Output Channels
  • 8.5 Pooling
  • 8.6 Convolutional Neural Networks (LeNet)
  • Ch09 Modern Convolutional Networks
  • 9.1 Deep Convolutional Neural Networks (AlexNet)
  • 9.2 Networks Using Blocks (VGG)
  • 9.3 Network in Network (NiN)
  • 9.4 Networks with Parallel Concatenations (GoogLeNet)
  • 9.5 Batch Normalization
  • 9.6 Residual Networks (ResNet)
  • 9.7 Densely Connected Networks (DenseNet)
  • Ch10 Recurrent Neural Networks
  • 10.1 Sequence Models
  • 10.2 Language Models
  • 10.3 Recurrent Neural Networks
  • 10.4 Text Preprocessing
  • 10.5 Implementation of Recurrent Neural Networks from Scratch
  • 10.6 Concise Implementation of Recurrent Neural Networks
  • 10.7 Backpropagation Through Time
  • 10.8 Gated Recurrent Units (GRU)
  • 10.9 Long Short Term Memory (LSTM)
  • 10.10 Deep Recurrent Neural Networks
  • 10.11 Bidirectional Recurrent Neural Networks
  • 10.12 Machine Translation and DataSets
  • 10.13 Encoder-Decoder Architecture
  • 10.14 Sequence to Sequence
  • 10.15 Beam Search
  • Ch11 Attention Mechanism
  • 11.1 Attention Mechanism
  • 11.2 Sequence to Sequence with Attention Mechanism
  • 11.3 Transformer
  • Ch12 Optimization Algorithms
  • 12.1 Optimization and Deep Learning
  • 12.2 Convexity
  • 12.3 Gradient Descent
  • 12.4 Stochastic Gradient Descent
  • 12.5 Mini-batch Stochastic Gradient Descent
  • 12.6 Momentum
  • 12.7 Adagrad
  • 12.8 RMSProp
  • 12.9 Adadelta
  • 12.10 Adam


其中,每一小节都是可以运行的 Jupyter 记事本,你可以自由修改代码和超参数来获取及时反馈,从而积累深度学习的实战经验。


目前,PyTorch 代码还有 6 个小节没有完成,但整体的完成度已经很高了!开发团队希望更多的爱好者加入进来,贡献一份力量!


最后,再次附上 GitHub 地址:


https://github.com/dsgiitr/d2l-pytorch

相关文章
|
11天前
|
机器学习/深度学习 监控 PyTorch
深度学习工程实践:PyTorch Lightning与Ignite框架的技术特性对比分析
在深度学习框架的选择上,PyTorch Lightning和Ignite代表了两种不同的技术路线。本文将从技术实现的角度,深入分析这两个框架在实际应用中的差异,为开发者提供客观的技术参考。
32 7
|
1月前
|
机器学习/深度学习 算法 PyTorch
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现
这篇文章详细介绍了多种用于目标检测任务中的边界框回归损失函数,包括IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU和WIOU,并提供了它们的Pytorch实现代码。
157 1
深度学习笔记(十三):IOU、GIOU、DIOU、CIOU、EIOU、Focal EIOU、alpha IOU、SIOU、WIOU损失函数分析及Pytorch实现
|
2月前
|
机器学习/深度学习 PyTorch 调度
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
在深度学习中,学习率作为关键超参数对模型收敛速度和性能至关重要。传统方法采用统一学习率,但研究表明为不同层设置差异化学习率能显著提升性能。本文探讨了这一策略的理论基础及PyTorch实现方法,包括模型定义、参数分组、优化器配置及训练流程。通过示例展示了如何为ResNet18设置不同层的学习率,并介绍了渐进式解冻和层适应学习率等高级技巧,帮助研究者更好地优化模型训练。
136 4
在Pytorch中为不同层设置不同学习率来提升性能,优化深度学习模型
|
1月前
|
机器学习/深度学习 算法 数据可视化
如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧
在深度学习领域,优化器的选择对模型性能至关重要。尽管PyTorch中的标准优化器如SGD、Adam和AdamW被广泛应用,但在某些复杂优化问题中,这些方法未必是最优选择。本文介绍了四种高级优化技术:序列最小二乘规划(SLSQP)、粒子群优化(PSO)、协方差矩阵自适应进化策略(CMA-ES)和模拟退火(SA)。这些方法具备无梯度优化、仅需前向传播及全局优化能力等优点,尤其适合非可微操作和参数数量较少的情况。通过实验对比发现,对于特定问题,非传统优化方法可能比标准梯度下降算法表现更好。文章详细描述了这些优化技术的实现过程及结果分析,并提出了未来的研究方向。
26 1
|
22天前
|
编解码 人工智能 自然语言处理
MaskGCT:登上GitHub趋势榜榜首的TTS开源大模型
近日,香港中文大学(深圳)联手趣丸科技推出了新一代大规模声音克隆TTS模型——MaskGCT。一起看看该模型的一些表现吧!
|
2月前
|
机器学习/深度学习 数据挖掘 PyTorch
🎓PyTorch深度学习入门课:编程小白也能玩转的高级数据分析术
踏入深度学习领域,即使是编程新手也能借助PyTorch这一强大工具,轻松解锁高级数据分析。PyTorch以简洁的API、动态计算图及灵活性著称,成为众多学者与工程师的首选。本文将带你从零开始,通过环境搭建、构建基础神经网络到进阶数据分析应用,逐步掌握PyTorch的核心技能。从安装配置到编写简单张量运算,再到实现神经网络模型,最后应用于图像分类等复杂任务,每个环节都配有示例代码,助你快速上手。实践出真知,不断尝试和调试将使你更深入地理解这些概念,开启深度学习之旅。
36 1
|
1月前
|
数据采集 应用服务中间件 Go
开源的键鼠共享工具「GitHub 热点速览」
开源的键鼠共享工具「GitHub 热点速览」
|
1月前
|
机器学习/深度学习 数据采集 自然语言处理
【NLP自然语言处理】基于PyTorch深度学习框架构建RNN经典案例:构建人名分类器
【NLP自然语言处理】基于PyTorch深度学习框架构建RNN经典案例:构建人名分类器
|
2月前
|
机器学习/深度学习 数据挖掘 TensorFlow
解锁Python数据分析新技能,TensorFlow&PyTorch双引擎驱动深度学习实战盛宴
在数据驱动时代,Python凭借简洁的语法和强大的库支持,成为数据分析与机器学习的首选语言。Pandas和NumPy是Python数据分析的基础,前者提供高效的数据处理工具,后者则支持科学计算。TensorFlow与PyTorch作为深度学习领域的两大框架,助力数据科学家构建复杂神经网络,挖掘数据深层价值。通过Python打下的坚实基础,结合TensorFlow和PyTorch的强大功能,我们能在数据科学领域探索无限可能,解决复杂问题并推动科研进步。
61 0
|
2月前
|
机器学习/深度学习 数据挖掘 TensorFlow
从数据小白到AI专家:Python数据分析与TensorFlow/PyTorch深度学习的蜕变之路
【9月更文挑战第10天】从数据新手成长为AI专家,需先掌握Python基础语法,并学会使用NumPy和Pandas进行数据分析。接着,通过Matplotlib和Seaborn实现数据可视化,最后利用TensorFlow或PyTorch探索深度学习。这一过程涉及从数据清洗、可视化到构建神经网络的多个步骤,每一步都需不断实践与学习。借助Python的强大功能及各类库的支持,你能逐步解锁数据的深层价值。
65 0

热门文章

最新文章