提交 0c9b5fc7 编写于 作者: W wizardforcel

2020-10-19 21:58:22

上级 ba8b9cea
...@@ -173,33 +173,33 @@ ...@@ -173,33 +173,33 @@
+ [第16章_推荐系统](docs/ml/16.md) + [第16章_推荐系统](docs/ml/16.md)
+ [为何录制教学版视频](docs/why-to-record-study-ml-video.md) + [为何录制教学版视频](docs/why-to-record-study-ml-video.md)
+ [2017-04-08_第一期的总结](docs/report/2017-04-08.md) + [2017-04-08_第一期的总结](docs/report/2017-04-08.md)
+ [莫烦 PyTorch 系列教程](docs/pytorch/README.md) + [PyTorch](docs/pytorch/README.md)
+ [PyTorch 简介](docs/pytorch/01.md) + [PyTorch 简介](docs/pytorch/01.md)
+ [[莫烦 PyTorch 系列教程] 1.1 – Why PyTorch?](docs/pytorch/02.md) + [1.1 – Why PyTorch?](docs/pytorch/02.md)
+ [[莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch](docs/pytorch/03.md) + [1.2 – 安装 PyTorch](docs/pytorch/03.md)
+ [PyTorch 神经网络基础](docs/pytorch/04.md) + [PyTorch 神经网络基础](docs/pytorch/04.md)
+ [[莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy](docs/pytorch/05.md) + [2.1 – Torch vs Numpy](docs/pytorch/05.md)
+ [[莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable)](docs/pytorch/06.md) + [2.2 – 变量 (Variable)](docs/pytorch/06.md)
+ [[莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation)](docs/pytorch/07.md) + [2.3 – 激励函数 (Activation)](docs/pytorch/07.md)
+ [建造第一个神经网络](docs/pytorch/08.md) + [建造第一个神经网络](docs/pytorch/08.md)
+ [[莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression)](docs/pytorch/09.md) + [3.1 – 关系拟合 (回归 Regression)](docs/pytorch/09.md)
+ [[莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification)](docs/pytorch/10.md) + [3.2 – 区分类型 (分类 Classification)](docs/pytorch/10.md)
+ [[莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络](docs/pytorch/11.md) + [3.3 – 快速搭建回归神经网络](docs/pytorch/11.md)
+ [[莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型](docs/pytorch/12.md) + [3.4 – 保存和恢复模型](docs/pytorch/12.md)
+ [[莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader)](docs/pytorch/13.md) + [3.5 – 数据读取 (Data Loader)](docs/pytorch/13.md)
+ [[莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer)](docs/pytorch/14.md) + [3.6 – 优化器 (Optimizer)](docs/pytorch/14.md)
+ [高级神经网络结构](docs/pytorch/15.md) + [高级神经网络结构](docs/pytorch/15.md)
+ [[莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络](docs/pytorch/16.md) + [4.1 – CNN 卷积神经网络](docs/pytorch/16.md)
+ [[莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification)](docs/pytorch/17.md) + [4.2 – RNN 循环神经网络 (分类 Classification)](docs/pytorch/17.md)
+ [[莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression)](docs/pytorch/18.md) + [4.3 – RNN 循环神经网络 (回归 Regression)](docs/pytorch/18.md)
+ [[莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习)](docs/pytorch/19.md) + [4.4 – AutoEncoder (自编码/非监督学习)](docs/pytorch/19.md)
+ [[莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning)](docs/pytorch/20.md) + [4.5 – DQN 强化学习 (Reinforcement Learning)](docs/pytorch/20.md)
+ [[莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](docs/pytorch/21.md) + [4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](docs/pytorch/21.md)
+ [高阶内容](docs/pytorch/22.md) + [高阶内容](docs/pytorch/22.md)
+ [[莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的](docs/pytorch/23.md) + [5.1 – 为什么 Torch 是动态的](docs/pytorch/23.md)
+ [[莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算](docs/pytorch/24.md) + [5.2 – GPU 加速运算](docs/pytorch/24.md)
+ [[莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合](docs/pytorch/25.md) + [5.3 – Dropout 防止过拟合](docs/pytorch/25.md)
+ [[莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化](docs/pytorch/26.md) + [5.4 – Batch Normalization 批标准化](docs/pytorch/26.md)
+ 深度学习入门 + 深度学习入门
+ [反向传递](docs/dl/反向传递.md) + [反向传递](docs/dl/反向传递.md)
+ [CNN原理](docs/dl/CNN原理.md) + [CNN原理](docs/dl/CNN原理.md)
......
# [莫烦 PyTorch 系列教程] 1.1 – Why PyTorch? # 1.1 – Why PyTorch?
## 为什么用 PyTorch ## 为什么用 PyTorch
......
# [莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch # 1.2 – 安装 PyTorch
## 支持的系统 ## 支持的系统
......
# [莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy # 2.1 – Torch vs Numpy
## 用 Numpy 还是 Torch ## 用 Numpy 还是 Torch
......
# [莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable) # 2.2 – 变量 (Variable)
## 什么是 Variable ## 什么是 Variable
......
# [莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation) # 2.3 – 激励函数 (Activation)
## 什么是 Activation ## 什么是 Activation
......
# [莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression) # 3.1 – 关系拟合 (回归 Regression)
我会这次会来见证神经网络是如何通过简单的形式将一群数据用一条线条来表示. 或者说, 是如何在数据当中找到他们的关系, 然后用神经网络模型来建立一个可以代表他们关系的线条. 我会这次会来见证神经网络是如何通过简单的形式将一群数据用一条线条来表示. 或者说, 是如何在数据当中找到他们的关系, 然后用神经网络模型来建立一个可以代表他们关系的线条.
......
# [莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification) # 3.2 – 区分类型 (分类 Classification)
这次我们也是用最简单的途径来看看神经网络是怎么进行事物的分类. 这次我们也是用最简单的途径来看看神经网络是怎么进行事物的分类.
......
# [莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络 # 3.3 – 快速搭建回归神经网络
Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快, 我们看看如何用更简单的方式搭建同样的回归神经网络. Torch 中提供了很多方便的途径, 同样是神经网络, 能快则快, 我们看看如何用更简单的方式搭建同样的回归神经网络.
......
# [莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型 # 3.4 – 保存和恢复模型
训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取. 训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取.
......
# [莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader) # 3.5 – 数据读取 (Data Loader)
DataLoader  是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这个包装器中. 使用 DataLoader  有什么好处呢? 就是他们帮你有效地迭代数据, 举例: DataLoader  是 torch 给你用来包装你的数据的工具. 所以你要讲自己的 (numpy array 或其他) 数据形式装换成 Tensor, 然后再放进这个包装器中. 使用 DataLoader  有什么好处呢? 就是他们帮你有效地迭代数据, 举例:
......
# [莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer) # 3.6 – 优化器 (Optimizer)
这节内容主要是用 Torch 实践几种优化器, 这几种优化器具体的优势不会在这个节内容中说了, 所以想快速了解的话, 上面的那个动画链接是很好的去处. 这节内容主要是用 Torch 实践几种优化器, 这几种优化器具体的优势不会在这个节内容中说了, 所以想快速了解的话, 上面的那个动画链接是很好的去处.
......
# [莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络 # 4.1 – CNN 卷积神经网络
卷积神经网络目前被广泛地用在图片识别上, 已经有层出不穷的应用, 如果你对卷积神经网络还没有特别了解, 我制作的 卷积神经网络 动画简介 (如下) 能让你花几分钟就了解什么是卷积神经网络. 接着我们就一步一步做一个分析手写数字的 CNN 吧. 卷积神经网络目前被广泛地用在图片识别上, 已经有层出不穷的应用, 如果你对卷积神经网络还没有特别了解, 我制作的 卷积神经网络 动画简介 (如下) 能让你花几分钟就了解什么是卷积神经网络. 接着我们就一步一步做一个分析手写数字的 CNN 吧.
......
# [莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification) # 4.2 – RNN 循环神经网络 (分类 Classification)
循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画, RNN 动画简介(如下) 和 LSTM(如下) 动画简介 能让你生动理解 RNN. 接着我们就一步一步做一个分析手写数字的 RNN 吧. 循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画, RNN 动画简介(如下) 和 LSTM(如下) 动画简介 能让你生动理解 RNN. 接着我们就一步一步做一个分析手写数字的 RNN 吧.
......
# [莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression) # 4.3 – RNN 循环神经网络 (回归 Regression)
循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画,RNN 动画简介(如下) 和 LSTM(如下)动画简介 能让你生动理解 RNN. 上次我们提到了用 RNN 的最后一个时间点输出来判断之前看到的图片属于哪一类, 这次我们来真的了, 用 RNN 来及时预测时间序列. 循环神经网络让神经网络有了记忆, 对于序列话的数据,循环神经网络能达到更好的效果. 如果你对循环神经网络还没有特别了解, 请观看几分钟的短动画,RNN 动画简介(如下) 和 LSTM(如下)动画简介 能让你生动理解 RNN. 上次我们提到了用 RNN 的最后一个时间点输出来判断之前看到的图片属于哪一类, 这次我们来真的了, 用 RNN 来及时预测时间序列.
......
# [莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习) # 4.4 – AutoEncoder (自编码/非监督学习)
神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习. 神经网络也能进行非监督学习, 只需要训练数据, 不需要标签数据. 自编码就是这样一种形式. 自编码能自动分类数据, 而且也能嵌套在半监督学习的上面, 用少量的有标签样本和大量的无标签样本学习.
......
# [莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning) # 4.5 – DQN 强化学习 (Reinforcement Learning)
Torch 是神经网络库, 那么也可以拿来做强化学习, 之前我用另一个强大神经网络库 Tensorflow来制作了这一个 从浅入深强化学习教程, 你同样也可以用 PyTorch 来实现, 这次我们就举 DQN 的例子, 我对比了我的 Tensorflow DQN 的代码, 发现 PyTorch 写的要简单很多. 如果对 DQN 或者强化学习还没有太多概念, 强烈推荐我的这个DQN动画短片(如下), 让你秒懂DQN. 还有强推这套花了我几个月来制作的[强化学习教程](https://www.pytorchtutorial.com/goto/https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/)! Torch 是神经网络库, 那么也可以拿来做强化学习, 之前我用另一个强大神经网络库 Tensorflow来制作了这一个 从浅入深强化学习教程, 你同样也可以用 PyTorch 来实现, 这次我们就举 DQN 的例子, 我对比了我的 Tensorflow DQN 的代码, 发现 PyTorch 写的要简单很多. 如果对 DQN 或者强化学习还没有太多概念, 强烈推荐我的这个DQN动画短片(如下), 让你秒懂DQN. 还有强推这套花了我几个月来制作的[强化学习教程](https://www.pytorchtutorial.com/goto/https://morvanzhou.github.io/tutorials/machine-learning/reinforcement-learning/)!
......
# [莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络) # 4.6 – GAN (Generative Adversarial Nets 生成对抗网络)
GAN 是一个近几年比较流行的生成网络形式. 对比起传统的生成模型, 他减少了模型限制和生成器限制, 他具有有更好的生成能力. 人们常用假钞鉴定者和假钞制造者来打比喻, 但是我不喜欢这个比喻, 觉得没有真实反映出 GAN 里面的机理. GAN 是一个近几年比较流行的生成网络形式. 对比起传统的生成模型, 他减少了模型限制和生成器限制, 他具有有更好的生成能力. 人们常用假钞鉴定者和假钞制造者来打比喻, 但是我不喜欢这个比喻, 觉得没有真实反映出 GAN 里面的机理.
......
# [莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的 # 5.1 – 为什么 Torch 是动态的
听说过 Torch 的人都听说了 torch 是动态的, 那他的动态到底是什么呢? 我们用一个 RNN 的例子来展示一下动态计算到底长什么样. 听说过 Torch 的人都听说了 torch 是动态的, 那他的动态到底是什么呢? 我们用一个 RNN 的例子来展示一下动态计算到底长什么样.
......
# [莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算 # 5.2 – GPU 加速运算
在 GPU 训练可以大幅提升运算速度. 而且 Torch 也有一套很好的 GPU 运算体系. 但是要强调的是: 在 GPU 训练可以大幅提升运算速度. 而且 Torch 也有一套很好的 GPU 运算体系. 但是要强调的是:
......
# [莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合 # 5.3 – Dropout 防止过拟合
过拟合让人头疼, 明明训练时误差已经降得足够低, 可是测试的时候误差突然飙升. 这很有可能就是出现了过拟合现象. 强烈推荐通过(下面)这个动画的形式短时间了解什么是过拟合, 怎么解决过拟合. 下面动图就显示了我们成功缓解了过拟合现象. 过拟合让人头疼, 明明训练时误差已经降得足够低, 可是测试的时候误差突然飙升. 这很有可能就是出现了过拟合现象. 强烈推荐通过(下面)这个动画的形式短时间了解什么是过拟合, 怎么解决过拟合. 下面动图就显示了我们成功缓解了过拟合现象.
......
# [莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化 # 5.4 – Batch Normalization 批标准化
批标准化通俗来说就是对每一层神经网络进行标准化 (normalize) 处理, 我们知道对输入数据进行标准化能让机器学习有效率地学习. 如果把每一层后看成这种接受输入数据的模式, 那我们何不 “批标准化” 所有的层呢? 具体而且清楚的解释请看到 我(原作者)制作的 什么批标准化 动画简介(推荐)(如下). 批标准化通俗来说就是对每一层神经网络进行标准化 (normalize) 处理, 我们知道对输入数据进行标准化能让机器学习有效率地学习. 如果把每一层后看成这种接受输入数据的模式, 那我们何不 “批标准化” 所有的层呢? 具体而且清楚的解释请看到 我(原作者)制作的 什么批标准化 动画简介(推荐)(如下).
......
+ [莫烦 PyTorch 系列教程](README.md) + [莫烦 PyTorch 系列教程](README.md)
+ [PyTorch 简介](01.md) + [PyTorch 简介](01.md)
+ [[莫烦 PyTorch 系列教程] 1.1 – Why PyTorch?](02.md) + [1.1 – Why PyTorch?](02.md)
+ [[莫烦 PyTorch 系列教程] 1.2 – 安装 PyTorch](03.md) + [1.2 – 安装 PyTorch](03.md)
+ [PyTorch 神经网络基础](04.md) + [PyTorch 神经网络基础](04.md)
+ [[莫烦 PyTorch 系列教程] 2.1 – Torch vs Numpy](05.md) + [2.1 – Torch vs Numpy](05.md)
+ [[莫烦 PyTorch 系列教程] 2.2 – 变量 (Variable)](06.md) + [2.2 – 变量 (Variable)](06.md)
+ [[莫烦 PyTorch 系列教程] 2.3 – 激励函数 (Activation)](07.md) + [2.3 – 激励函数 (Activation)](07.md)
+ [建造第一个神经网络](08.md) + [建造第一个神经网络](08.md)
+ [[莫烦 PyTorch 系列教程] 3.1 – 关系拟合 (回归 Regression)](09.md) + [3.1 – 关系拟合 (回归 Regression)](09.md)
+ [[莫烦 PyTorch 系列教程] 3.2 – 区分类型 (分类 Classification)](10.md) + [3.2 – 区分类型 (分类 Classification)](10.md)
+ [[莫烦 PyTorch 系列教程] 3.3 – 快速搭建回归神经网络](11.md) + [3.3 – 快速搭建回归神经网络](11.md)
+ [[莫烦 PyTorch 系列教程] 3.4 – 保存和恢复模型](12.md) + [3.4 – 保存和恢复模型](12.md)
+ [[莫烦 PyTorch 系列教程] 3.5 – 数据读取 (Data Loader)](13.md) + [3.5 – 数据读取 (Data Loader)](13.md)
+ [[莫烦 PyTorch 系列教程] 3.6 – 优化器 (Optimizer)](14.md) + [3.6 – 优化器 (Optimizer)](14.md)
+ [高级神经网络结构](15.md) + [高级神经网络结构](15.md)
+ [[莫烦 PyTorch 系列教程] 4.1 – CNN 卷积神经网络](16.md) + [4.1 – CNN 卷积神经网络](16.md)
+ [[莫烦 PyTorch 系列教程] 4.2 – RNN 循环神经网络 (分类 Classification)](17.md) + [4.2 – RNN 循环神经网络 (分类 Classification)](17.md)
+ [[莫烦 PyTorch 系列教程] 4.3 – RNN 循环神经网络 (回归 Regression)](18.md) + [4.3 – RNN 循环神经网络 (回归 Regression)](18.md)
+ [[莫烦 PyTorch 系列教程] 4.4 – AutoEncoder (自编码/非监督学习)](19.md) + [4.4 – AutoEncoder (自编码/非监督学习)](19.md)
+ [[莫烦 PyTorch 系列教程] 4.5 – DQN 强化学习 (Reinforcement Learning)](20.md) + [4.5 – DQN 强化学习 (Reinforcement Learning)](20.md)
+ [[莫烦 PyTorch 系列教程] 4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](21.md) + [4.6 – GAN (Generative Adversarial Nets 生成对抗网络)](21.md)
+ [高阶内容](22.md) + [高阶内容](22.md)
+ [[莫烦 PyTorch 系列教程] 5.1 – 为什么 Torch 是动态的](23.md) + [5.1 – 为什么 Torch 是动态的](23.md)
+ [[莫烦 PyTorch 系列教程] 5.2 – GPU 加速运算](24.md) + [5.2 – GPU 加速运算](24.md)
+ [[莫烦 PyTorch 系列教程] 5.3 – Dropout 防止过拟合](25.md) + [5.3 – Dropout 防止过拟合](25.md)
+ [[莫烦 PyTorch 系列教程] 5.4 – Batch Normalization 批标准化](26.md) + [5.4 – Batch Normalization 批标准化](26.md)
\ No newline at end of file \ No newline at end of file
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册