diff --git a/docs/1.7/12.md b/docs/1.7/12.md index 9dc0b70d70d95338085950b2bab544aabc3936a0..79b13c154a05351df856e5ed71be837aa39a5a06 100644 --- a/docs/1.7/12.md +++ b/docs/1.7/12.md @@ -1,12 +1,15 @@ -# PyTorch:`nn` +# PYTHORCH: NN > 原文: -经过训练的三阶多项式,可以通过最小化平方的欧几里得距离来预测`y = sin(x)`从`-pi`到`pi`。 +一个三阶多项式,通过最小化平方欧几里得距离来训练,并预测函数 `y = sin(x)` 在`-pi`到`pi`上的值。 -此实现使用来自 PyTorch 的`nn`包来构建网络。 PyTorch Autograd 使定义计算图和获取梯度变得容易,但是原始的 Autograd 对于定义复杂的神经网络来说可能太低了。 这是`nn`包可以提供帮助的地方。 `nn`包定义了一组模块,您可以将其视为神经网络层,该神经网络层从输入产生输出并且可能具有一些可训练的权重。 +这个实现使用 PyTorch 的`nn`包来构建神经网络。 +PyTorch Autograd 让我们定义计算图和计算梯度变得容易了,但是原始的 Autograd 对于定义复杂的神经网络来说可能太底层了。 +这时候`nn`包就能帮上忙。 +`nn`包定义了一组模块,你可以把它视作一层神经网络,该神经网络层接受输入,产生输出,并且可能有一些可训练的权重。 -```py +```python import torch import math @@ -78,10 +81,8 @@ print(f'Result: y = {linear_layer.bias.item()} + {linear_layer.weight[:, 0].item ``` -**脚本的总运行时间**:(0 分钟 0.000 秒) +**脚本总运行时间**:(0 分钟 0.000 秒) [下载 Python 源码:`polynomial_nn.py`](https://pytorch.org/tutorials/_downloads/b4767df4367deade63dc8a0d3712c1d4/polynomial_nn.py) -[下载 Jupyter 笔记本:`polynomial_nn.ipynb`](https://pytorch.org/tutorials/_downloads/7bc167d8b8308ae65a717d7461d838fa/polynomial_nn.ipynb) - -[由 Sphinx 画廊](https://sphinx-gallery.readthedocs.io)生成的画廊 \ No newline at end of file +[下载 Jupyter 笔记本:`polynomial_nn.ipynb`](https://pytorch.org/tutorials/_downloads/7bc167d8b8308ae65a717d7461d838fa/polynomial_nn.ipynb) \ No newline at end of file