提交 1e22bc36 编写于 作者: W wizardforcel

ch8 tex

上级 5b67ebd6
......@@ -55,7 +55,7 @@
| 五、支持向量机 | [@QiaoXie](https://github.com/QiaoXie) | [@飞龙](https://github.com/wizardforcel) [@PeterHo](https://github.com/PeterHo) [@yanmengk](https://github.com/yanmengk) |
| 六、决策树 | [*@Lisanaaa*](https://github.com/Lisanaaa) |
| 七、集成学习和随机森林 | [@friedhelm739](https://github.com/friedhelm739) | [@飞龙](https://github.com/wizardforcel) [@PeterHo](https://github.com/PeterHo) [@yanmengk](https://github.com/yanmengk) |
| 八、降维 | [@loveSnowBest](https://github.com/zehuichen123) | [@飞龙](https://github.com/wizardforcel) [@PeterHo](https://github.com/PeterHo) |
| 八、降维 | [@loveSnowBest](https://github.com/zehuichen123) | [@飞龙](https://github.com/wizardforcel) [@PeterHo](https://github.com/PeterHo) [@yanmengk](https://github.com/yanmengk) |
| **第二部分 神经网络与深度学习** | - |
| 九、启动并运行TensorFlow | [@akonwang](https://github.com/wangxupeng) [@WilsonQu](https://github.com/WilsonQu) | [@Lisanaaa](https://github.com/Lisanaaa) [@飞龙](https://github.com/wizardforcel) |
| 十、人工神经网络介绍 | [@akonwang](https://github.com/wangxupeng) [@friedhelm739](https://github.com/friedhelm739) | [@飞龙](https://github.com/wizardforcel) |
......
......@@ -338,7 +338,7 @@ X_reduced=lle.fit_transform(X)
图 8-12 使用 LLE 展开瑞士卷
这是LLE的工作原理:首先,对于每个训练实例 $x^{(i)}$,该算法识别其最近的`k`个邻居(在前面的代码中`k = 10`中),然后尝试将 $x^{(i)}$ 重构为这些邻居的线性函数。更具体地,找到权重 $w_{i,j}$ 从而使 $x^{(i)}$ 和 $\sum_{j=1}^{m}w_{i,j} x^{(j)}$ 之间的平方距离尽可能的小,假设如果 $x^{(j)}$ 不是 $x^{(i)}$ 的`k`个最近邻时 $w_{i,j}=0$。因此,LLE 的第一步是方程 8-4 中描述的约束优化问题,其中`W`是包含所有权重 $w_{i,j}$ 的权重矩阵。第二个约束简单地对每个训练实例 $x^{(i)}$ 的权重进行归一化。
这是LLE的工作原理:首先,对于每个训练实例 ![x^{(i)}](../images/tex-e8fa5b806940d1b4d0059fba40646506.gif),该算法识别其最近的`k`个邻居(在前面的代码中`k = 10`中),然后尝试将 ![x^{(i)}](../images/tex-e8fa5b806940d1b4d0059fba40646506.gif) 重构为这些邻居的线性函数。更具体地,找到权重 ![w_{i,j}](../images/tex-e32c5b6b54ce1398ae1134e7688631ad.gif) 从而使 ![x^{(i)}](../images/tex-e8fa5b806940d1b4d0059fba40646506.gif) 和 ![\sum_{j=1}^{m}w_{i,j} x^{(j)}](../images/tex-3a4d978e6657d768ca9a800d0e1a8130.gif) 之间的平方距离尽可能的小,假设如果 ![x^{(j)}](../images/tex-b7762ca6ebcdab26862a6cd2ff27ac16.gif) 不是 ![x^{(i)}](../images/tex-e8fa5b806940d1b4d0059fba40646506.gif)`k`个最近邻时 ![w_{i,j}=0](../images/tex-095a09304bbece2585736594cca6bdbf.gif)。因此,LLE 的第一步是方程 8-4 中描述的约束优化问题,其中`W`是包含所有权重 ![w_{i,j}](../images/tex-e32c5b6b54ce1398ae1134e7688631ad.gif) 的权重矩阵。第二个约束简单地对每个训练实例 ![x^{(i)}](../images/tex-e8fa5b806940d1b4d0059fba40646506.gif) 的权重进行归一化。
公式 8-4 LLE 第一步:对局部关系进行线性建模
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册