未验证 提交 f50e1534 编写于 作者: L loopyme 提交者: GitHub

Merge pull request #362 from VPrincekin/master

1.2 线性和二次判别分析 
......@@ -30,7 +30,7 @@ Linear Discriminant Analysis(线性判别分析)([`discriminant_analysis.Lin
## 1.2.2. LDA 和 QDA 分类器的数学公式
LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的相关分布 ![P(X|y=k)](img/a71a1d9e35b09d284da476b2175edf6f.jpg) 都可以通过贝叶斯定理所获得。
LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的相关分布![P(X|y=k)](img/a71a1d9e35b09d284da476b2175edf6f.jpg) 都可以通过贝叶斯定理所获得。
![P(y=k | X) = \frac{P(X | y=k) P(y=k)}{P(X)} = \frac{P(X | y=k) P(y = k)}{ \sum_{l} P(X | y=l) \cdot P(y=l)}](img/accc37ed7ec2ed38ec70c71f5d6aeebe.jpg)
......@@ -46,11 +46,11 @@ LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类
在 LDA 中,每个类别k的高斯分布共享相同的协方差矩阵:![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd.jpg)。这导致了两者之间的线性决策面,这可以通过比较对数概率比看出来
![\log[P(y=k | X) / P(y=l | X)]](img/fd132d0faf19fdc76254a6317ed1acfd.jpg)
![\log[P(y=k | X) / P(y=l | X)]](img/fd132d0faf19fdc76254a6317ed1acfd.jpg)
![\log\left(\frac{P(y=k|X)}{P(y=l | X)}\right) = 0 \Leftrightarrow (\mu_k-\mu_l)\Sigma^{-1} X = \frac{1}{2} (\mu_k^t \Sigma^{-1} \mu_k - \mu_l^t \Sigma^{-1} \mu_l)](img/2a0c137e7b86ad939e131293a273579b.jpg)
在 QDA 中,没有关于高斯协方差矩阵 ![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd.jpg) 的假设,因此有了二次决策平面. 更多细节见 参考文献[3].
在 QDA 中,没有关于高斯协方差矩阵 ![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd2.jpg) 的假设,因此有了二次决策平面. 更多细节见 参考文献[3].
> **注意:与高斯朴素贝叶斯的关系**
>
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册