提交 47b5a7fc 编写于 作者: 片刻小哥哥's avatar 片刻小哥哥

Merge branch 'master' of github.com:apachecn/sklearn-doc-zh

# 1.2. 线性和二次判别分析
校验者:
校验者
        [@AnybodyHome](https://github.com/AnybodyHome)
        [@numpy](https://github.com/apachecn/scikit-learn-doc-zh)
[@Loopy](https://github.com/loopyme)
翻译者:
        [@Loopy](https://github.com/loopyme)
        [@N!no](https://github.com/lovelybuggies)
翻译者:
        [@FAME](https://github.com/apachecn/scikit-learn-doc-zh)
        [@N!no](https://github.com/lovelybuggies)
Linear Discriminant Analysis(线性判别分析)([`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis)) 和 Quadratic Discriminant Analysis (二次判别分析)([`discriminant_analysis.QuadraticDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis.html#sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis)) 是两个经典的分类器。 正如他们名字所描述的那样,他们分别代表了线性决策平面和二次决策平面。
线性判别分析([`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis))和二次判别分析([`discriminant_analysis.QuadraticDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis.html#sklearn.discriminant_analysis.QuadraticDiscriminantAnalysis)是两个经典的分类器。 正如他们名字所描述的那样,他们分别代表了线性决策平面和二次决策平面。
这些分类器十分具有吸引力,因为他们可以很容易计算得到闭式解(即解析解),其天生具有多分类的特性,在实践中已经被证明很有效,并且无需调参
这些分类器十分具有吸引力,因为它们可以很容易计算得到闭式解(即解析解)。其本身具有多分类的特性,在实践中已经被证明很有效,而且无需调节超参数
**[![ldaqda](img/sphx_glr_plot_lda_qda_0011.png)](https://scikit-learn.org/stable/auto_examples/classification/plot_lda_qda.html)**
以上这些图像展示了 Linear Discriminant Analysis (线性判别分析)以及 Quadratic Discriminant Analysis (二次判别分析)的决策边界。其中,最后一行表明了线性判别分析只能学习线性边界, 而二次判别分析则可以学习二次边界,因此它相对而言更加灵活。
以上这些图像展示了线性判别分析以及二次判别分析的决策边界。其中,最后一行表明了线性判别分析只能学习线性边界, 而二次判别分析则可以学习二次边界,因此它相对而言更加灵活。
> 示例:
>* [Linear and Quadratic Discriminant Analysis with covariance ellipsoid](https://scikit-learn.org/stable/auto_examples/classification/plot_lda_qda.html): LDA和QDA在特定数据上的对比
> **示例:**
>
> * [Linear and Quadratic Discriminant Analysis with covariance ellipsoid](https://scikit-learn.org/stable/auto_examples/classification/plot_lda_qda.html):LDA和QDA在特定数据上的对比
## 1.2.1. 使用线性判别分析来降维
[`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis) 通过把输入的数据投影到由最大化类之间分离的方向所组成的线性子空间,可以执行有监督降维(详细的内容见下面的数学推导)。输出的维度必然会比原来的类别数量更少的。因此它总体而言是十分强大的降维方式,同样也仅仅在多分类环境下才能感觉到。
[`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis) 通过把输入的数据投影到由最大化类间分离所组成的线性子空间,来执行有监督降维(详细的内容见下面的数学推导部分)。输出的维度必然会比原来的类别数量更少的。因此它总体而言是十分强大的降维方式,同样也仅仅在多分类环境下才能感觉到。
实现方式在 [`discriminant_analysis.LinearDiscriminantAnalysis.transform`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis.transform) 中。关于维度的数量可以通过 `n_components` 参数来调节。 值得注意的是,这个参数不会对 [`discriminant_analysis.LinearDiscriminantAnalysis.fit`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis.fit) 或者 [`discriminant_analysis.LinearDiscriminantAnalysis.predict`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis.predict) 产生影响。
......@@ -30,62 +33,61 @@ Linear Discriminant Analysis(线性判别分析)([`discriminant_analysis.Lin
## 1.2.2. LDA 和 QDA 分类器的数学公式
LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的相关分布![P(X|y=k)](img/a71a1d9e35b09d284da476b2175edf6f.jpg) 都可以通过贝叶斯定理所获得
LDA 和 QDA 都是源于简单的概率模型,这些模型对于每一个类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的相关分布![P(X|y=k)](img/a71a1d9e35b09d284da476b2175edf6f.jpg) 都可以通过贝叶斯定理所获得
![P(y=k | X) = \frac{P(X | y=k) P(y=k)}{P(X)} = \frac{P(X | y=k) P(y = k)}{ \sum_{l} P(X | y=l) \cdot P(y=l)}](img/accc37ed7ec2ed38ec70c71f5d6aeebe.jpg)
我们选择最大化条件概率的类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg).
我们选择最大化条件概率的类别 ![k](img/f93871977da52a6d11045d57c3e18728.jpg)
更具体地说,对于线性以及二次判别分析, ![P(X|y)](img/85f7fc9836edfbdcd2a7533674940b46.jpg) 被建模成密度多变量高斯分布:
更具体地说,对于线性以及二次判别分析,![P(X|y)](img/85f7fc9836edfbdcd2a7533674940b46.jpg) 被建模成密度多变量高斯分布:
![p(X | y=k) = \frac{1}{(2\pi)^n |\Sigma_k|^{1/2}}\exp\left(-\frac{1}{2} (X-\mu_k)^t \Sigma_k^{-1} (X-\mu_k)\right)](img/6f25bd1d6d3abb565ca3007f8ac1d855.jpg)
其中的d是特征数量
为了把该模型作为分类器使用,我们只需要从训练数据中估计出类的先验概率 ![P(y=k)](img/a25320a2e009abd4269f291f85062a5d.jpg) (通过每个类 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的实例的比例得到) 类别均值 ![\mu_k](img/fdff527ccbac4fd87c2ca9c4bed5fce2.jpg) (通过经验样本的类别均值得到)以及协方差矩阵(通过经验样本的类别协方差或者正则化的估计器 estimator 得到: 见下面的 shrinkage 章节)。
其中的 ![d](img/4a22ca544916918b2358e5fc7c71b8e7.png) 是特征的数量。
在 LDA 中,每个类别k的高斯分布共享相同的协方差矩阵:![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd.jpg)。这导致了两者之间的线性决策面,这可以通过比较对数概率比看出来
为了把该模型作为分类器使用,我们只需要从训练数据中估计出类的先验概率 ![P(y=k)](img/a25320a2e009abd4269f291f85062a5d.jpg) (通过每个类 ![k](img/f93871977da52a6d11045d57c3e18728.jpg) 的实例的比例得到),类别均值 ![\mu_k](img/fdff527ccbac4fd87c2ca9c4bed5fce2.jpg) (通过经验样本的类别均值得到),以及协方差矩阵(通过经验样本的类别协方差或者正则化的估计器 estimator 得到:见下面的 shrinkage 章节)。
![\log[P(y=k | X) / P(y=l | X)]](img/fd132d0faf19fdc76254a6317ed1acfd.jpg)
在 LDA 中,每个类别的高斯分布共享相同的协方差矩阵:![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd.jpg)for all ![k](img/f93871977da52a6d11045d57c3e18728.jpg)。这导致了两者之间的线性决策面,这可以通过比较对数概率比![\log[P(y=k | X) / P(y=l | X)]](img/fd132d0faf19fdc76254a6317ed1acfd.png) 看出来:
![\log\left(\frac{P(y=k|X)}{P(y=l | X)}\right) = 0 \Leftrightarrow (\mu_k-\mu_l)\Sigma^{-1} X = \frac{1}{2} (\mu_k^t \Sigma^{-1} \mu_k - \mu_l^t \Sigma^{-1} \mu_l)](img/2a0c137e7b86ad939e131293a273579b.jpg)
![\log\left(\frac{P(y=k|X)}{P(y=l | X)}\right) = \log\big(\frac{P(X|y=k)P(y=k)}{P(X|y=l)P(y=l)}\big) = 0 \Leftrightarrow\\ {(\mu_k-\mu_l)}^t\Sigma^{-1} X = \frac{1}{2} (\mu_k^t \Sigma^{-1} \mu_k - \mu_l^t \Sigma^{-1} \mu_l) -\log\frac{P(y=k)}{p(y=l)}](img/2a0c137e7b86ad939e131293a273579b.png)
在 QDA 中,没有关于高斯协方差矩阵 ![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd2.jpg) 的假设,因此有了二次决策平面. 更多细节见 参考文献[3].
在 QDA 情况中,没有关于高斯协方差矩阵 ![\Sigma_k](img/ffecfca02992b6a85e966c9440cb40dd2.jpg) 的假设,因此有了二次决策平面。更多细节见参考文献 [[3]](https://scikit-learn.org/stable/modules/lda_qda.html#id4)
> **注意:与高斯朴素贝叶斯的关系**
> **注意与高斯朴素贝叶斯的关系**
>
>如果在QDA模型中假设协方差矩阵是对角的,则输入被假设为在每个类中是条件独立的,所得的分类器等同于高斯朴素贝叶斯分类器 [`naive_bayes.GaussianNB`](https://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.GaussianNB.html#sklearn.naive_bayes.GaussianNB) 相同
>如果在QDA模型中假设协方差矩阵是对角的,则输入被假设为在每个类中是条件独立的,所得的分类器等同于高斯朴素贝叶斯分类器 [`naive_bayes.GaussianNB`](https://scikit-learn.org/stable/modules/generated/sklearn.naive_bayes.GaussianNB.html#sklearn.naive_bayes.GaussianNB) 。
## 1.2.3. LDA 的降维数学公式
为了理解 LDA 在降维上的应用,从上面解释的 LDA 分类规则的几何重构开始是十分有用的。我们用 ![K](img/e279b8169ddd6581c5606c868ba52fae.jpg) 表示目标类别的总数。 由于在 LDA 中我们假设所有类别都有相同估计的协方差 ![\Sigma](img/2ca002ed0f4e27f9040d3f3ec58fbb38.jpg) ,所以我们可重新调节数据从而让协方差相同。
为了理解 LDA 在降维上的应用,从上面解释的 LDA 分类规则的几何重构开始是十分有用的。我们用 ![K](img/e279b8169ddd6581c5606c868ba52fae.jpg) 表示目标类别的总数。 由于在 LDA 中我们假设所有类别都有相同估计的协方差 ![\Sigma](img/2ca002ed0f4e27f9040d3f3ec58fbb38.jpg) 所以我们可重新调节数据从而让协方差相同。
![X^* = D^{-1/2}U^t X\text{ with }\Sigma = UDU^t](img/7682696b3b598c55d49ca030059f0a18.jpg)
在缩放之后对数据点进行分类相当于找到与欧几里得距离中的数据点最接近的估计类别均值。但是它也可以在投影到K-1个由所有类中的所有![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg) 生成的仿射子空间![H_K](img/499e262369261799dec950eb33da9ccf.jpg) 之后完成。这也表明,LDA 分类器中存在一个利用线性投影到 ![K-1](img/7ce09555ac9e490df7f81ef7eb0e58e8.jpg) 个维度空间的降维工具。
在缩放之后对数据点进行分类相当于找到与欧几里得距离中的数据点最接近的估计类别均值 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg)。但是它也可以在投影到 ![K-1](img/7ce09555ac9e490df7f81ef7eb0e58e8.jpg) 个由所有类中的所有 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg) 生成的仿射子空间 ![H_K](img/499e262369261799dec950eb33da9ccf.jpg) 之后完成。这也表明,LDA 分类器中存在一个利用线性投影到 ![K-1](img/7ce09555ac9e490df7f81ef7eb0e58e8.jpg) 个维度空间的降维工具。
通过投影到线性子空间 ![H_L](img/7df17fc33fdb4c71b329c593ad30f47e.jpg) 上,我们可以进一步将维数减少到一个选定的 ![L](img/639e82f3829a0ad677110cc33a028c98.jpg) ,从而使投影后的 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg) 的方差最大化(实际上,为了实现转换类均值 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg),我们正在做一种形式的 PCA)。 这里的 ![L](img/639e82f3829a0ad677110cc33a028c98.jpg) 对应于 [`discriminant_analysis.LinearDiscriminantAnalysis.transform`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis.transform) 方法中使用的 `n_components` 参数。 详情参考 参考文献[3]
通过投影到线性子空间 ![H_L](img/7df17fc33fdb4c71b329c593ad30f47e.jpg) 上,我们可以进一步将维数减少到一个选定的 ![L](img/639e82f3829a0ad677110cc33a028c98.jpg) ,从而使投影后的 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg) 的方差最大化(实际上为了实现转换类均值 ![\mu^*_k](img/d6293957048ac05c3ae0dfac9949537c.jpg),我们正在做某种形式的 PCA)。 这里的 ![L](img/639e82f3829a0ad677110cc33a028c98.jpg) 对应于 [`discriminant_analysis.LinearDiscriminantAnalysis.transform`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis.transform) 方法中使用的 `n_components` 参数。 详情参考参考文献 [[3]](https://scikit-learn.org/stable/modules/lda_qda.html#id4)
## 1.2.4. Shrinkage(收缩)
## 1.2.4. 收缩
收缩是一种在训练样本数量相比特征而言很小的情况下可以提升的协方差矩阵预测(准确性)的工具。 在这个情况下,经验样本协方差是一个很差的预测器。收缩 LDA 可以通过设置 [`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis) 类的 `shrinkage` 参数为 ‘auto’ 来实现
收缩是一种在训练样本数量相比特征而言很小的情况下,提升的协方差矩阵预测准确性的工具。 在这种情景中,经验样本协方差是一个很差的预测器。收缩 LDA 可以通过设置 [`discriminant_analysis.LinearDiscriminantAnalysis`](https://scikit-learn.org/stable/modules/generated/sklearn.discriminant_analysis.LinearDiscriminantAnalysis.html#sklearn.discriminant_analysis.LinearDiscriminantAnalysis) 类的 `shrinkage` 参数为 ‘auto’ 来实现。这将根据 Ledoit 和 Wolf 引入的引理 [[4]](https://scikit-learn.org/stable/modules/lda_qda.html#id5),以解析的方式自动确定最佳收缩参数。值得注意的是,当前的收缩仅仅在`solver`参数为 `lsqr``eigen ` 时才会起作用
`shrinkage` parameter (收缩参数)的值同样也可以手动被设置为 0-1 之间。特别地,0 值对应着没有收缩(这意味着经验协方差矩阵将会被使用), 而 1 值则对应着完全使用收缩(意味着方差的对角矩阵将被当作协方差矩阵的估计)。设置该参数在两个极端值之间会估计一个(特定的)协方差矩阵的收缩形式
`shrinkage` 参数的值同样也可以手动被设置为 0-1 之间。特别地,0 值对应着没有收缩(这意味着经验协方差矩阵将会被使用),而 1 值则对应着完全使用收缩(意味着方差的对角矩阵将被当作协方差矩阵的估计)。将此参数设置为这两个极值之间的值将估计协方差矩阵的一个收缩版本。
**[![shrinkage](img/d5021b539c18587624a07ef6df00f585.jpg)](https://scikit-learn.org/stable/auto_examples/classification/plot_lda.html)**
## 1.2.5. 预估算法
默认的 solver 是 ‘svd’。它可以进行classification (分类) 以及 transform (转换),而且它不会依赖于协方差矩阵的计算(结果)。这在特征数量特别大的时候十分具有优势。然而,’svd’ solver 无法与 shrinkage (收缩)同时使用。
默认的 solver 是 ‘svd’。它可以进行分类)以及转换,而且它不会依赖于协方差矩阵的计算结果。这在特征数量特别大的时候十分具有优势。然而,’svd’ 解决器无法与收缩同时使用。
`lsqr` solver 则是一个高效的算法,它仅用于分类使用。它支持 shrinkage (收缩)
‘lsqr’ 解决器则是一个高效的算法,它仅用于分类问题。它支持收缩
`eigen`(特征) solver 是基于 class scatter (类散度)与 class scatter ratio (类内离散率)之间的优化。 它可以被用于 classification (分类)以及 transform (转换),此外它还同时支持收缩。然而,该解决方案需要计算协方差矩阵,因此它可能不适用于具有大量特征的情况。
‘eigen’ 解决器是基于类散度与类内离散率之间的优化。 它可以被用于分类以及转换,此外它还同时支持收缩。然而该解决方案需要计算协方差矩阵,因此它可能不适用于具有大量特征的情况。
> 示例:
> **示例:**
>
>* [Normal and Shrinkage Linear Discriminant Analysis for classification](https://scikit-learn.org/stable/auto_examples/classification/plot_lda.html#sphx-glr-auto-examples-classification-plot-lda-py): Comparison of LDA classifiers with and without shrinkage.
>* [Normal and Shrinkage Linear Discriminant Analysis for classification](https://scikit-learn.org/stable/auto_examples/classification/plot_lda.html#sphx-glr-auto-examples-classification-plot-lda-py:有收缩和无收缩LDA分类器的比较。
> **参考资料**:
> * [3] “The Elements of Statistical Learning”, Hastie T., Tibshirani R., Friedman J., Section 4.3, p.106-119, 2008.
> * [4] Ledoit O, Wolf M. Honey, I Shrunk the Sample Covariance Matrix. The Journal of Portfolio Management 30(4), 110-119, 2004.
> **参考资料:**
>
> * **3([1](https://scikit-learn.org/stable/modules/lda_qda.html#id1),[2](https://scikit-learn.org/stable/modules/lda_qda.html#id2))** “The Elements of Statistical Learning”, Hastie T., Tibshirani R., Friedman J., Section 4.3, p.106-119, 2008.
> * **[[4]](https://scikit-learn.org/stable/modules/lda_qda.html#id3)** Ledoit O, Wolf M. Honey, I Shrunk the Sample Covariance Matrix. The Journal of Portfolio Management 30(4), 110-119, 2004.
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册