Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
sklearn-doc-zh
提交
1d568312
S
sklearn-doc-zh
项目概览
OpenDocCN
/
sklearn-doc-zh
通知
3
Star
3
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
S
sklearn-doc-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
1d568312
编写于
4月 01, 2020
作者:
L
loopyme
提交者:
loopyme
4月 01, 2020
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
fix issue #396 & #400
上级
f504126e
变更
2
隐藏空白更改
内联
并排
Showing
2 changed file
with
2 addition
and
2 deletion
+2
-2
docs/0.21.3/2.md
docs/0.21.3/2.md
+1
-1
docs/0.21.3/5.md
docs/0.21.3/5.md
+1
-1
未找到文件。
docs/0.21.3/2.md
浏览文件 @
1d568312
...
...
@@ -47,7 +47,7 @@ array([ 0.5, 0.5])
### 1.1.1.1. 普通最小二乘法的复杂度
该方法使用 X 的奇异值分解来计算最小二乘解。如果 X 是一个形状为
`(n_samples, n_features)`
的矩阵,设
$$n_{samples}
\g
eq n_{features}$$, 则该方法的复杂度为$$O(n_{samples} n_{fearures}^2)
$$
该方法使用 X 的奇异值分解来计算最小二乘解。如果 X 是一个形状为
`(n_samples, n_features)`
的矩阵,设
$$ n_{samples}
\g
eq n_{features} $$ , 则该方法的复杂度为 $$ O(n_{samples} n_{fearures}^2)
$$
## 1.1.2. 岭回归
...
...
docs/0.21.3/5.md
浏览文件 @
1d568312
...
...
@@ -175,7 +175,7 @@ LinearSVC(C=1.0, class_weight=None, dual=True, fit_intercept=True,
支持向量分类生成的模型(如前描述)只依赖于训练集的子集,因为构建模型的 cost function 不在乎边缘之外的训练点. 类似的,支持向量回归生成的模型只依赖于训练集的子集, 因为构建模型的 cost function 忽略任何接近于模型预测的训练数据.
支持向量
分类
有三种不同的实现形式:
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
,
[
`NuSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.NuSVR.html#sklearn.svm.NuSVR
)
和
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
. 在只考虑线性核的情况下,
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
比
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
提供一个更快的实现形式, 然而比起
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
和
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
,
[
`NuSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.NuSVR.html#sklearn.svm.NuSVR
)
实现一个稍微不同的构思(formulation).细节参见
[
实现细节
](
#148-实现细节
)
.
支持向量
回归
有三种不同的实现形式:
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
,
[
`NuSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.NuSVR.html#sklearn.svm.NuSVR
)
和
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
. 在只考虑线性核的情况下,
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
比
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
提供一个更快的实现形式, 然而比起
[
`SVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.SVR.html#sklearn.svm.SVR
)
和
[
`LinearSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.LinearSVR.html#sklearn.svm.LinearSVR
)
,
[
`NuSVR`
](
https://scikit-learn.org/stable/modules/generated/sklearn.svm.NuSVR.html#sklearn.svm.NuSVR
)
实现一个稍微不同的构思(formulation).细节参见
[
实现细节
](
#148-实现细节
)
.
与分类的类别一样, fit方法会调用参数向量 X, y, 只在 y 是浮点数而不是整数型.:
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录