Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
Phil_X
ml-nlp
提交
9a824e97
M
ml-nlp
项目概览
Phil_X
/
ml-nlp
与 Fork 源项目一致
从无法访问的项目Fork
通知
1
Star
0
Fork
0
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-nlp
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
9a824e97
编写于
9月 24, 2019
作者:
N
NLP-LOVE
提交者:
GitHub
9月 24, 2019
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
Update 3.2 GBDT
上级
35a1ce59
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
3 addition
and
3 deletion
+3
-3
Machine Learning/3.2 GBDT/3.2 GBDT.md
Machine Learning/3.2 GBDT/3.2 GBDT.md
+3
-3
未找到文件。
Machine Learning/3.2 GBDT/3.2 GBDT.md
浏览文件 @
9a824e97
...
...
@@ -81,7 +81,7 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
1.
预测阶段的计算速度快,树与树之间可并行化计算。
2.
在分布稠密的数据集上,泛化能力和表达能力都很好,这使得GBDT在Kaggle的众多竞赛中,经常名列榜首。
3.
采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系
,并且也不需要对数据进行特殊的预处理如归一化等
。
3.
采用决策树作为弱分类器使得GBDT模型具有较好的解释性和鲁棒性,能够自动发现特征间的高阶关系。
### 3.2 局限性
...
...
@@ -93,11 +93,11 @@ GBDT的原理很简单,就是所有弱分类器的结果相加等于预测值
**相同点**
:
都是由多棵树组成,最终的结果都是由多棵树一起决定。
-
都是由多棵树组成,最终的结果都是由多棵树一起决定。
-
RF和GBDT在使用CART树时,可以是分类树或者回归树。
**不同点**
:
-
组成随机森林的树可以分类树也可以是回归树,而GBDT只由回归树组成
-
组成随机森林的树可以并行生成,而GBDT是串行生成
-
随机森林的结果是多数表决表决的,而GBDT则是多棵树累加之和
-
随机森林对异常值不敏感,而GBDT对异常值比较敏感
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录