Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
ml-mastery-zh
提交
d0b368f4
M
ml-mastery-zh
项目概览
OpenDocCN
/
ml-mastery-zh
8 个月 前同步成功
通知
2
Star
556
Fork
158
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-mastery-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
未验证
提交
d0b368f4
编写于
9月 30, 2019
作者:
ElamDavies
提交者:
GitHub
9月 30, 2019
浏览文件
操作
浏览文件
下载
差异文件
Merge pull request #33 from ElmaDavies/master
格式校验,翻译校正
上级
a2f7c338
6f538ba9
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
4 addition
and
4 deletion
+4
-4
docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md
...arch-hyperparameters-deep-learning-models-python-keras.md
+4
-4
未找到文件。
docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md
浏览文件 @
d0b368f4
...
...
@@ -706,7 +706,7 @@ Best: 0.714844 using {'neurons': 5}
*
**并行化**
:如果可以的话,使用你所有的核心,神经网络训练很慢,我们经常想尝试很多不同的参数,考虑搞砸很多
[
AWS 实例
](
http://machinelearningmastery.com/develop-evaluate-large-deep-learning-models-keras-amazon-web-services/
)
。
*
**使用数据集样本**
:因为网络训练很慢,所以尝试在训练数据集的较小样本上训练它们,只是为了了解参数的一般方向而不是最佳配置。
*
**从粗网格开始**
:从粗粒度网格开始,一旦缩小范围,就可以缩放到更细粒度的网格。
*
**不转移结果**
:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目
。
而是寻找更广泛的趋势,例如层数或参数之间的关系。
*
**不转移结果**
:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目
,
而是寻找更广泛的趋势,例如层数或参数之间的关系。
*
**再现性是一个问题**
:虽然我们在 NumPy 中为随机数生成器设置种子,但结果不是 100%可重复的,当网格搜索包装 Keras 模型时,重复性要高于本文中提供的内容。
## 摘要
...
...
@@ -715,9 +715,9 @@ Best: 0.714844 using {'neurons': 5}
具体来说,你学到了:
*
如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索
。
*
如何为 Keras 模型网格搜索一套不同的标准神经网络参数
。
*
如何设计自己的超参数优化实验
。
*
如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索
*
如何为 Keras 模型网格搜索一套不同的标准神经网络参数
*
如何设计自己的超参数优化实验
你有调整大型神经网络超参数的经验吗?请在下面分享您的故事。
...
...
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录