未验证 提交 d0b368f4 编写于 作者: ElamDavies's avatar ElamDavies 提交者: GitHub

Merge pull request #33 from ElmaDavies/master

格式校验,翻译校正
......@@ -706,7 +706,7 @@ Best: 0.714844 using {'neurons': 5}
* **并行化**:如果可以的话,使用你所有的核心,神经网络训练很慢,我们经常想尝试很多不同的参数,考虑搞砸很多 [AWS 实例](http://machinelearningmastery.com/develop-evaluate-large-deep-learning-models-keras-amazon-web-services/)
* **使用数据集样本**:因为网络训练很慢,所以尝试在训练数据集的较小样本上训练它们,只是为了了解参数的一般方向而不是最佳配置。
* **从粗网格开始**:从粗粒度网格开始,一旦缩小范围,就可以缩放到更细粒度的网格。
* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目而是寻找更广泛的趋势,例如层数或参数之间的关系。
* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目而是寻找更广泛的趋势,例如层数或参数之间的关系。
* **再现性是一个问题**:虽然我们在 NumPy 中为随机数生成器设置种子,但结果不是 100%可重复的,当网格搜索包装 Keras 模型时,重复性要高于本文中提供的内容。
## 摘要
......@@ -715,9 +715,9 @@ Best: 0.714844 using {'neurons': 5}
具体来说,你学到了:
* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索
* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数
* 如何设计自己的超参数优化实验
* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索
* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数
* 如何设计自己的超参数优化实验
你有调整大型神经网络超参数的经验吗?请在下面分享您的故事。
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册