diff --git a/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md b/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md index 780e2e1dd097d4539651990d553e0aa1186f32d5..86bbd2deeffe0d777fd2f2f50780e755b32973ef 100644 --- a/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md +++ b/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md @@ -706,7 +706,7 @@ Best: 0.714844 using {'neurons': 5} * **并行化**:如果可以的话,使用你所有的核心,神经网络训练很慢,我们经常想尝试很多不同的参数,考虑搞砸很多 [AWS 实例](http://machinelearningmastery.com/develop-evaluate-large-deep-learning-models-keras-amazon-web-services/)。 * **使用数据集样本**:因为网络训练很慢,所以尝试在训练数据集的较小样本上训练它们,只是为了了解参数的一般方向而不是最佳配置。 * **从粗网格开始**:从粗粒度网格开始,一旦缩小范围,就可以缩放到更细粒度的网格。 -* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目。而是寻找更广泛的趋势,例如层数或参数之间的关系。 +* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目,而是寻找更广泛的趋势,例如层数或参数之间的关系。 * **再现性是一个问题**:虽然我们在 NumPy 中为随机数生成器设置种子,但结果不是 100%可重复的,当网格搜索包装 Keras 模型时,重复性要高于本文中提供的内容。 ## 摘要 @@ -715,9 +715,9 @@ Best: 0.714844 using {'neurons': 5} 具体来说,你学到了: -* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索。 -* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数。 -* 如何设计自己的超参数优化实验。 +* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索 +* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数 +* 如何设计自己的超参数优化实验 你有调整大型神经网络超参数的经验吗?请在下面分享您的故事。