From 6f538ba98759738777b6542636ed354808408c65 Mon Sep 17 00:00:00 2001 From: ElmaDavies <1306014226@qq.com> Date: Mon, 30 Sep 2019 21:15:22 +0800 Subject: [PATCH] =?UTF-8?q?=E6=A0=BC=E5=BC=8F=E6=A0=A1=E9=AA=8C=EF=BC=8C?= =?UTF-8?q?=E7=BF=BB=E8=AF=91=E6=A0=A1=E6=AD=A3?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- ...h-hyperparameters-deep-learning-models-python-keras.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md b/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md index 780e2e1..86bbd2d 100644 --- a/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md +++ b/docs/dl-keras/grid-search-hyperparameters-deep-learning-models-python-keras.md @@ -706,7 +706,7 @@ Best: 0.714844 using {'neurons': 5} * **并行化**:如果可以的话,使用你所有的核心,神经网络训练很慢,我们经常想尝试很多不同的参数,考虑搞砸很多 [AWS 实例](http://machinelearningmastery.com/develop-evaluate-large-deep-learning-models-keras-amazon-web-services/)。 * **使用数据集样本**:因为网络训练很慢,所以尝试在训练数据集的较小样本上训练它们,只是为了了解参数的一般方向而不是最佳配置。 * **从粗网格开始**:从粗粒度网格开始,一旦缩小范围,就可以缩放到更细粒度的网格。 -* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目。而是寻找更广泛的趋势,例如层数或参数之间的关系。 +* **不转移结果**:结果通常是特定于问题的。尝试在您看到的每个新问题上避免喜欢的配置。您在一个问题上发现的最佳结果不太可能转移到您的下一个项目,而是寻找更广泛的趋势,例如层数或参数之间的关系。 * **再现性是一个问题**:虽然我们在 NumPy 中为随机数生成器设置种子,但结果不是 100%可重复的,当网格搜索包装 Keras 模型时,重复性要高于本文中提供的内容。 ## 摘要 @@ -715,9 +715,9 @@ Best: 0.714844 using {'neurons': 5} 具体来说,你学到了: -* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索。 -* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数。 -* 如何设计自己的超参数优化实验。 +* 如何包装 Keras 模型用于 scikit-learn 以及如何使用网格搜索 +* 如何为 Keras 模型网格搜索一套不同的标准神经网络参数 +* 如何设计自己的超参数优化实验 你有调整大型神经网络超参数的经验吗?请在下面分享您的故事。 -- GitLab