Skip to content
体验新版
项目
组织
正在加载...
登录
切换导航
打开侧边栏
OpenDocCN
ml-mastery-zh
提交
884f782b
M
ml-mastery-zh
项目概览
OpenDocCN
/
ml-mastery-zh
8 个月 前同步成功
通知
2
Star
556
Fork
158
代码
文件
提交
分支
Tags
贡献者
分支图
Diff
Issue
0
列表
看板
标记
里程碑
合并请求
0
Wiki
0
Wiki
分析
仓库
DevOps
项目成员
Pages
M
ml-mastery-zh
项目概览
项目概览
详情
发布
仓库
仓库
文件
提交
分支
标签
贡献者
分支图
比较
Issue
0
Issue
0
列表
看板
标记
里程碑
合并请求
0
合并请求
0
Pages
分析
分析
仓库分析
DevOps
Wiki
0
Wiki
成员
成员
收起侧边栏
关闭侧边栏
动态
分支图
创建新Issue
提交
Issue看板
前往新版Gitcode,体验更适合开发者的 AI 搜索 >>
提交
884f782b
编写于
9月 09, 2019
作者:
ElamDavies
浏览文件
操作
浏览文件
下载
电子邮件补丁
差异文件
翻译改进,格式校对
上级
7616f58c
变更
1
隐藏空白更改
内联
并排
Showing
1 changed file
with
124 addition
and
126 deletion
+124
-126
docs/dl-keras/display-deep-learning-model-training-history-in-keras.md
.../display-deep-learning-model-training-history-in-keras.md
+124
-126
未找到文件。
docs/dl-keras/display-deep-learning-model-training-history-in-keras.md
浏览文件 @
884f782b
# 在 Keras 展示深度学习模型训练历史
> 原文: [https://machinelearningmastery.com/display-deep-learning-model-training-history-in-keras/](https://machinelearningmastery.com/display-deep-learning-model-training-history-in-keras/)
您可以通过观察他们在训练期间随时间的表现来学习很多关于神经网络和深度学习模型的知识。
Keras 是一个功能强大的 Python 库,它提供了一个干净的界面来创建深度学习模型,并包含更技术性的 TensorFlow 和 Theano 后端。
在本文中,您将了解如何在使用 Keras 进行 Python 训练期间查看和可视化深度学习模型的表现。
让我们开始吧。
*
**2017 年 3 月更新:**
更新了 Keras 2.0.2,TensorFlow 1.0.1 和 Theano 0.9.0
**的示例。**
*
**更新 March / 2018**
:添加了备用链接以下载数据集,因为原始图像已被删除。
![
Display Deep Learning Model Training History in Keras
](
img/8f6199089c1bc957ea5e0a9d478c098a.png
)
在 Keras 中展示深度学习模型训练历史
照片由
[
Gordon Robertson
](
https://www.flickr.com/photos/gordon_robertson/5620659988/
)
拍摄,保留一些权利。
## Keras 中的访问模型训练历史
Keras 提供了在训练深度学习模型时注册回调的功能。
训练所有深度学习模型时注册的默认回调之一是
[
历史回调
](
http://keras.io/callbacks/
)
。它记录每个时期的训练指标。这包括损失和准确性(对于分类问题)以及验证数据集的损失和准确性(如果已设置)。
历史对象从调用返回到用于训练模型的 fit()函数返回。度量标准存储在返回对象的历史成员中的字典中。
例如,您可以在训练模型后使用以下代码段列出历史记录对象中收集的指标:
```
py
# list all data in history
print
(
history
.
history
.
keys
())
```
例如,对于使用验证数据集训练分类问题的模型,这可能会产生以下列表:
```
py
[
'acc'
,
'loss'
,
'val_acc'
,
'val_loss'
]
```
我们可以使用历史对象中收集的数据来创建绘图。
这些图可以提供有关模型训练的有用信息的指示,例如:
*
它是时代(坡度)的收敛速度。
*
模型是否已经收敛(线的高原)。
*
模型是否可能过度学习训练数据(验证线的变形)。
和更多。
## 可视化 Keras 中的模型训练历史
我们可以从收集的历史数据中创建绘图。
在下面的例子中,我们创建了一个小型网络来模拟皮马印第安人糖尿病二元分类问题。这是一个可从 UCI 机器学习库获得的小型数据集。您可以
[
下载数据集
](
http://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data
)
并将其保存为当前工作目录中的 _pima-indians-diabetes.csv_ (更新:
[
从此处下载
](
https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv
)
)。
该示例收集从训练模型返回的历史记录并创建两个图表:
1.
训练时期训练和验证数据集的准确性图。
2.
训练和验证数据集在训练时期的损失图。
```
py
# Visualize training history
from
keras.models
import
Sequential
from
keras.layers
import
Dense
import
matplotlib.pyplot
as
plt
import
numpy
# fix random seed for reproducibility
seed
=
7
numpy
.
random
.
seed
(
seed
)
# load pima indians dataset
dataset
=
numpy
.
loadtxt
(
"pima-indians-diabetes.csv"
,
delimiter
=
","
)
# split into input (X) and output (Y) variables
X
=
dataset
[:,
0
:
8
]
Y
=
dataset
[:,
8
]
# create model
model
=
Sequential
()
model
.
add
(
Dense
(
12
,
input_dim
=
8
,
kernel_initializer
=
'uniform'
,
activation
=
'relu'
))
model
.
add
(
Dense
(
8
,
kernel_initializer
=
'uniform'
,
activation
=
'relu'
))
model
.
add
(
Dense
(
1
,
kernel_initializer
=
'uniform'
,
activation
=
'sigmoid'
))
# Compile model
model
.
compile
(
loss
=
'binary_crossentropy'
,
optimizer
=
'adam'
,
metrics
=
[
'accuracy'
])
# Fit the model
history
=
model
.
fit
(
X
,
Y
,
validation_split
=
0.33
,
epochs
=
150
,
batch_size
=
10
,
verbose
=
0
)
# list all data in history
print
(
history
.
history
.
keys
())
# summarize history for accuracy
plt
.
plot
(
history
.
history
[
'acc'
])
plt
.
plot
(
history
.
history
[
'val_acc'
])
plt
.
title
(
'model accuracy'
)
plt
.
ylabel
(
'accuracy'
)
plt
.
xlabel
(
'epoch'
)
plt
.
legend
([
'train'
,
'test'
],
loc
=
'upper left'
)
plt
.
show
()
# summarize history for loss
plt
.
plot
(
history
.
history
[
'loss'
])
plt
.
plot
(
history
.
history
[
'val_loss'
])
plt
.
title
(
'model loss'
)
plt
.
ylabel
(
'loss'
)
plt
.
xlabel
(
'epoch'
)
plt
.
legend
([
'train'
,
'test'
],
loc
=
'upper left'
)
plt
.
show
()
```
下面提供了这些情节。验证数据集的历史记录按惯例标记为测试,因为它确实是模型的测试数据集。
从准确度的图表中我们可以看出,模型可能会受到更多的训练,因为两个数据集的准确度趋势在最后几个时期仍在上升。我们还可以看到该模型尚未过度学习训练数据集,在两个数据集上显示出相似的技能。
![
Plot of Model Accuracy on Train and Validation Datasets
](
img/aa735153796f8cda098d2fe7fb675e75.png
)
训练和验证数据集的模型精度图
从损失图中,我们可以看到该模型在训练和验证数据集上都具有可比性(标记为测试)。如果这些平行的地块开始一致地离开,那么可能是在早期时期停止训练的迹象。
![
Plot of Model Loss on Training and Validation Datasets
](
img/429db1e26cf59719f9b941d5e8a7b919.png
)
关于训练和验证数据集的模型损失情节
## 摘要
在这篇文章中,您发现了在深度学习模型训练过程中收集和检查指标的重要性。
您了解了 Keras 中的历史回调以及它是如何从调用 fit()函数返回以训练模型的。您学习了如何根据训练期间收集的历史数据创建绘图。
您对模特训练历史或这篇文章有任何疑问吗?在评论中提出您的问题,我会尽力回答。
\ No newline at end of file
# 在 Keras 展示深度学习模型训练历史
> 原文: [https://machinelearningmastery.com/display-deep-learning-model-training-history-in-keras/](https://machinelearningmastery.com/display-deep-learning-model-training-history-in-keras/)
您可以通过观察他们在训练期间随时间的表现来学习很多关于神经网络和深度学习模型的知识。
Keras 是一个功能强大的 Python 库,它提供了一个简洁的交互方式用来创建深度学习模型,并包含更高技术的 TensorFlow 和 Theano 后端。
在本文中,您将了解如何在使用 Keras 进行 Python 训练期间查看和可视化深度学习模型的性能表现。
让我们开始吧。
*
**2017 年 3 月更新:**
更新了 Keras 2.0.2,TensorFlow 1.0.1 和 Theano 0.9.0
**的示例。**
*
**更新 March / 2018**
:添加了备用链接以下载数据集,因为原始图像已被删除。
![
Display Deep Learning Model Training History in Keras
](
img/8f6199089c1bc957ea5e0a9d478c098a.png
)
照片由
[
Gordon Robertson
](
https://www.flickr.com/photos/gordon_robertson/5620659988/
)
拍摄,并保留所属权利。
## Keras 中的访问模型训练历史
Keras 提供了在训练深度学习模型时注册回调的功能。
训练所有深度学习模型时注册的默认回调之一是
[
历史回调
](
http://keras.io/callbacks/
)
,它记录每个迭代期间的训练指标,这包括损失和精确性(对于分类问题)以及验证数据集的损失和准确性(如果已设置)。
历史对象从调用返回到用于训练模型的
`fit()`
函数返回,度量标准存储在返回对象的历史成员中的字典中。
例如,您可以在训练模型后使用以下代码段列出历史记录对象中收集的指标:
```
py
# 列出历史对象的所有数据
print
(
history
.
history
.
keys
())
```
例如,对于使用验证数据集训练分类问题的模型,这可能会产生以下列表:
```
py
[
'acc'
,
'loss'
,
'val_acc'
,
'val_loss'
]
```
我们可以使用历史对象中收集的数据来创建绘图。
这些图可以提供有关模型训练的有用信息的指示,例如:
*
整个迭代期间的的收敛速度(曲线坡度)。
*
模型是否已经收敛(平缓的曲线)。
*
模型是否可能过度学习训练数据(验证集曲线的拐点)。
等等。
## 可视化 Keras 中的模型训练历史
我们可以从收集的历史数据中创建图形。
在下面的例子中,我们创建了一个小型网络来模拟皮马印第安人糖尿病二元分类问题。这是一个可从 UCI 机器学习库获得的小型数据集,您可以
[
下载数据集
](
http://archive.ics.uci.edu/ml/machine-learning-databases/pima-indians-diabetes/pima-indians-diabetes.data
)
并将其保存为当前工作目录中的 _pima-indians-diabetes.csv_ (更新:
[
从此处下载
](
https://raw.githubusercontent.com/jbrownlee/Datasets/master/pima-indians-diabetes.data.csv
)
)。
该示例收集从训练模型返回的历史记录并创建两个图表:
1.
训练时期训练和验证数据集的准确性图。
2.
训练和验证数据集在训练时期的损失图。
```
py
# 可视化训练历史
from
keras.models
import
Sequential
from
keras.layers
import
Dense
import
matplotlib.pyplot
as
plt
import
numpy
# 固定随机种子再现性
seed
=
7
numpy
.
random
.
seed
(
seed
)
# 加载数据集
dataset
=
numpy
.
loadtxt
(
"pima-indians-diabetes.csv"
,
delimiter
=
","
)
# 将数据集划分为输入变量和输出变量
X
=
dataset
[:,
0
:
8
]
Y
=
dataset
[:,
8
]
# 创建模型
model
=
Sequential
()
model
.
add
(
Dense
(
12
,
input_dim
=
8
,
kernel_initializer
=
'uniform'
,
activation
=
'relu'
))
model
.
add
(
Dense
(
8
,
kernel_initializer
=
'uniform'
,
activation
=
'relu'
))
model
.
add
(
Dense
(
1
,
kernel_initializer
=
'uniform'
,
activation
=
'sigmoid'
))
# 编译模型
model
.
compile
(
loss
=
'binary_crossentropy'
,
optimizer
=
'adam'
,
metrics
=
[
'accuracy'
])
# 拟合模型
history
=
model
.
fit
(
X
,
Y
,
validation_split
=
0.33
,
epochs
=
150
,
batch_size
=
10
,
verbose
=
0
)
# 列出所有的训练历史数据
print
(
history
.
history
.
keys
())
# 总结精确度历史
plt
.
plot
(
history
.
history
[
'acc'
])
plt
.
plot
(
history
.
history
[
'val_acc'
])
plt
.
title
(
'model accuracy'
)
plt
.
ylabel
(
'accuracy'
)
plt
.
xlabel
(
'epoch'
)
plt
.
legend
([
'train'
,
'test'
],
loc
=
'upper left'
)
plt
.
show
()
# 总结损失历史
plt
.
plot
(
history
.
history
[
'loss'
])
plt
.
plot
(
history
.
history
[
'val_loss'
])
plt
.
title
(
'model loss'
)
plt
.
ylabel
(
'loss'
)
plt
.
xlabel
(
'epoch'
)
plt
.
legend
([
'train'
,
'test'
],
loc
=
'upper left'
)
plt
.
show
()
```
如下图所示,验证数据集的历史记录按照模型的测试数据集的惯例被标记为测试数据。
从精度图中我们可以看到,由于两个数据集的精度趋势在过去几个训练迭代中仍在上升,因此模型可能可以受到更多的训练,我们还可以看到,两个数据集可比较的技巧,显示了模型尚未过度学习训练数据集。
![
Plot of Model Accuracy on Train and Validation Datasets
](
img/aa735153796f8cda098d2fe7fb675e75.png
)
图:训练和验证数据集的模型精度图
从损失图中我们可以看到,模型在训练和验证数据集(标记测试)上具有可比较的性能,如果这些相互平行图开始一较为一致的分散,这可能是一个模型过早停止训练的信号。
![
Plot of Model Loss on Training and Validation Datasets
](
img/429db1e26cf59719f9b941d5e8a7b919.png
)
图:关于训练和验证数据集的模型损失情节
## 摘要
在这篇文章中,您了解了了在深度学习模型训练过程中收集和检查指标的重要性。
您了解了 Keras 中的历史回调以及它是如何从调用
`fit()`
函数返回以训练模型的,您学习了如何根据训练期间收集的历史数据创建绘图。
您对模型训练历史或这篇文章有任何疑问吗?在评论中提出您的问题,我会尽力回答。
\ No newline at end of file
编辑
预览
Markdown
is supported
0%
请重试
或
添加新附件
.
添加附件
取消
You are about to add
0
people
to the discussion. Proceed with caution.
先完成此消息的编辑!
取消
想要评论请
注册
或
登录