提交 85ec6eea 编写于 作者: Z zhengnengjin

Modify Document 2

上级 7196bbf2
......@@ -261,7 +261,7 @@ mox.file.copy_parallel(src_url='bert_classfication-3_3335.ckpt',
1. 点击提交以开始训练;
2. 在训练作业列表里可以看到刚创建的训练作业,在训练作业页面可以看到版本管理;
3. 点击运行中的训练作业,在展开的窗口中可以查看作业配置信息,以及训练过程中的日志,日志会不断刷新,等训练作业完成后也可以下载日志到本地进行查看;
4. 在训练日志中可以看到`epoch: 10 step: 10, loss is 10.741777`等字段,即预训练过程的loss数据。
4. 在训练日志中可以看到`epoch: 10, outputs are:([10.741777], False)`等字段,即预训练过程的loss数据。
### 微调BERT
......
Markdown is supported
0% .
You are about to add 0 people to the discussion. Proceed with caution.
先完成此消息的编辑!
想要评论请 注册